Refine
Year of publication
Document Type
- Bachelor Thesis (575)
- Master's Thesis (142)
- Conference Proceeding (61)
- Book (14)
- Article (reviewed) (2)
- Other (2)
Conference Type
- Konferenzband (60)
- Konferenzartikel (1)
Language
- German (796) (remove)
Is part of the Bibliography
- no (796) (remove)
Keywords
- Mikroelektronik (60)
- Marketing (30)
- IT-Sicherheit (16)
- Biomechanik (15)
- Social Media (15)
- E-Learning (14)
- JavaScript (14)
- Internet der Dinge (13)
- Künstliche Intelligenz (13)
- Webentwicklung (13)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (284)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (145)
- Fakultät Medien (M) (ab 22.04.2021) (134)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (123)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (85)
- Fakultät Wirtschaft (W) (9)
- INES - Institut für nachhaltige Energiesysteme (4)
- IUAS - Institute for Unmanned Aerial Systems (2)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (2)
- IBMS - Institute for Advanced Biomechanics and Motion Studies (ab 16.11.2022) (1)
Open Access
- Closed Access (422)
- Open Access (198)
- Closed (176)
- Bronze (60)
- Diamond (11)
Die Internationalisierung ist mittlerweile ein zentraler Aspekt der gegenwärtigen ökonomischen Debatte. Inzwischen sind nämlich immer mehr Unternehmungen von der internationalen Verschmelzung der Märkte und Branchen betroffen. Haben lange Zeit überwiegend Großunternehmen und Konzerne über die nationalen Grenzen hinweg agiert, stellt sich zunehmend auch der Mittelstand der Herausforderung der Internationalisierung. Schließlich bieten sich international tätigen Firmen durch die Erschließung neuer Märkte unter anderem eine Reihe von attraktiven Wachstumschancen.
Meiner Meinung nach ist Christopher Nolans Meisterwerk „Oppenheimer“ eindeutig der Film des Jahres. Nolan zählt für mich zu einem der bedeutendsten Regisseure der Filmkunst. Im Kino zog mich der Film in den Bann. 3 Stunden vergingen wie im Flug. Doch warum fasziniert mich dieser Film so sehr? Wie hat Nolan hier gearbeitet? Diese wissenschaftliche Arbeit soll dieses Lichtspiel filmästhetisch analysieren. Diese Analyse beschäftigt sich einerseits mit dem Film und andererseits mit der Biografie „J. Robert Oppenheimer“ von Kai Bird und Martin J. Sherwin als Hauptquellen. Es werden die Handlung, die Kameraarbeit, das Szenenbild, die Audiogestaltung, die Filmmusik und die Montage analysiert. Zum Schluss werden Filmkritiken untersucht, um zu analysieren, wie der Film in der breiten Masse ankam.
Für Unternehmen ist es zunehmend von Interesse, durch Social-Media-Kommunikation nicht nur die Aufmerksamkeit der Zielgruppe zu wecken, sondern mit der aufmerksamkeitsstarken Ansprache die Wahrnehmung ihrer Marke und das marktbezogene Verhalten zu beeinflussen. Humorvolle Appelle sind in diesem Zusammenhang zur gängigen Werbepraxis geworden und finden auf Social Media in der direkten Interaktion zwischen Marken und ihrer Zielgruppe statt. Mit der vorliegenden Arbeit wird humorvoll-schlagfertige Unternehmenskommunikation auf Social Media untersucht. Das Ziel war es, die Wirkungszusammenhänge zwischen derartiger Kommunikation, deren Bewertung, dem Markenimage, der Markenauthentizität und den Handlungsabsichten besser zu verstehen. Die Erkenntnisse über diese Zusammenhänge können sowohl der weiteren Erforschung als auch künftigen Marketingentscheidungen dienen.
Im Zuge dessen wurden die theoretischen Hintergründe moderner Markenkommunikation sowie der Konzepte Humor und Schlagfertigkeit ausgearbeitet. Der empirische Teil der Arbeit besteht aus der Konzipierung, Durchführung, Analyse und Ergebnisdiskussion einer quantitativen Studie. Zu den zentralen Ergebnissen zählt, dass sich der Grad an Humor und an Schlagfertigkeit darauf auswirkt, wie sehr die Kommunikation gefällt. Wenn diese gut gefällt, stärkt das wiederum das Markenimage. Auch die wahrgenommene Markenauthentizität bestimmt das Markenimage und wird selbst vor allem durch den Grad der Schlagfertigkeit bestimmt. Das Markenimage beeinflusst die Weiterleitungsabsicht der Kommunikation (virale Effekte) und die Kaufabsicht. Dabei unterscheidet sich humorvoll-schlagfertige Unternehmenskommunikation von neutraler Vergleichskommunikation hinsichtlich der Weiterleitungsabsicht signifikant.
3D Produktpräsentationen im Internet sind komplexe Rich Media Anwendungen, bei deren Erstellung es viel zu beachten gilt. Diese Arbeit beleuchtet verschiedene Aspekte zur Erstellung von 3D Produktpräsentationen. Das Zielmedium Internet, die Gestaltung von 3D Produkten und Layouts, die Interaktivität von 3D Produktseiten, Technologien zu Erstellung, technische Hürden des Mediums, Visionen und ein Projektablauf sowie eine Perspektive zur Entwicklung von 3D Produktpräsentationen sind die inhaltlichen Schwerpunkte der Arbeit.
Technologie spielt im Sport schon immer eine große Rolle. Mit steigender Leistungsdichte im Spitzensport wird versucht mithilfe technischer Hilfsmittel dem Sportler die optimalen Umstände zu ermöglichen. Dazu gehört nicht nur Technik im Sportequiptment, sondern auch Sportuntersuchungen wie Leistungsdiagnostiken. Im Laufsport zählen dazu Ausdauer- und Krafttests. Bei Ausdauertests werden physiologische Parameter wie Laktat, Herzfrequenz oder Sauerstoffaufnahme gemessen. Zusätzlich wird die Lauftechnik für einen kurzen Zeitpunkt analysiert. Wie sich diese unter anhaltender Belastung verhält, wird nicht untersucht. Mit neuen Technologien im Bereich Bewegungsanalyse, können immer schneller größere Datensätze ausgewertet werden. Aus diesem Grund wird in dieser Studie die Lauftechnik über mehrere Zeitpunkte aufgezeichnet und nach Ermüdungserscheinungen untersucht.
Dazu wurde am Institut für angewandte Trainingswissenschaften (IAT) während einer komplexen Leistungsdiagnostik im März 2021 bei einem Laufbandstufentest (4x2000m oder 4x3000m) die Lauftechnik von 15 Elite- und Elitenachwuchsläufer:innen (m=8, w=7) mithilfe eines 3D-Bewegungsanalyse Systems nach Veränderungen in Winkelstellung und Bodenreaktionskraft untersucht. Als physiologische Vergleichsparameter wurde Herzfrequenz und Laktat aufgenommen.
Bei der Analyse der Daten wurden diese in der Gruppe betrachtet. Dabei haben sich schwach signifikante Veränderungen (p=0,047) der vertikalen Bodenreaktionskraft links am Ende der Stufe aufgezeigt. Weitere signifikante Unterschiede (p=0,020) sind im maximalen Kniehub links zu einem größerer Hüftwinkel am Ende sichtbar. Da sonst keine signifikanten Unterschiede zu sehen sind, lässt sich, bei dem hier durchgeführten Protokoll, nicht statistisch gesichert feststellen, ob auftretende Ermüdungserscheinungen die Lauftechnik beeinflussen und verändern. Um festzustellen, ob es geschlechts- oder protokollanhängige Effekte hinsichtlich einer ermüdungsbedingte Lauftechnikveränderung gibt, wurde auch dies statistisch untersucht.
Hier zeigten sich jeweils in einzelnen Parametern signifikante Unterschiede (Parameter TO\_knee\_left; p=0,026) in der Geschlechtsspezifik und in der protokollabhängigen Untersuchung (Parameter TSw\_hip\_left; p=0,04)
Für weitere Studien zur Untersuchung von Lauftechnikveränderung sollten umfangreichere physiologische Daten zur genaueren Betrachtung der Ermüdung verwendet werden. Grundsätzlich müsste das Protokoll auf eine maximale Ausbelastung (beispielsweise Dauerstufentest von 10-15km oder Ausbelastungs-/Abbruchtest) ausgelegt sein.
Grundlegend ist festzustellen, dass sich Simi-Shape als 3D-Bewegungsanalyse-Methode eignet, um spezifische Parameter in der Lauftechnik zu diagnostizieren, gerade hinsichtlich der Effizienz im Auswerteprozess.
3D-Druck für Privatanwender
(2014)
„It’s basically like a hot-glue gun that uses the same kind of plastic used to make Legos“
So beschreibt Bre Pettis, CEO von Makerbot Industries, das 3D-Druckverfahren welches bei den meisten 3D Druckern für den privaten Gebrauch verwendet wird. Was ist der 3D-Druck eigentlich? Wo kann er eingesetzt werden? Wird irgendwann ein 3D-Drucker in jedem Haushalt zu finden sein? Um Antworten auf diese Fragen zu finden, habe ich im Rahmen meiner Bachelorarbeit einen 3D-Drucker zusammengebaut und versucht mehr über diese spannende Zukunftstechnologie zu erfahren.
Die Arbeit behandelt das Thema 3D-Gestensteuerungen als MIDI-Controller in Audioanwendungen. Es wird anhand der momentan verfügbaren 3D-Gesten-Steuerungstechnik erforscht, welche Einsatzmöglichkeiten im Bereich der Audiotechnik beziehungsweise im Sounddesign gegeben sind. Die Erforschung der technischen Grundlagen aus Software und Hardware-Modulen als auch die Performance-Bewertungen bilden die technischen Grundlagen ab, während anschliessend ausgewählte Audioanwendungen beschrieben werden, welche in einer Befragung auf ihre Nutzbarkeit überprüft werden. Es wird beschrieben wie man mit einer 3D-Gestensteuerung, wie dem Kinect-Sensor, Musik oder Sounds produzieren kann, und wie man diese Technik sinnvoll einsetzten kann.
Die vorliegende Bachelorthesis befasst sich mit der Reproduktion der ersten „eisernen Hand“ des Götz von Berlichingen. Die Aufgabenstellung ist es, einen Öffnungsmechanismus zu entwickeln, welcher die zwei Fingerblöcke in die geöffnete Grundstreckstellung zurückführt, wenn die Finger zur Handinnenfläche eingefahren sind. Außerdem sollen die Fingerblöcke in drei verschiedenen Positionen einrasten können, wenn sie nach innen gedrückt werden. Insgesamt soll die Mechanik der Fingerblöcke durch 3D-unterstützte Optimierung von Bauteilen verbessert und unterstützt werden.
Der neukonstruierte Öffnungsmechanismus beinhaltet eine Drehfeder pro Fingerblock. Zudem begünstigt die CAD-Optimierung des Daumensystems und des Fingersystems die Mechanik der Fingerblöcke.
5 Jahre OHRbits - Resümee und neue Ideen Ziel dieser Arbeit war die Untersuchung des privaten Rundfunks in kleinen Regionen wie der Ortenau, binnen der letzten 20 Jahre, gesondert der Privaten Rundfunkgesellschaft Ortenau KG. Hierzu wurden die Möglichkeiten von Kundenbindungsmassnahmen im Hörfunk, wie den seit fünf Jahren existierenden OHRbits, untersucht und deren Entwicklung, Stärken und Schwächen, untersucht. Um Konzepte für die Zukunft entwickeln zu können wurde eine Umfrage unter 800 Programmteilnehmern sowie einer Auswahl an Partnerunternehmen der OHRbits durchgeführt. Auf diesen Resultaten basierend wurden nun neue Konzepte entwickelt. Neben diesem Zweig wurden überregionale Systeme wie Payback oder Happy Digits untersucht und vorgestellt, sowie das OHRbits-System mit Systemen anderer Zeitungsverlage, verglichen, genauer mit der LeserPlus-Card der Mittelbadischen Presse, der BZCard der Badischen Zeitung, sowie der CleverKarte der Lüneburger Landeszeitung.
In dieser Abschlussarbeit wurde die bisherige Spielstrategie des RoboCup3D-Clients an die durch den FatProxy möglich gewordenen perfekten Kicks angepasst. Dazu wurde die aktive Entscheidungslogik am Ball komplett überarbeitet und eine neue Positionierungsstrategie anhand der bisher verwendeten Architektur entwickelt.
Die neue aktive Entscheidungslogik verwendet dabei eine neue, von den Mitspielerpositionen abhängige, Positionsberechnung und mehrere neue Bewertungsmethoden, die diese Positionen bewerten. Zusätzlich gibt es nun auch eine Funktionalität, die den neu benötigten vertikalen Schusswinkel für jede Position bestimmt. Für die neue Positionierung wurde eine Rautenformation gewählt, bei der die verschiedenen Rollen jetzt eigene Spielfeldbereiche zugewiesen bekommen, die sich teilweise überlappen. Diese Bereiche sind nötig geworden, da die Rollen sich jetzt weniger am Ball und mehr direkt am Spielfeld orientieren.
Bei der zum Schluss durchgeführten Evaluation der Spielergebnisse zwischen neuen und alten Strategiekonfigurationen hat sich ergeben, dass die komplett neue Strategiezusammenstellung mit durchschnittlich zwei Toren Vorsprung gegen die alte Strategie gewinnt und damit besser mit den neuen Möglichkeiten interagiert. Mischt man neue und alte Strategiekomponenten hat das jedoch den gegenteiligen Effekt, da die Mischvarianten gegen die alte Strategie verlieren. Die neuen Komponenten benötigen also das gegenseitige Zusammenspiel, um effizient zu funktionieren.
Eine schlechte Erreichbarkeit junger Zielgruppen und hohe Preise, sind Gründe für die schwindende Beliebtheit des Werbeformats TV-Werbung. Unternehmen greifen zunehmend auf Online-Werbung zurück, um ihre Produkte kostengünstig und gezielt zu vermarkten. Eine neue, digitale Form der TV-Werbung, Addressable TV, verspricht nun neue Chancen für eine Rückkehr der Werbung über den "Big Screen".
Ziel der vorliegenden Arbeit ist es Handlungsempfehlungen für Werbetreibende in Bezug auf Addressable TV abzuleiten. Es soll geklärt werden unter welchen Umständen und für welche Art von Unternehmen eine Nutzung erfolgversprechend sein kann.
Aktivität gibt Energie
(2017)
Jeder Mensch ist ständig unfreiwillig von einer Flut akustischer Reize umgeben. Diese Situation stellt für Menschen mit Hörverlust eine besondere Herausforderung dar. Menschen mit Hörverlust hören durch Hörgeräte zwar alles verstärkt, jedoch stellt sich die Frage, ob ein Hörgerät lediglich eine einfache Verstärkung von Schallwellen ist oder ob es darüber hinausgehende Funktionen bieten kann.
Die vorliegende Thesis widmet sich der akustischen Szenenanalyse in Hörgeräten, wobei der Schwerpunkt auf der Integration von Machine Learning liegt. Das Ziel besteht darin, eine automatisierte Erkennung und Anpassung an verschiedene akustische Situationen zu ermöglichen. Die Arbeit konzentriert sich insbesondere auf die Analyse grundlegender Szenarien wie: Sprache in Ruhe, absolute Ruhe, Sprache in Störgeräuschen und Störgeräuschen in Audiodaten.
Go ist eine 2009 veröffentlichte Programmiersprache mit einem statischen Typsystem. Seit Version 1.18 sind auch Generics ein Teil der Sprache. Deren Übersetzung wurde im de facto Standard-Compiler mittels Monomorphisierung umgesetzt. Diese bringt neben einigen Vorteilen auch Nachteile mit sich. Aus diesem Grund beschäftigt sich diese Arbeit mit einer alternativen Übersetzungsstrategie für Generics in Go und implementiert diese in einem neuen Compiler für Featherweight Generic Go, einem Subset von Go. Zum Schluss steht damit ein nahezu funktionierender Compiler, welcher schließlich Racket-Code ausgibt. Eine Evaluierung der Performanz der Übersetzungsstrategie ist allerdings noch ausstehend.
Analyse der Anwendbarkeit des Dynamische Fähigkeiten-Konzepts am Beispiel von Großhandelsunternehmen
(2019)
Eine Anpassung aufgrund sich schnell verändernder Geschäftsumgebungen an aktuelle Gegebenheiten ist für alle Unternehmen sowohl in der freien Wirtschaft als auch staatlichen Ursprungs relevant. Diese kann durch starke dynamische Fähigkeiten der involvierten Unternehmen erfolgen. Zur Validierung des theoretischen Konzepts der dynamischen Fähigkeiten werden Großhandelsunternehmen herangezogen und deren Unternehmensaktivitäten im Hinblick auf die erste dynamische Fähigkeit in Gesprächen ermittelt. Die Ausführungen der vier Großhändler zielen in einem ersten Teil darauf ab, die grundsätzliche Anwendbarkeit des Konzepts in der Praxis zu bestätigen. In einem zweiten Teil wird analysiert in welchem Umfang sie für die betrachtete Branche beschrieben werden kann. Es zeigt sich, dass das Dynamische Fähigkeiten-Konzept nicht ohne Einschränkungen auf die Praxis übertragen werden kann, wenngleich die Ausprägungen dem Konzept zugrundeliegender Elemente bei allen Firmen ähnlich sind. Trotz dieser Ähnlichkeit konnten keine festen Muster bzw. Interdependenzen erkannt werden, die die Integration, den Aufbau und/oder die Neukonfiguration von Fähigkeiten zuverlässig fördern. Die Resultate ermöglichen es dennoch in einem letzten Teil zu beurteilen, welche Indikatoren eine Basis zur strategischen Anpassung an den Strukturwandel schaffen. Sie sind Teil der formulierten Hypothesen zu den einzelnen Elementen der ersten dynamischen Fähigkeit. Mit der Summe der Erkenntnisse konnte in gewisser Hinsicht eine Transparenz des Konzepts erreicht werden – mit Hilfe des entwickelten Interviewleitfadens kann analog zum Vorgehen in dieser Arbeit für die zweite und dritte dynamische Fähigkeit verfahren werden, sodass in einem breiteren Kontext erneut eine Aussage über die Anwendbarkeit des Konzepts getroffen werden kann.
Mit zunehmender Digitalisierung ist zu erwarten, dass die Informationsflut, hinsichtlich der täglich auf die Rezipienten einprasselnden Werbebotschaften, immer weiter zunimmt. Dies mag für Werbetreibende mit hohen Budgets und vorhandener Reichweite keine Herausforderung darstellen, dennoch gibt es einen großen Teil der Unternehmen in Deutschland, welche von eben jene bereits bestehenden Voraussetzungen nicht profitieren können. Im Bereich der klein- und mittelständischen Unternehmen, zu denen auch ein Großteil der Handwerksunternehmen zählen, ist ein übermäßig großes Werbebudget meist nicht vorhanden. Um das eigene Unternehmen von Mitbewerbern und Konkurrenz abzuheben, finden immer innovativere Werbeformen den Einsatz in der Unternehmenskommunikation. Hierbei lässt sich eine Tendenz weg von der klassischen Push-Kommunikation hin zu einer wohlbedachten Pull-Kommunikation entdecken. In diesem Bereich ist das Buzzwort Content-Marketing in aller Munde und fungiert als übergeordnete Instanz des Storytellings. Ferner bietet die Entwicklung von rein informativen Werbebotschaften hin zum ,Geschichten erzählen‘ eine Vielzahl von Vorteilen. Neben einer größeren Viralkraft, bleiben Geschichten durch bessere Verknüpfung im ,neuronalen Netz‘ des Gehirns länger und nachdrücklicher im Gedächtnis der Zielgruppe. Darüber hinaus bietet Storytelling, online wie offline, hervorragende Möglichkeiten hinsichtlich der Distribution.
Die vorliegende Bachelorarbeit bietet einen Implementierungsleitfaden für Storytelling-Maßnahmen für die Bereich Print und Screen, sowie eine Bewertung der Plattformen hinsichtlich der Distribution. Zu den Vorüberlegungen einer Implementierung von Storytelling in die Unternehmenskommunikation, wurden in den Unterthemen außerdem die strategischen Aspekte der Integrationsstufen und der Distributionskanäle vorgenommen. Durch eine Befragung potenzieller Kunden von Handwerksunternehmen, können Rückschlüsse auf die beliebtesten Inhalte einer Storytelling-Kampagne von Handwerksunternehmen gewonnen werden. Somit kann die Kundenansprache durch Storytelling effektiver und gewinnbringender betrieben werden.
In dieser Arbeit wird ein Grundverständnis für Farben am Bildschirm und deren Nutzen speziell für Onlineshops geschaffen. Dafür werden die physikalischen Grundlagen des Farbsehens erklärt, die Bedeutung des Farbkreises an Hand dessen Regeln für das Zusammenspiel von Farben verdeutlicht sowie aktuelle Modelle zur Farbordnung vorgestellt. Außerdem werden technische Möglichkeiten zur Farbdarstellung erläutert, gefolgt von der Farbpsychologie, welche die Wirkung von Farben auf den Menschen verdeutlicht. Anschließend werden aktuelle Farbtrends ermittelt. Der Einsatz und die Funktionsweise von Farben wird an Hand von Beispielwebseiten veranschaulicht. Am Ende liegt der Focus auf dem Nutzen von Farben im Online-Marketing, wobei deren Einfluss auf Verkaufsentscheidungen ermittelt wird. An Hand eines eigenen Klickdummys eines Mode-Onlineshops, der auf Basis von zuvor gewonnenem Know-How gestaltet und umgesetzt ist, werden die gesammelten Erkenntnisse in die Praxis umgesetzt und erprobt. Abschließend wird mittels einer Umfrage der Farbeinsatz und seine Wirkung auf Kunden getestet.
Analyse der Finanzierungs- und Überlebensstrategien von Bands im Streaming-Zeitalter in Deutschland
(2020)
Die vorliegende Bachelorarbeit befasst sich mit der Analyse der Finanzierungs- und Überlebensstrategien von Bands im Streaming-Zeitalter in Deutschland. Hierbei soll untersucht werden, wie Musikstreaming die finanziellen Einkünfte für Musiker verändert hat, warum Musiker vom Streaming nur in geringem Maße profitieren und wie sie versuchen den geringen Streaming-Einnahmen entgegenzuwirken.
Die Arbeit führt durch theoretische Betrachtungen der Musikindustrie auf die heute herrschende Problematik durch Streaming hin. Dabei werden einzelne Akteure der Musikindustrie, die Erlösquellen für Musiker und Bands, der Einfluss des Musikkonsums auf die finanziellen Erlöse und die Veränderungen, die Streaming für die Musikwelt mit sich bringt, betrachtet. Darüber hinaus wurde eine multiple Fallstudie mit fünf Bands unterschiedlicher Bekanntheit durchgeführt. Zu den in der Studie untersuchten Bands zählen die Leoniden, Heisskalt, Blackout Problems, Killerpilze und City Light Thief. Die Studie soll einen Einblick geben, welche Möglichkeiten deutsche Bands nutzen, um im Streaming-Zeitalter erfolgreich zu sein. Daraus werden abschließend einige Faktoren abgeleitet, die zur Finanzierung und zum Überleben deutscher Bands
beitragen können.
Die vorliegende Bachelorarbeit gibt einen Überblick über die Positionierung der Krisenkommunikation im Krisenmanagement. Hierbei soll die Arbeit als Leitfaden dienen, um ein umfangreiches Verständnis über die Einflussnahme und die effektive Anwendung von interner und externer Krisenkommunikation zu entwickeln. Neben der Erläuterung mithilfe von Fallbeispielen, ermöglicht die Arbeit auch einen Einblick des Einsatzes im Krisenmanagement. Mithilfe des BSI-Standards 100-4 Notfallmanagement, wird dies verdeutlicht. Besonderes Augenmerk erhält die externe Krisenkommunikation mithilfe von Social Media.
Die Basis der Bachelorarbeit stellt die Auswertung von zahlreicher Literatur dar. Hierbei wurde auf Monographien, Sammelwerke, Forenbeiträge, Handbücher und internationale Standards zurückgegriffen.
Diese Arbeit bietet an, ein tieferes Verständnis über den Bereich der Krisenkommunikation zu erhalten. Ebenfalls zeigt sie Optimierungsmöglichkeiten auf, wo interne sowie externe Krisenkommunikation noch erfolgreicher umgesetzt werden kann.
Der wachsende Trend zur Individualisierung von Produkten wird von immer mehr Unternehmen aufgegriffen und umgesetzt. Mithilfe von Produktkonfiguratoren bieten sie ihren Kund*innen die Möglichkeit, ihr eigenes Produkt nach Wunsch zu kreieren. Die Konfiguratoren stehen mit dieser Interaktion vor der Herausforderung die Nutzer*innen als Nicht-Experten erfolgreich durch den Prozess zu leiten. Ein zentraler Bestandteil der erfolgreichen Umsetzung ist die Benutzerfreundlichkeit und dessen anwendungsorientierte Gestaltung.
Diese Arbeit befasst sich mit der Analyse und Optimierung der Usability des Möbelkonfigurators der mycs GmbH. Das Ziel der Arbeit ist die Aufdeckung von Schwachstellen und die Entwicklung passender Handlungsempfehlungen für die Optimierung der Benutzerfreundlichkeit.
Zu diesem Zweck wird der IST-Zustand des Konfigurators ermittelt und darauf aufbauend ein Usability-Test erstellt und durchgeführt. Die verwendeten Methoden des Tests sind Remote-Usability-Interviews, eine qualitative Nachbefragung und die Think-Aloud-Methode. Die im Anschluss ermittelten Handlungsempfehlungen stellen Lösungen zu den analysierten Schwachstellen des Usability-Tests dar.
Die Ergebnisse der Analyse zeigen Schwachstellen in der Orientierung und Unterstützung von Nutzer*innen. Sie bestätigen zudem die Wichtigkeiten dieser beiden Kriterien für die Auseinandersetzung mit einem Möbelkonfigurator. Die entwickelten Handlungsempfehlungen zeigen einige Verbesserungen der Bereiche mit geringem Umsetzungsaufwand auf.
An der Offenburger Hochschule wurde eine neue Art der Ansteuerungsmethode für Handprothesen und -orthesen entwickelt, die auf der Verwendung einer Augmented Reality Brille basiert. Dieses neue Prothesensystem soll in einer ersten Studie an Probanden auf seine Alltagstauglichkeit getestet werden. Ziel dieser Arbeit ist es, die regulatorischen Anforderungen an eine solche Studie zusammenzustellen, mit Schwerpunkt auf einem Antrag bei einer Ethikkommission. Außerdem sind mittels Literaturrecherche Tests zu identifizieren und zu analysieren, die für die Beurteilung von Handprothesen verwendet werden. Hierfür wird erörtert was Alltagstauglichkeit bedeutet und welche Eigenschaften und Ziele identifizierte Tests haben.
Das Ziel dieser Arbeit war es zu prüfen, ob bei der Verwendung von Perturbationen in einem Laufschuhvergleich eine Adaptations-Phase im Voraus durchgeführt werden sollte, um den Einfluss potenzieller Adaptationseffekte zu reduzieren. Dafür absolvierten die acht Probanden insgesamt 15 Perturbationen auf einem Laufband, welche sich durch die kurzzeitige Beschleunigung des Laufbands von 2,5 𝑚/𝑠 auf 3,5 𝑚/𝑠 kennzeichneten. Anschließend wurden aus den normalisierten Daten die initialen Gelenkswinkel bei Bodenkontakt im Knie und Sprunggelenk, die minimale bzw. maximale Bodenreaktionskraft in x- bzw. z-Richtung und die Bodenkontaktzeit bestimmt. Um sowohl potenzielle Vorwärtssteuerungen als auch Feedbackbezogene lokomotorische Anpassung zu berücksichtigen, wurden die zwei Schritte vor der Perturbation, der perturbierte Schritt und die drei Schritte nach der Perturbation analysiert. Neben deskriptiver Statistik wurden die einzelnen Schritte mittels Varianzanalyse und paarweisen t-Tests aufeinanderfolgender Trials untersucht. Der initiale Sprunggelenkswinkel zeigt zwar einen Einfluss der Perturbationen im zweiten und dritten Schritt nach der Perturbation, aber es lässt sich keine Anpassung im Verlauf der Messung feststellen. Auch bei der Bodenkontaktzeit lassen sich Unterschiede in den Messwerten und zwischen den Schritten finden, diese können allerdings ebenfalls nicht der Adaptation zugeordnet werden. Die Entwicklung der Mittelwerte und signifikante Ergebnisse in ANOVA und t-Tests deuten beim initialen Kniewinkel für den zweiten und dritten Schritt nach der Perturbation auf eine sukzessive Anpassung des Parameters an den Einfluss der Störung hin, welche nach acht Perturbationen abgeschlossen ist. Für die minimale Bodenreaktionskraft in x-Richtung (Bremskraft) befinden sich die Daten dagegen bereits nach einem Trial auf einem stabilen Niveau, wobei die Abweichungen hier ebenfalls im zweiten Schritt nach der Beschleunigung des Laufbands auftreten. Die maximale vertikale Bodenreaktionskraft (z-Richtung) zeigt Tendenzen zu einer fortschreitenden Anpassung im ersten und zweiten Schritt nach der Perturbation. Hier lassen sich aufgrund des Verlaufs der Mittelwerte und signifikanter Unterschiede beim ersten Schritt sechs Trials als Mindestanzahl für eine Adaptations-Phase ausmachen. Somit konnten in drei von fünf analysierten Parameter Merkmale von Adaptationseffekten gefunden werden, die sich alle in den Schritten nach der Perturbation zeigten und somit Feedbackbezogener Anpassung zuzuordnen sind. Sofern alle Parameter in der anschließenden Messung verwendet werden, sollten in der Adaptations-Phase mindestens acht Perturbationen durchgeführt werden, damit der Einfluss von Anpassungseffekten im Vergleich vernachlässigbar ist.
Mit der neuen Abgasnorm Euro VI und den steigenden Kraftstoffpreisen müssen Nutzfahrzeugantriebe eine Reduzierung der CO2-Emission und eine höhere Effizienz vorweisen (Umweltbundesamt, 2015). Um diese Anforderungen erfüllen zu können, wird bei vielen Nutzfahrzeugherstellern intensiv an Systemen zur Rückgewinnung von Abgasenergie, den sogenannten Waste-Heat-Recovery-Systemen, geforscht. Eine Kraftstoffersparnis von rund 5 % wird dabei angestrebt.
Das System basiert auf einem ORC-Prozess. Bei diesem thermodynamischen Kreisprozess wird die Abwärme des Abgases über einen Wärmetauscher geführt, der das organische Arbeitsfluid Ethanol in einem geschlossenen Kreislauf erhitzt. Durch den Dampfdruckaufbau wird eine Turbine angetrieben. Zur Transformation der Enthalpie des Ethanoldampfes in mechanische Energie sind Drehzahlen von bis zu 120000 U/min notwendig, um eine hohe Effizienz des Systems vorweisen zu können. Systemdrücke bis 50 bar und Temperaturen des Ethanoldampfes von maximal 300 °C treten im WHR-System auf und führen zu extremen Beanspruchungen. Eine besondere Herausforderung stellen hierbei die Wellendichtungen, vor allem bei nutzfahrzeugtypischen Lebensdauern, dar. Als interessante Alternative zeigt sich die Zentrifugal-Wellendichtung, um die hohen Dichtungsanforderungen über die geforderten Laufzeiten zuverlässig zu erfüllen.
Durch methodisch stufenweise ablauforientiertes Vorgehen wird die Analyse der Zentrifugal-Wellendichtungen durchgeführt. Hierbei wird zuallererst das Wirkprinzip untersucht. Ein besonderes Augenmerk wird dabei auf die Wärmeeinträge aus der Umgebung und Verwendung unterschiedlicher Sperrfluide gelegt.
Für eine Testdrehzahl von 15000 U/min ergibt sich, bei einer beidseitig glatten Scheibe mit einem Scheibenradius von 8,7 mm, eine maximal abdichtbare Druckdifferenz von 0,04 bar. Im Sperrfluid herrschen hierbei Temperaturen von rund 50 °C. Die Versuche zeigen Korrelationen zu den bekannten theoretischen Ansätzen von Ketola und McGrey. Die maximale Druckdifferenz beträgt in diesem Fall 0,043 bar. Nachdem stationäre Betrachtungen ausreichend untersucht werden, widmet sich diese Arbeit dem Anfahr- und Not-Aus-Verhalten. Die Optimierung des Projekts wird durch abschließende Verbesserungsvorschläge, für die Realisierung höherer Sperrdrücke, erzielt.
Seit 2009 nimmt das Team ”magmaOffenburg” an der 3D-Simulationsliga des RoboCups teil. Für das erfolgreiche Abschneiden in Turnieren ist die Qualität der erlernten Bewegungsabläufe ein zentraler Faktor. Bisher wurden genetische Algorithmen verwendet, um verschiedenste Aktionen zu erlernen sowie zu optimieren. In dieser Arbeit wird der Deep Reinforcement Learning Algorithmus Proximal Policy Optimization für das Erlernen bestimmter Bewegungen verwendet. Um ein Verständnis für dessen einflussreichen Parameter zu erhalten, werden Größen wie paralleles Lernen, Hyperparameter, Netzwerktopologie, Größe des Observationspace sowie asynchronem Lernen anhand dem Kicken aus dem Stand evaluiert. Durch die Ergebnisse der Evaluierung konnte der erlernte Kick signifikant verbessert werden und sein genetisch erlerntes Gegenstück im Spiel ablösen. Drüber hinaus wurden die Erkenntnisse anhand dem Laufen lernen evaluiert und Zusammenhänge bzw. Unterschiede der zwei Lernprobleme festgestellt.
Analyse domänenseitiger Optimierungen für Deep Reinforcement Learning in der RoboCup Umgebung
(2021)
Mit dem Team "magmaOffenburg" nimmt die Hochschule Offenburg seit 2009 am internationalen Wettbewerb "RoboCup" in der 3D-Simulationsliga für Fußball teil. Dabei kommt es vor allem auf den Einsatz guter Lauf- und Kickverhalten an. Seit 2019 ist es dem Team magmaOffenburg möglich auch Deep Reinforcement Learning für die Weiterentwicklung der Verhalten einzusetzen. Während auf diese Weise schon verwendbare Ergebnisse für das Kicken produziert wurden, so fehlt noch ein Fortschritt beim Laufen lernen. Diese Arbeit beschäftigt sich mit den nötigen Optimierungen auf der Domänenseite, um das gelernte Laufen zu verbessern. Das beinhaltet die Optimierung des Observation- und Actionspaces, sowie auch eine Optimierung der Rewardfunktion. Dabei wurde versucht, die einzelnen Einflüsse verschiedener Parameter und Techniken innerhalb dieser drei Bereiche zu evaluieren. So konnte zum Schluss eine Verbesserung in der Laufgeschwindigkeit von etwas unter einem Meter pro Sekunde auf bis zu 1,8 Metern pro Sekunde erreicht werden. Ausschlaggebend für dieses Ergebnis waren vor allem der Verbesserungen in der Rewardfunktion.
Endress+Hauser Liquid Analysis ist ein erfolgreiches Entwicklungsunternehmen im Bereich der Flüssigkeitsanalyse für Prozesse und Labore. Mit voranschreitender Digitalisierung soll auch das Produktportfolio weiter digitalisiert werden. Ziel dieser Arbeit ist es den Entwicklungsprozess von Endress+Hauser Liquid Analysis auf die Eignung zur Entwicklung digitaler Produkte zu untersuchen. Zur Beantwortung der Fragestellung werden sowohl Literatur als auch mehrere Experten aus dem Fachgebiet zur Rate gezogen. In der Auswertung wird der aktuelle Prozess bewertet und ein geeignetes Prozessmodell für das Unternehmen dargestellt. Das empfohlene Modell wird exemplarisch anhand eines Beispielprojekts aufgezeigt. In einem abschließenden Fazit werden Ergebnisse und Erkenntnisse zusammengetragen.
Die vorliegende Arbeit legt mit der Analyse der globalen Hoteltrends und der Rahmenbedingungen den Grundstein für strategische und operative Entscheidungen im Internationalisierungsprozess der Bohemian Hostels. Dabei werden die globalen Hoteltrends ermittelt, die Wettbewerbsfähigkeit der Bohemian Hostels herausgearbeitet und somit die Sinnhaftigkeit einer
Internationalisierung abgewägt. Als Basis für die Marketingziele und die Marketingstrategie wird in der Branchen- und Konkurrenzanalyse das Wettbewerbsumfeld des Regionalmarktes Accra analysiert. Dadurch sollen die
Rentabilität des Marktes untersucht sowie Positionierungslücken und
Differenzierungsmöglichkeiten aufgezeigt werden. Von der Entwicklung der Marketingziele und -strategie sowie deren Maßnahmen wird jedoch abgesehen.
Stattdessen wird, resultierend aus den Ergebnissen, die Unternehmensphilosophie und das Corporate Design als Teil der Kommunikationspolitik in einem Markenhandbuch festgehalten.
Die Austragung der FIFA Fußball-Weltmeisterschaft 2022 im Emirat Katar polarisierte die deutsche Gesellschaft. In dieser Arbeit wurde nachgeforscht, wie deutsche Medien über die Veranstaltung berichteten und bei welchen Themen die Schwerpunkte gesetzt wurden.
Die Forschung erfolgte unter Anwendung der Techniken qualitativer Inhaltsanalyse nach Philipp Mayring.
Intels Software Guard Extension (SGX) ist eine Technologie, die einen umfassenden Datenschutz verspricht. SGX wurde 2013 als Softwaremodell für die isolierte Ausführung von Anwendungen veröffentlicht.
Mit Intel SGX können Container in einem geschützten Speicherbereich erstellt werden. Diese Container werden Enclave genannt. Es ist nicht möglich den Speicher-
bereich der Enclave auszulesen oder in ihn zu schreiben. Die Enclave soll Integrität und Verfügbarkeit der Daten sicherstellen, auch wenn diese auf einem nicht vertrauenswürdigen Host ausgeführt werden.
In dieser Arbeit soll zunächst ein Überblick über die Funktionsweise und das Potenzial von Intel Software Guard Extension gegeben werden. Vor allem soll analysiert werden
wie Datenbanken mit Hilfe von SGX gesichert werden können und wie groß die Performance einbüßen mit SGX sind.
Aufbauend auf den Grundlagen von Intel SGX und EnclaveDB soll anschließend eine sichere Datenbank erstellt werden. Hierzu wird EnclaveDB von Microsoft analysiert und auf Basis dieser Datenbank eine neue Datenbank erschaffen, die Daten verschlüsselt in der Datenbank speichert ohne, dass diese in Klartext vom Host ausgelesen werden können. Zum Schluss wird die Performance von EnclaveDB und der erstellten Datenbank so gut es geht verglichen.
Längst hat Cloud Computing Einzug in allen Bereichen der Wirtschaft und Industrie gehalten. Dennoch sehen sich Entscheidungsträger angesichts der Heterogenität des Cloudmarkts häufig ratlos mit der Entscheidung konfrontiert, welches Produkt von welchem Anbieter am besten den jeweiligen Bedürfnissen entspricht.
Zwar gibt es mittlerweile eine Vielzahl von Methoden zur Ermittlung der geeignetsten Lösung, dennoch hat sich in Fachkreisen noch kein anerkannter Standard daraus hervorgetan.
In der vorliegenden Thesis werden daher bestehende Strategieansätze analysiert, um sowohl Stärken als auch Schwächen dieser aufzuzeigen. Im Anschluss daran wird eine Möglichkeit vorgestellt, mit der zuvor aufgezeigte Schwächen der bestehenden Ansätze ausgeglichen werden können.
Die Arbeit stützt sich dabei vollständig auf die Recherche einschlägiger Fachliteratur, welche im Rahmen dieser Thesis vorgenommen wurde.
Aus der Forschung ging die Erkenntnis hervor, dass die Mehrheit der Publikationen und der darin enthaltenen Lösungen jeweils nur einen Teilbereich des Selektionsprozesses abdecken, während andere Bereiche vernachlässigt oder gar vollständig ausgelassen werden. Das eben beschriebene Phänomen betrifft vor allem die Auswahl und Aufschlüsselung der Bewertungskriterien.
Gerade auf Letzteres ging keine der untersuchten Publikationen näher ein, so blieben Fragen zur Zusammensetzung und Abgrenzung von Bewertungskriterien bei allen Methoden weitgehend unbeantwortet.
Diese Erkenntnis bildet die Grundlage für das in der Thesis erarbeitete multikriterielle Mapping Verfahren, welches eben jene Schwäche in bestehenden Ansätzen auszugleichen versucht.
Das multikriterielle Mapping bildet darüber hinaus eine Kernkomponente der Evaluationsmethodik, welche im Rahmen der Thesis ebenfalls entwickelt und als Python Anwendung implementiert wurde.
Sowohl die entwickelte ganzheitliche Methode als auch die daraus resultierende Python Anwendung verfolgen den Zweck von Beginn des Selektionsprozesses bis zu deren Abschluss ein lückenloses Vorgehen zu etablieren, welches für jedes Anwendungsszenario geeignet ist.
Das hocheffiziente Konzeptfahrzeug Schluckspecht VI (S6) hat im Sommer 2022 am Shell Eco Marathon als bestes Neufahrzeug abgeschlossen. Dennoch war die Reichweite von 560km/kWh nicht ausreichend, um sich gegen die anderen teilnehmenden Teams zu behaupten. Daher werden am Fahrzeug die Komponenten und Systeme ermittelt, welche das meiste Optimierungspotential bergen. Hierbei stechen besonders die Aerodynamik, die Motoransteuerung und die Rollreibung hervor. Die hier vorliegende Arbeit befasst sich mit der aerodynamischen Optimierung. Zunächst gilt es herauszufinden, welche Bauteile explizit für die Aerodynamik ausschlaggebend sind. Die drei Komponenten, die maßgeblichen Einfluss haben sind: der Grundkörper, die Radkästen und die Fahrwerksflügel. Einen weiteren Einflussfaktor bergen die sich drehenden Räder, da diese jedoch weitestgehend umhaust sind, ist in dieser Hinsicht keine weitere Optimierung erforderlich. Zu Ermittlung der derzeitigen aerodynamischen Werte, vor allem cW, cWA und Geschwindigkeits- und Druckverteilung um das Fahrzeug, wird ein digitales Modell des S6 aufgebaut. An diesem Modell werden Simulationen durchgeführt, die idealisierte Kennwerte liefern. Parallel zur Simulation liefern Versuche am Fahrzeug reale Messdaten. Speziell dafür wird eine neue Versuchsmethode entwickelt: die Konstantfahrtuntersuchung. Bei dieser Untersuchung wird die Vortriebskraft des Fahrzeugs anhand des Motorstroms ermittelt, um so auf die Fahrtwiderstandswerte zu schließen. Zur Erhebung der Messdaten am Fahrzeug wird zudem ein für die Untersuchung angepasster Sensor entwickelt. Diese Untersuchungen liefern plausible Ergebnisse, die jedoch mit denen der Simulation schwer vergleichbar sind. Dies ist bedingt durch die erschwerten Randbedingungen bei der Durchführung der Versuche und beim Aufzeichnen der Messdaten auf der Teststrecke.
In dieser Arbeit wird das Verformungsverhalten und die Stabilität des Frontflügels des Formula Student Rennwagens der HS Offenburg untersucht. Die Analyse wird mittels der Finiten-Elemente-Methode durchgeführt (Programm: ANSYS Workbench). In der Simulation wird das Modell mit verschiedenen statischen Kräften belastet, unter anderem die Kräfte aus dem technischen Reglement und die auftretende Abtriebskraft. Neben der Verformung werden auch verschiedene Stabilisierungsmöglichkeiten analysiert. Zusätzlich zu den Simulationsergebnissen selbst werden in dieser Arbeit der Simulationsvorbereitungsprozess sowie die Konstruktion des Frontflügels und Grundlagen der FEM beschrieben. Eine Besonderheit bildet dabei die Verwendung des ANSYS Composite PrePost um die verwendeten Verbundwerkstoffe zu untersuchen.
Das Black Forest Formula Team hat es sich nach der Neugründung im Jahre 2019 zum Ziel gemacht, mit einem eigens konstruierten Elektro-Rennwagen beim Formula Student Germany (folgend FSG genannt) Wettbewerb teilzunehmen.
Zu Beginn der Bachelorarbeit wurde bereits ein Fahrzeugrahmen konstruiert und in der Schweißwerkstatt der Hochschule Offenburg fertig geschweißt. Da bei der Konstruktion der Hauptfokus auf das Fertigstellen eines Rahmens gesetzt wurde, verfolgt diese Bachelorarbeit das Ziel, den Rahmen mittels der Finite Elemente Methode zu analysieren und erste Verbesserungsvorschläge für das Nachfolgerfahrzeug zu erarbeiten. Um sich seinen Möglichkeiten bewusst zu werden, wurde zunächst das Reglement ausgiebig studiert. Nach ausgiebiger Recherche wurde das CAD-Modell des Rahmens für die Simulation vorbereitet, folglich durch verschiedene Lasteinwirkungen simuliert und dessen Auswirkungen analysiert. Um die Simulationsergebnisse zu validieren, wurden die in der Simulation vorkommenden Lasteinwirkungen in der Realität nachgestellt und miteinander verglichen.
Für zukünftig folgende Fahrzeugrahmen werden Verbesserungs- bzw. Optimierungsmethoden erarbeitet, um vor allem das Fahrzeuggewicht zu zu reduzieren und die Steifigkeit möglichst hoch zu halten.
Der Eignungsnachweis von Prüfprozessen ist sowohl für die Industrie, als auch für Forschungszwecke ausschlaggebend. Dabei sind die Genauigkeit, Präzision sowie die Messbeständigkeit der Messergebnisse von der zu untersuchenden Messeinrichtung mit statistischen Methoden auszuwerten. Mit Leitfäden wird unter einer sog. Messsystemanalyse die Fähigkeit einer Messeinrichtung mit den dazugehörigen statistischen Kennwerten beurteilt. Die Messsystemanalyse unterteilt sich in zwei Typen, wobei die Konsistenz bzw. Messdatenstreuung mit den entsprechenden Kennwerten beurteilt werden können. Unter MSA Typ 1 wird anhand Mittelwerte und Standardabweichungen von Wiederholmessungen die Konsistenz und Genauigkeit mit den Cg- bzw. Cgk-Indizes bewertet, die höher als 1,33 sein müssen, um die Messeinrichtung als fähig zu klassifizieren. Durch MSA Typ 2 wird die Präzision mit dem % R&R-Kennwert (Wiederholbarkeit & Reproduzierbarkeit) bewertet. Messeinrichtungen mit einem % R&R-Kennwert unterhalb 20 % liefern Messdaten mit einer ausreichenden Präzision, d.h. dass die Mittelwerte der Messdaten nicht signifikant voneinander unterscheiden. Die im Rahmen dieser Arbeit untersuchte akustische Messeinrichtung weist einen Cg-Index von 1, 58, einen Cgk-Index von 2, 13 und einen % R&R-Wert von 6, 56 % auf, weshalb die Messdaten mit einer hohen Konsistenz und Präzision erfasst werden.
JavaScript-Frameworks (JSF) sind im Bereich der Webentwicklung seit längerem prominent. Jährlich werden neue JSF entwickelt, um spezifische Probleme zu lösen. In den letzten Jahren hat sich der Trend entwickelt, bei der Wahl des JSF verstärkt auch auf die Performanz der entwickelten Webseite zu achten. Dabei wird versucht, den Anteil an JavaScript auf der Webseite zu reduzieren oder ganz zu eliminieren. Besonders neu ist der Ansatz der "Island Architecture", die erstmals 2019 vorgeschlagen wurde. In dieser Thesis soll die Performanz der meistbenutzten und des performantesten JSF mit dem JSF "Astro" verglichen werden, welches die "Island Architecture" von sich aus unterstützt. Der Schwerpunkt liegt beim Vergleichen der Webseitenperformanz, jedoch werden auch Effizienz und Einfachheit während der Entwicklung untersucht. Das Ziel dieser Arbeit ist es, potenzielle Frameworks zu untersuchen, die die Effizienz und Produktivität für den Nutzer und während der Entwicklung steigern können.
In dieser Arbeit wird die Funktionsweise, Standardisierung und Verwundbarkeit der Technologien RFID und NFC behandelt. Es wird gezeigt welche Angriffe existieren und wie man sich dagegen schützen kann. Es wird ein Überblick über einige in der Praxis verwendete Protokolle sowie deren Sicherheit gegeben. Außerdem werden grundlegende Fragen beantwortet, die man sich bei Auseinandersetzung mit dieser Technologie stellt (z.B. Reichweiten).
Im Rahmen dieser Abschlussarbeit wurde die Steuereinheit für das elektrisch angetriebene Hocheffizienzfahrzeug Schluckspecht 6 entworfen. Im Detail wurde die bestehende Steuereinheit analysiert. Durch sorgfältiges Betrachten der Leistungselektronik und deren Elemente, der Signalaufbereitungsplatine, der Stromsensorplatine und der DC/DC-Wandlerplatine, wurden die bestehenden Fehler in deren Schaltplänen behoben. Im Zuge dieser Fehlerbehebung, wurde die Übersichtlichkeit der Schaltpläne verbessert. Des Weiteren wurden die Leistungselektronik und deren Elemente zu der neuen Control Unit fusioniert. Um eine möglichst nachhaltige Hardware zu erhalten, wurde die alte Platine optimiert. Dazu sind die Ein-/ und Ausgänge und der CAN-Bus von dem Entwicklerboard an den Leiterplattenrand geführt worden. Damit die CAN-Signale vom Entwicklerboard verarbeitet werden können, wurde zusätzlich eine Schaltung für die Signal-konvertierung entwickelt. Die zusammengeführte Leiterplatte wurde für eine bessere Zugänglichkeit während des Shell-Eco-Marathon, einseitig bestückt. Um die Fehlerbehebung zu erleichtern, sind Messpunkte, zusammen mit einer Messtabelle, auf deren Schaltpläne integriert worden. Zusätzlich wurde ein Jumper für die Energieversorgung des Entwicklerboards hinzugefügt, damit dieses intern oder extern versorgt werden kann. Für die Control Unit wurden Schnittstellen zur besseren Erweiterung ausgesucht. Nach Abschluss des Optimierungsprozesses und der Komponentenauswahl, wurden die Schaltpläne und ein Board der Control Unit entworfen. Für diesen Entwurf wurde eine Leiterplatte bestellt, welche im SMD-Labor bestückt und verlötet wurde. Anschließend wurde an dieser ein Funktionstest und eine Inbetriebnahme im Schluckspecht 6 durchgeführt. Ein weiterer Teil der Arbeit war die Planung des Gehäuses für die neu entworfene Control Unit, die Auswahl der Anschlussstecksysteme und die Fixierung der Leiterplatte in der Energiebox, sowie die Verdrahtung zwischen der Control Unit und den Stecksystemen.
Die Marktentwicklungen der letzten Jahre haben das Feld der adaptiven Audiotechnologien zu einem Flickenteppich verkommen lassen. Das Problem liegt dabei nicht in einem Mangel an Konzepten und Methoden zur nicht-linearen Vertonung, sondern in der Verstreuung dieser Technologien auf eine Vielzahl von Spezialanfertigungen, plattformbezogenen und anderweitig beschränkten Systemen. Im Rahmen dieser Arbeit wurden die vorhandenen, auf Sample- oder MIDI-Phrasen basierenden, konkreten Umsetzungen adaptiver Soundbegleitung auf ihre Funktionsweise untersucht und insbesondere die Verwendung der Techniken Layering, Sequencing, Transitions und aleatorischer Konjunktion sowie Steuerungsmöglichkeiten, etwaige Erweiterungen und Besonderheiten gegenübergestellt und vergleichend analysiert. Bei der Zerlegung in atomare Funktionseinheiten zeigte sich eine hohe Redundanz unter den bekannten Techniken. Einzelne Methoden unterscheiden sich oftmals nur durch unterschiedliche Kombination verschiedener Grundmechanismen. Infolgedessen wurde ein baukastenartiges Modell entwickelt, welches mit einigen wenigen Struktur-, Infrastruktur- , Steuer- und allgemeinen Bausteinen die funktionale Nachbildung jeder der untersuchten Techniken ermöglicht, dabei durch den modularen Aufbau jedoch hochflexibel, skalierbar und darüber hinaus erweiterbar bleibt. Des Weiteren wurde die Übertragung des theoretischen Modells auf eine objektorientierte Softwarestruktur aufgezeigt, sodass sich das erarbeitete Modell insgesamt betrachtet als einheitliches System zur plattformunabhängigen Beschreibung, Weiter- und Wiedergabe nahezu beliebiger adaptiver Sounds verwenden lässt.
Das übergeordnete Ziel dieser Arbeit ist die Entwicklung einer Lernanwendung für die Theorieausbildung von Gleitschirm- und Drachenfliegern. Daraus abgeleitete Ziele sind eine Überprüfung der Tätigkeit auf ihre Wirtschaftlichkeit sowie eine vollständige Analyse der Anforderungen von Nutzern und anderen Stakeholdern.
Die Analyse von Markt, Anforderungen und Technologien liefert wertvolle und hilfreiche Erkenntnisse für die Umsetzung der Lernanwendung. Die Berechnungen in der Marktanalyse zeigen, dass eine Umsetzung der Anwendung grundsätzlich wirtschaftlich möglich ist. Die bestehende und potentielle Konkurrenz wurde ermittelt und ihr Angebot detailliert verglichen und analysiert. Die Ermittlung der notwendigen Kennzahlen zur Berechnung der Wirtschaftlichkeit der unternehmerischen Tätigkeit ergeben sich durch die Berechnung von Marktvolumen Marktsättigungsgrad und Marktpotential. Im Kapitel Anforderungsmanagement wird zunächst eine umfangreiche Anforderungsermittlung durchgeführt. Diese besteht aus einem Interview und der Durchführung und Auswertung einer Online-Umfrage. Die Ergebnisse der Anforderungsermittlung werden analysiert und anschließend in Form eines Lasten- und eines Pflichtenhefts dokumentiert. Es zeigt sich, dass die ermittelten und analysierten Daten eine solide Grundlage für die weiteren Arbeiten bilden. Ein Experten-Interview und die Umfrage unter Gleitschirmfliegern ergeben keine in Konflikt stehenden Anforderungen und die aus der Auswertung der Umfrage ermittelten Anforderungen bestätigen viele bereits aus dem Interview ermittelten Anforderungen. Die ausgewertete Umfrage bietet außerdem wichtige Erkenntnisse über gewünschte Funktionen und die Zahlungsbereitschaft der Ziel- gruppe. Diese Erkenntnisse sind besonders in Anbetracht der anzustrebenden Marktpositionierung hilfreich. Die Spezifikation von Anforderungen im Lastenheft ermöglicht es, ein passendes Konzept zu erstellen und den Anforderungen gerecht werdende Technologien auszuwählen. Für die Konzeption der Anwendung wurden Personas, Wireframes und Strukturdiagramme erstellt, die den Anforderungen aus dem Lastenheft gerecht werden. Der Konzeption der Anwendung wurde, verglichen mit den anderen Arbeits- schritten, weniger Platz eingeräumt, da erstens kaum restriktive Anforderungen an das Design bestehen und zweitens die Anwendungsentwicklung mit UI-Frameworks kein fotorealistisches Layout voraussetzt, um ästhetische und benutzerfreundliche Anwendungen zu konzipieren. Es zeigt sich, dass für die gegebenen Anforderungen die Erstellung von Wireframes ausreichend ist. Im Kapitel „Technologieauswahl“ wird eine umfangreiche analytische Arbeit betrieben, um eine optimale Auswahl von passenden Technologien zu erhalten. Die analytische Arbeit besteht dabei aus dem Vergleich verschiedener Systemumgebungen, App-Technologien und Frameworks. Dabei wird deutlich, dass eine Progressive Web-App in einer cloudbasierten Systemumgebung mit einem Backend-as-a-Service Modell die Anforderungen am besten erfüllt. Im Kapitel „Umsetzung“ wird dokumentiert, wie die Anwendung realisiert wurde. Für die Umsetzung der Lernanwendung und des dazugehörigen Administrationsbereiches wurden etwa 6000 Zeilen Code geschrieben. Sowohl den Administrationsbereich als auch die Lernanwendung konnte zu großen Teilen fertig gestellt werden.
Zusammenfassend lässt sich festhalten, dass die Zielsetzung dieser Arbeit erfüllt wurde, indem die wichtigsten Grundlagen zur späteren vollständigen Umsetzung erarbeitet wurden. Mit Spannung zu erwarten ist, wie sich die gewählte BaaS-System-umgebung in Zukunft entwickelt und ob diese auch weiterhin den Anforderungen gerecht wird. Neben den noch ausstehenden Arbeiten bei der Umsetzung sind auch mögliche Erweiterungen denkbar. So konnte das Lernsystem noch weiter optimiert werden, zum Beispiel durch automatische Erstellung eines Lernplans, basierend auf dem Prüfungstermin oder durch Implementierung von Push-Benachrichtigungen, die den Nutzer zum Öffnen der Anwendung auffordern. Denkbar ist auch eine Übertragung des Anwendungskonzepts auf andere Sportarten oder Ausbildungen. Dabei müsste überlegt werden, ob sich die jeweilige Prüfungsform zum Lernen mit einer Lernkartei eignet oder welche Aufwände für eine Anpassung an andere Sportarten notwendig wären.
Die Entwicklung innovativer Produkte und Dienstleistungen ist ein wesentlicher Grund weshalb sich unsere Gegenwart von der Vergangenheit unterscheidet. Allein in Deutschland werden für die Entwicklung von Innovationen jährlich Milliarden von Euros investiert. Nur knapp vier von zehn Innovationen, die auf dem Markt eingeführt werden, gelingt der Markterfolg. Im Umkehrschluss bedeutet dies, dass über die Hälfte aller Innovationen scheitern. Ein wesentlicher Grund hierfür ist die mangelnde Marktorientierung. Der Fokus dieser Arbeit liegt auf der Forschungsfrage, wie bei der Entwicklung von Innovationen eine Verbindung zum Markt hergestellt werden kann, um innovative Produkte und Dienstleistungen näher an den Bedürfnissen des Endverbrauchers zu entwickeln.
Ansätze für den Einfluss der Social-Media-Kanäle TikTok und Instagram auf die Kaufentscheidung
(2023)
Social-Media-Nutzer und Nutzerinnen sind online und lernen dadurch neue Produkte kennen. Gerade auf Social-Media-Plattformen wie Instagram und TikTok werden die Nutzer und Nutzerinnen durch verschiedene Mittel häufig auf Produkte aufmerksam gemacht und zum Kaufen motiviert.
Das Ziel der vorliegenden Arbeit ist es, herauszufinden welche Aspekte auf den Plattformen Instagram und TikTok die Nutzenden dazu animiert bei einem Drogerieunternehmen einzukaufen. Dazu wird die folgende Forschungsfrage gestellt: Wie kann ein Drogerieunternehmen die Kaufentscheidung auf Instagram und TikTok beeinflussen?
Aus den resultierenden Ergebnissen einer qualitative Studie mittels 8 Interviews werden Handlungsempfehlungen für die Unternehmen der Drogeriebranche abgeleitet. Die Ergebnisse der Forschung sind Ansätze, welche Drogerien auf den Social-Media-Plattformen nutzen können, um die Kaufentscheidung ihrer Follower und Followerinnen positiv zu beeinflussen.
Gegenstand der hier vorgestellten Arbeit ist eine Untersuchung der gängigsten Anwendungsschicht-Protokolle für das Internet der Dinge. Sie umfasst zum einen die Recherche und den theoretischen Vergleich der Protokolle anhand vorher festgelegter Untersuchungskriterien und zum anderen einen praktisch implementierten Versuchsaufbau, der das Zusammenwirken verschiedener Protokolle veranschaulichen soll.
Zunächst wird eine kurze Einführung in das Thema „Internet der Dinge“ gegeben. Dabei wird auf die Entwicklung der letzten Jahre sowie den Stand der Technik eingegangen. Zum einen wird aufgezeigt, inwieweit sich das Thema auf die verschiedenen Bereiche des täglichen Lebens ausgebreitet hat und zum anderen welche verschiedenen Anwendungspakete diverser Software-Hersteller auf dem Markt sind. Bei der Untersuchung dieser Pakete werden die Protokolle ermittelt, die verwendet werden. Diese bilden die Menge an zu untersuchenden Protokolle für den späteren Vergleich. Um diese in einem wissenschaftlichen Rahmen miteinander vergleichen zu können, werden Kriterien als Basis der Untersuchung definiert. Anhand derer werden alle Protokolle untersucht und anschließend in einer Tabelle zusammengefasst.
Im zweiten Teil werden dann einige der untersuchten Protokolle mithilfe von diversen MCUs (Micro Controller Unit) verwendet und deren Funktionsweise/Handhabung miteinander verglichen. Dabei entsteht ein Aufbau, der zukünftigen Studierenden die Möglichkeit bietet, schnell einen Einblick in den Bereich „Internet der Dinge“ zu erhalten.
Über die letzten Jahre entstanden unterschiedlichste Gerätschaften, besonders im mobilen Bereich und der Industrie 4.0, die große Datenmengen generieren. Diese müssen in entsprechenden Netzwerken entgegengenommen, verarbeitet und ggf. analysiert werden um einen Mehrwert zu erzielen. Ein Vertreter für die Umsetzung von Echtzeit-Datenverarbeitung ist Apache Spark, ein Open Source Framework, welches für die Analyse von Informationsströmen und Datenbeständen eingesetzt werden kann. Im Rahmen dieser Masterarbeit wird die Apache Spark Plattform von Grund auf erläutert und auf ihre Einsatzfähigkeit im Bereich der verteilten Datenverarbeitung untersucht. Durch die theoretische Einleitung in die Themen Big Data, Streaming Data, Data Mining und Real-Time Analytics wird ein grundlegendes Verständnis für die Aufgaben und Herausforderungen dieses Sachgebiets vermittelt. Es wird die Entwicklung von der Batch- zur Streamingverarbeitung vorgestellt und die Anforderungen, sowie Voraussetzungen für die Umsetzung von Echtzeitsystemen aufgezeigt.
Nachdem diese Grundlagen vermittelt wurden, folgt eine Vorstellung des Projektumfangs der Apache Software Foundation, in welchen sich auch das Spark Projekt einordnen lässt. Die Arbeit erläutert die Grundkonzepte von Apache Spark, wie die Entwicklung, Architektur und der Clusterbetrieb der Plattform. Dabei stützen sich die Untersuchungen auf praktische Beispiele, um die Arbeitsweise von Apache Spark näher aufzuzeigen. Die vorgestellten Themen fallen in die Bereiche der parallelen Datenverarbeitung mit Spark und beschäftigen sich mit den Voraussetzungen für das Erstellen von Anwendungen, die den verteilten Aufbau und die horizontale Skalierbarkeit von Spark ausnutzen. Spark bringt über eigene Bibliotheken auch Funktionalitäten für die Datenverarbeitung in speziellen Aufgabengebieten mit sich. In dieser Arbeit werden ebenfalls die beiden Bibliotheken MLlib, welche im Bereich des maschinellen Lernens Einsatz findet, und Spark Streaming, die Bibliothek für Verarbeitung von Datenflüssen, vorgestellt und deren Funktionsumfang untersucht. Das Kernthema dieser Arbeit bildet die Modellierung von Lösungsmöglichkeiten zur Analyse von Streaming Data. Es wird hierdurch die Funktionsweise von Spark und dessen Streaming Bibliothek anhand von kompletten Applikationen zur Ausreißererkennung in Datenströmen im Detail aufgezeigt.
Die Arbeit zeigt auf, dass Spark durchaus für den Einsatz zur verteilten Datenverarbeitung geeignet ist. Auch der Umgang mit Streaming Data wird durch den Bau der Prototypen nachgewiesen. In dem abschließenden Fazit werden die Erkenntnisse der Arbeit zusammengefasst und die Einsetzbarkeit von Spark diskutiert.
Diese Thesis beschäftigt sich mit den Techniken von Code Injection und API Hooking, die von Malware verwendet werden, um sich in laufende Prozesse einzuschleusen und deren Verhalten zu manipulieren. Darüber hinaus erklärt sie die Grundlagen der Betriebssystemarchitektur, der DLLs, der Win32 API und der PE-Dateien, die für das Verständnis dieser Techniken notwendig sind. Die Thesis stellt verschiedene Methoden von Code Injection und API Hooking vor, wie z.B. DLL Injection, PE Injection, Process Hollowing, Inline Hooking und IAT Hooking, und zeigt anhand von Codebeispielen, wie sie funktionieren. Des Weiteren wird auch beschrieben, wie man Code Injection und API Hooking mithilfe verschiedene Tools und Techniken wie VADs, Speicherforensik und maschinelles Lernen erkennen und verhindern kann. Die Thesis diskutiert außerdem mögliche Gegenmaßnahmen, die das Betriebssystem oder die Anwendungen anwenden können, um sich vor Code Injection und API Hooking zu schützen, wie z.B. ASLR, DEP, ACG, IAF und andere. Zuletzt wird mit einer Zusammenfassung und einem Ausblick auf die zukünftigen Herausforderungen und Möglichkeiten in diesem Bereich abgeschlossen.
are you okay?
(2022)
Die Frage “Wie geht es dir?” ist in unserer Gesellschaft eine Höflichkeitsfloskel geworden. Die meisten Menschen antworten mit einem “Gut, und selbst?” und dann wird über etwas anderes gesprochen. Der Großteil redet nicht allzu oft darüber, was sie wirklich beschäftigt. Aber warum eigentlich nicht? Ist es Scham, Angst vor Ablehnung oder einfach nur „gutes“ Benehmen?
Besonders negative Gefühle, wie Wut und Trauer haben in unserem Leben wenig Platz. Sie werden als nicht gut betrachtet und alles was nicht “gut” ist, sollte laut der Gesellschaft lieber versteckt werden. Dieses Buch steht für mehr Gefühlsbewusstsein und soll einen offeneren Austausch mit sich selbst und anderen anstoßen. Denn auch negative Gefühle sollen einen Platz bekommen und können sanftmütig und bewusst gelebt werden.
Dieses Buch ist eine bunte Mischung aus ausgedachten aber realitätsnahen Geschichten vom Scheitern, Texten von Musikern und Bildern zum Träumen und Interpretieren. Es scheint zuerst ungewöhnlich, ausschließlich deutsche Rapper statt alte Philosophen zu zitieren. Doch die Hip-Hop-Kultur hat einiges zu sagen und bringt alltägliche Probleme und Ängste unverblümt auf den Punkt. Manchmal müssen wir nur etwas genauer hinhören.
Art of Merenya
(2021)
Die vorliegende Bachelorarbeit behandelt das Thema „Attraktivität des Offenburger Weihnachtsmarktes als Event im Stadtmarketing“. Im ersten Teil werden Grundbegriffe und Konzepte vorgestellt und erläutert, warum Weihnachtsmärkte ein wichtiger Teil des Stadtmarketing sind. In Kooperation mit dem Stadtmarketing Offenburg wurde eine Befragung durchgeführt, um die Attraktivität des Offenburger Weihnachtsmarktes zu evaluieren. Schwerpunkte der Befragung waren Besuchsmodalitäten, Angebotsattraktivität, Aktionsräumliches Verhalten sowie Einzugsgebiet und soziodemografisches Profil der Besucher. Die Ergebnisse daraus werden im zweiten Teil der Arbeit vorgestellt. Im dritten Teil werden abschließend Empfehlungen und Ideen entwickelt, wie die Attraktivität des Offenburger Weihnachtsmarktes als Event im Stadtmarketing weiterhin auf hohem Niveau gehalten werden kann.
Audio over IP
(2019)
Der Wandel im Bereich Tontechnik geht stetig weiter. Was vor über 100 Jahren begann, entwickelt sich heutzutage rasend voran. Das Ziel immer vor Augen: Ein Audiosignal soll in bestmöglichster Qualität, möglichst mit einer geringen Datenmenge, in kürzester Zeit von A nach B transportiert und anschließend konserviert werden.
Durch die Digitalisierung werden auch hier völlig neue Anwendungsbereiche und Szenarien ermöglicht, die weit über das klassische Recording oder die Studioinfrastruktur hinausgehen. Die Rede ist zum Beispiel von Klanginstallationen oder Konferenzszenarien. Audionetzwerke bieten durch die Nutzung beliebiger Quellen und Senken in der Produktionsumgebung eine signifikant flexiblere Signalverteilung, als dies noch mit klassischen Verteilern und Steckfeldern möglich war. Übertragungen und Vernetzungen in mehreren Gebäuden sind hiermit kein Problem. Allerdings unterscheidet sich diese Technologie in Punkto Stabilität, Datenrate, Netzwerk-Layer & Qualität deutlich von seinem Pendant, dem Internetstreaming.
Das Ziel in dieser Arbeit ist die Programmierung von einem Mikroprozessor, der als ein Richtmikrofon verwendet wird, um unterschiedlichen Richtcharakteristiken zu erzeugen.
Dabei stellt sich die Frage: Ist es möglich ein Mikroprozessor so zu programmieren, dass er eine Stereoaufnahme so verarbeiten kann, sodass unterschiedliche Richtcharakteristiken erzeugt werden könnten?
Um die Frage zu beantworten, wurde eine technische Ausarbeitung von einem Mikroprozessor und seine Programmierung benötigt. Diese befasst sich mit der Programmierung in C++ / Arduino IDE des Mikrokontrollers und eigene Erstellung von Tests, um die Ergebnisse darzustellen.
Als weitere Basis wurden nur verbraucherorientierten Mikroprozessoren untersucht und die beste Möglichkeit wurde ausgesucht und weiterentwickelt. Zudem lag der Fokus auf der Reproduzierbarkeit der Ergebnisse.
Der aktuell verbaute Hatz-Dieselmotors des Schluckspecht V soll durch einen leichten und effizienten Ottomotor ersetzt werden. Dieser Ottomotor wird zukünftig mit dem Alkohol Ethanol betrieben. Hierfür müssen, auch hinsichtlich des Wettbewerb-Einsatzes beim Shell Eco-marathon, einige Optimierungen durchgeführt werden.
Die hier vorliegende Master-Thesis behandelt den Aufbau und die Optimierung des Ver-suchsprüfstands, welcher für Testzwecke für den neuen Ottomotor entwickelt wurde. Im speziellen wird auf das Thema Kraftstoffsystem, welches für den Betrieb mit Ethanol aus-gelegt wird, eingegangen. Des Weiteren erfolgt die Konstruktion einer optimierten Ansaugstrecke, welche auf den Verbrennungsmotor appliziert werden soll. Hierfür werden mehrere Varianten strömungstechnisch untersucht und am Objekt getestet. Zudem soll die Verdichtung des Verbrennungsmotors durch einen optimierten Kolben erhöht und die Ventilsteuerzeiten durch eine optimierte Nockenkontur perfektioniert werden. Hierbei besteht die Aufgabe darin diese Bauteile zu besorgen und die Fertigung zu koordinieren. Eine weitere Tätigkeit ist die Aufnahme und Beseitigung von Fehlern des Versuchsprüfstands, welche einen reibungslosen Versuchsalltag verhindern bzw. erschweren. Die letzte Tätigkeit umfasst das Durchführen von experimentellen Untersuchungen des Verbrennungsmotors und das Anlegen von Kennfeldern, welche einen effizienten Motorlauf gewährleisten.
Elektrische Antriebssysteme sind in der modernen Welt überall zu finden und sind aus dem Alltag nicht mehr wegzudenken. In vielen industriellen Anwendungen wandeln sie elektrische Energie in mechanische Energie um, womit das Antriebssystem als Motor fungiert. Im umgekehrten Fall, wenn demnach mechanische Energie in elektrische Energie umgewandelt wird, arbeitet das Antriebssystem als Generator. Die dabei umgewandelte Energie soll bei einer Einspeisung in das Versorgungsnetz möglichst sinusförmig verlaufen, damit überwiegend Grundschwingungsleistung fließt. Zusätzlich ist ein geringer Blindanteil wünschenswert, weil diese Stromkomponente dafür sorgt, dass die Versorgungsleitungen unnötig belastet werden.
In dieser Bachelorthesis werden auf die für das Verständnis wichtigen theoretischen Grundlagen der Raumzeiger eingegangen. Bei der Regelung des Netz- oder Ausgangsstroms und der Zwischenkreisspannung werden auf diese Grundlagen zurückgegriffen, weil die Beschreibung von zeitveränderlichen, sinusförmig verteilten dreiphasigen Größen durch Transformationen in andere Bezugssysteme als besonders zweckmäßig erscheint. Damit weitere elektrische Geräte, die am selben Netzanschlusspunkt angeschlossen sind, möglichst wenig beeinflusst werden, sollte der ins Versorgungsnetz zurückgespeiste Strom geringe Oberschwingungen enthalten und somit einen weitestgehend sinusförmigen Verlauf annehmen.
Oberschwingungen sind ganzzahlige Vielfache der Grundschwingung der Netzfrequenz von 50 Hz. Aus regelungstechnischer Sicht ist es daher zweckmäßig, ein nahezu exaktes Modell der Regelung des Netzstroms und der Zwischenkreisspannung zu erstellen. Eine hochdynamische Regelung ist dann gewährleistet.
Die Funkschnittstelle nach dem Bluetooth Standard ist heutzutage nicht mehr aus dem Consumer-Markt wegzudenken. Auch durch die zukünftige Weiterentwicklung des Prinzips von IoT (Internet of Things) wird vor allem die Bluetooth Low Energy Technologie für Unternehmen bei der Entwicklung von Geräten mehr an Bedeutung gewinnen. Um die Studierenden im Bereich der Kommunikationstechnik auf das Thema Bluetooth vorzubereiten, wird der Versuch „Kurzstreckenkommunikation nach dem Bluetooth Standard“ im Telekommunikations-Labor an der Hochschule Offenburg angeboten. Der Versuch wurde im Rahmen dieser Bachelor-Thesis an die heutigen Anforderungen angepasst.
Die nachfolgende Bachelor-Thesis beinhaltet die gesamte Laboranleitung des Versuchs, welche in die drei Teile: Theoretische Grundlagen, vorbereitende Aufgaben und der Versuchsdurchführung aufgeteilt wird. Der Versuchsanleitung folgt ein Teil mit weiteren Anmerkungen für die akademischen Mitarbeiter, welche den Versuch betreuen. Hier wird sichergestellt, dass auch in Zukunft der Versuch problemlos weiter durchgeführt werden kann. Im Anhang befinden sich die Musterlösungen für die vorbereitentenden Aufgaben und der Versuchsdurchführung.
Aufbau/Ansteuerung/Kalibrierung/Pilotierung eines Lautsprecher-Halbkreises für Lokalisationstests
(2019)
Seit September 2018 ist die Hochschule Offenburg im Besitz einer Hörkabine, in der ein Schallquellenlokalisationstest im Rahmen dieser Bachelorarbeit aufgebaut wurde. Eine Schallquellenlokalisation ist im Alltag für Normalhörende in den meisten Fällen keine Schwierigkeit. Wir Menschen sind in der Lage mit einer Genauigkeit von 1° bis 2° eine Schallquelle zu lokalisieren (Feigenspan 2017,S.624). Entfällt jedoch das Hörvermögen auf einer Seite, so verschlechtert sich die Lokalisationsfähigkeit erheb-lich. Um Schallquellen präzise lokalisieren zu können, werden optimaler Weise beide Ohren benötigt. Heutzutage gibt es viele Hörsysteme, um diverse Hörstörungen zu therapieren. Den-noch bleibt die Lokalisationsfähigkeit für Menschen mit einseitiger Taubheit, bezie hungsweise asymmetrischen Hörverlust eine Herausforderung. Ein Schallquellenlo kalisationstest findet Anwendung in der Klinik, um eine bestmögliche Versor gung/Therapie durch Hörsysteme zu gewährleisten. Ziel dieser Bachelorarbeit war der Aufbau eines Lokalisationstestes nach Leitlinien einer wissenschaftlichen Publikation, sowie die Durchführung an fünf freiwilligen Normalhörenden. Die Realisierung umfasste den Aufbau der Lautsprecher, die An-steuerung mithilfe einer externen Soundkarte und MATLAB, eine Kalibrierung der Lautsprecher und die Durchführung der Tests.
In dieser Arbeit wird der Bildbearbeitungsprozess von Dokumenten mithilfe von einem schlicht gehaltenem Neuronalen Netzwerk und Bearbeitungsoperationen optimiert. Ziel ist es, abfotografierte Dokumente zum Drucken aufzubereiten, sodass die Schrift gut lesbar, gerade und nicht verzerrt ist und Störfaktoren herausgefiltert werden. Als API zur Verfügung gestellt, können Bilder von Dokumenten beliebiger Größe und Schriftgröße bearbeitet werden. Während ein unter schlechten Bedingungen schräg aufgenommenes Bild nach Tesseract keine Buchstaben enthält, wird mit dem bearbeiteten Bild davon eine Buchstabenfehlerrate von 0,9% erreicht.
Im Zusammenhang mit dem industriellen Internet der Dinge (IIoT) wird die Kommunikationstechnologie, die ursprünglich in Heim- und Büroumgebung eingesetzt wurde, in industrielle Anwendungen eingeführt. Kommerzielle Standardprodukte sowie einheitliche und gut etablierte Kommunikationsprotokolle machen diese Technologie leicht zu integrieren und zu Nutzen. Sowohl die Automatisierungs- als auch die Steuerungstechnik verwenden zunehmend Protokolle, die auf TCP/IP aufsetzen. Diese Protokolle werden nicht nur von intelligenten Steuergeräten genutzt, auch Sensoren oder Aktoren kommunizieren zunehmend darüber. Doch die Steigerung der Protokolle und die Verbindung untereinander bewirkt eine enorme Komplexität solche Netze. Ein gestiegener Informationsaustausch über das Netzwerk verbirgt sicherlich auch Nachteile. Die Problematiken mit den Angriffsszenarien, die wir aus der Informationstechnik kennen, sind nun auch in Produktionsnetzwerken allgegenwärtig. Dies führt zu einer erhöhten Nachfrage nach industriellen Intrusion Detection-Lösungen. Es gibt jedoch Herausforderungen bei der Umsetzung der industriellen Intrusion Detection. Die größte Bedrohung für industrielle Anwendungen geht von staatlich geförderten und kriminellen Gruppen aus. Häufig werden von diesen Angreifern bisher unbekannte Exploits eingesetzt, so genannte 0-Days-Exploits. Sie können mit der signaturbasierten Intrusion Detection nicht entdeckt werden. Daher bietet sich eine statistische oder auf maschinelles Lernen basierende Anomalie-Erkennung an.
Die Grundlage meiner Masterarbeit ist die Musikvideoproduktion „Honey“ in Zusammenarbeit mit der Band Sebamana. Der vorliegende theoretische Teil der Arbeit ergänzt die Musikvideoproduktion auf wissenschaftlicher Ebene. Er soll die einzelnen Schritte einer Filmproduktion aufzeigen, vom Drehbuch bis zur Verwertung, und auf die Arbeits- und Rollenverteilung im Team eingehen.
Die verschiedenen Rollen innerhalb eines Projektes werden mit ihren jeweiligen Aufgabenbereichen vorgestellt. Dabei machen sich auch Unterschiede zwischen kleinen und großen Produktionen bemerkbar und ihre Vor- und Nachteile werden deutlich. Kommunikation und Transparenz zwischen den Departments ist die Voraussetzung für eine gute Zusammenarbeit im Team.
Hohe Kosten bei der Annotation von Daten führen dazu, dass datensparsamere Wege zum Erstellen von Modellen gesucht werden. In dieser Arbeit wird ein Lösungsansatz untersucht, der ausgehend von fokussierten Repräsentationen, datensparsame Lösungen für verschiedene Aufgaben finden soll. Durch einen Multi-Task-Learning-Ansatz trägt das Finden einer Repräsentation gleichzeitig zum Lösen einer Aufgabe bei. Durch Ersetzung einer der Aufgaben werden Wissentransfers datensparsam auf die neue Aufgabe durchgeführt. In der erarbeiteten und evaluierten Lösung können Hyperparameter automatisch gefunden werden. Bei Vergleichen von verschiedenen Ansätzen und Datenmengen ist über die Leistung der Netzwerke zu erkennen, dass der Ansatz insbesondere mit weniger Daten bessere Ergebnisse erzielt. Die Ergebnisse dieser Arbeit lassen eine Bereitstellung als Module zu. Die Module werden im Rahmen dieser Arbeit beschrieben. Abgeschlossen wird die Arbeit mit einem Ausblick auf Verbesserungen und Potenziale der Ansätze.
In der vorliegenden Arbeit wird Augmented Reality (AR) sowohl in der Theorie als auch in der Praxis ausführlich behandelt. Die Technik, welche in den letzten Jahren stark weiterentwickelt wurde, die Entwicklungsgeschichte, sowie die Projektbegleitung (aus Sicht des Auftraggebers einer AR-Anwendung) stehen im Fokus.
Neben den einleitenden Kapiteln wurde die Ausarbeitung thematisch in zwei große Bereiche unterteilt. Der erste, eher theoretische Bereich (Kapitel 2), bildet den wissenschaftlichen Teil dieser Ausarbeitung. Er beinhaltet eine Einführung in Augmented Reality und analysiert aktuelle Techniken. Auch die Funktionsweise wird aufgezeigt, um zu verstehen, was hinter den Kulissen der Anwendungen steckt. Im zweiten, praxisnahen Bereich (Kapitel 3) wird der Entstehungsprozess der Augmented Reality Applikation (App) von Kaba begleitet. Es wurde der Entstehungsprozess der App für Android und iOS ausführlich dokumentiert. Für Leser, die Probleme mit einigen Wissensbereichen haben, gibt es im Anhang eine ausführliche Literaturliste.
Die vorliegende Arbeit, welche im Rahmen des Forschungsprojektes LaDiVo an der Hochschule Offenburg angefertigt wurde, beschäftigt sich mit Aushärten keramischer Farben auf Einscheiben- und Verbundsicherheitsglas mittels eines CO2-Lasers. Zur Erreichung dieses Ziels soll experimentell ein Verfahren erarbeitet werden.
Nach einer ausführlichen Analyse des Stands der Technik und einer Klärung des zur Verfügung stehenden Versuchsaufbaus werden verschiedene Versuche in einer Planungsphase konzeptioniert. Dazu gehören, neben den reinen Aushärteversuchen mittels Laser, ebenso eine mikroskopische Untersuchung der Ergebnisse mittels Licht- und Rasterelektronenmikroskop als auch der Aufbau einer Simulation zur qualitativen Validierung der Versuchsergebnisse.
Durch die Versuche zeigt sich, dass es möglich ist, keramische Farbe auf Einscheibensicherheitsglas mittels Laser auszuhärten, ohne dass es zu einer Schädigung des Glases kommt. Die mikroskopische Untersuchung unterstützt dieses Ergebnis. Beim Verbundsicherheitsglas konnte kein Verfahren zur schädigungsfreien Aushärtung der keramischen Farbe erarbeitet werden.
Auslegung eines Baukastensystems für einen Detektor zur optischen Fehlerprüfung von Mantelflächen
(2016)
Im Projekt der Abschlussarbeit wird an der Konstruktion eines sich automatisch zusammenbauenden Baukastensystems für einen Detektor in Anlagen zur optischen Teileprüfung gearbeitet. Der behandelte Detektoraufbau, bestehend aus Bildsensor, Objektiv und Beleuchtung, detektiert dabei Innen- und Außenmantelflächenfehler bei Serienteilen mit Außendurchmessern von 5 mm bis 80 mm und Höhen von 1 mm bis 60 mm. Der Detektor, auch allgemeiner als Sensor bezeichnet, weist im Konstruktionsprozess eine Problematik auf, welche durch die Erzeugung eines Baukastens gelöst werden soll.
Bifaziale Photovoltaikmodule werden durch ihre höhere Leistung, bezogen auf den Flächenbedarf immer attraktiver. Die meisten der bislang hergestellten Photovoltaik Module sind Monofazial ausgeführtund schöpfen damit nicht ihr vollständiges Potential aus. Weiterhin bestehen die konventionell hergestelltenPhotovoltaik(PV) Module aus einem Verbund aus Glas und Kunststoff sowie verschiedenen Metallen, was die Entsorgung oder ein Recycling kostenaufwendig und kompliziert gestaltet. Die Firma Apollon greift diese Punkte auf und versucht, beides in dem NICE-Modul(Siehe Anhang 12.1)zu vereinen,nämlich ein bifaziales Modul, bei dem die PV-Zellen zwischen zwei Glasplatten, anstelle von zwei Kunststoffen eingespannt werden. Die Hochschule Offenburg ist F&E-Partner der Firma Apollon und betreibt ein kleines Labor zur Herstellung von NICE-Modulen. Zu Testzwecken werden diese der Witterung ausgesetzt und so der Energieertrag,sowie deren Lebensdauer unter geltenden Witterungsbedingungen ermittelt. In der Masterarbeit von Benjamin Smith[1]stellte sich heraus, dass sich bei den Modulen nach weniger als zwei Wochen im Freien die Klebefläche zwischen den Glasplatten löste. Somit fielen die Module beim Witterungstest unter realen Bedingungen durch.Im Anschluss an die Arbeit von Benjamin Smith besteht diese Arbeit darin,einen Außenteststand zu konzipieren und aufzubauen, um das in Zwischenzeit neu entworfene Klebe-konzept, welches einem TC 50 Test standhielt, auf die Lebensdauer im Freien und das PV Modul selbst auf den elektrischen Ertrag zu untersuchen. Für den elektrischen Ertrag werden Strom-und Spannungsverlauf aufgezeichnet. Außerdem musste für eine Charakterisierung der Module die Bestrahlungsstärke,der Temperaturverlauf, sowie die Inho-mogenität der Bestrahlungsstärke auf der Rückseite und die Windgeschwindigkeit ermittelt werden. Um eine Alterung des Modulwechselrichters auszuschließen, werden speziell dafür die Wechselspannung und Leistung auf der Ausgangsseite des Modulwechselrichters aufgezeichnet. Sämtliche modulrelevanten Messwerte werden im 3-5 s Intervall abgespeichert und sind auf einem Webserver sowie für eine spätere Datenanalyse als .csv Datei abrufbar. Somit eignet sich die Messeinrichtung lediglich für eine Bilanzierung,nicht aber für eine Leistungsmessung.
Für den Außenteststand musste eine Unterkonstruktion, geeignet für bifaziale Module entworfen und aufgebaut werden. Die Konstruktion ist vollständig aufgebaut. Das Messsystem wurde auf deren Funktion erfolgreich geprüft und steht bis auf die Strahlungsinhomogenitätsmessung im Technikum am Campus Nord der Hochschule Offenburg bereit zur Inbetriebnahme.
In dieser Bachelorarbeit wird ein fiktives Weingut gegründet. Dabei werden zum einen Grundlagen der Corporate Identity und Gestaltung behandelt, zum anderen wurde eine Marktanalyse durchgeführt. Um eine Marke zu etablieren, erhält das Weingut ein Corporate Design mit gedruckten Anwendungsbeispielen. Dazu zählen Logo, Visitenkarten, Plakate und eine Unternehmensbroschüre.
Auswahl von elektrischen Antriebskomponenten zur Elektrifizierung des Antriebes eines „Tuk-Tuks“
(2019)
Die vorliegende Abschlussarbeit handelt von einem Tuk-Tuk. Im Ausgangszustand ist dieses mit einem 1-Zylinder Ottomotor versehen.
Im Rahmen eines Hochschulprojektes wird dieser Motor durch einen Elektromotor ersetzt. Ziel dieser Thesis ist es, einen passenden Motor zu finden. Dabei soll eine Auslegung erarbeitet werden, die es ermöglicht, sämtliche Widerstandskräfte zu berechnen und daraus auf die notwendigen Antriebsleistungen bzw. Drehmomente zu schließen. Im Anschluss daran kann eine Aussage getroffen werden, ob der Elektromotor die gewünschten Anforderungen erfüllt.
Künstliche Intelligenzen, Deep Learning und Machine-Learning-Algorithmen sind im digitalen Zeitalter zu einem Punkt gekommen, in dem es schwer ist zu unterscheiden, welche Informationen und Quellen echt sind und welche nicht. Der Begriff „Deepfakes“ wurde erstmals 2017 genutzt und hat bereits 2018 mit einer App bewiesen, wie einfach es ist, diese Technologie zu verwenden um mit Videos, Bildern oder Ton Desinformationen zu verbreiten, politische Staatsoberhäupter nachzuahmen oder unschuldige Personen zu deformieren. In der Zwischenzeit haben sich Deepfakes bedeutend weiterentwickelt und stellen somit eine große Gefahr dar.
Diese Arbeit bietet eine Einführung in das Themengebiet Deepfakes. Zudem behandelt sie die Erstellung, Verwendung und Erkennung von Deepfakes, sowie mögliche Abwehrmaßnahmen und Auswirkungen, welche Deepfakes mit sich bringen.
Erarbeitung von zwei unterschiedlichen Marken- und Werbekonzepten zur Ermittlung der Image- und Gestaltungswirkung. Eine einzigartige Werbemittelgestaltung, abgestimmt auf das Markenimage, die Zielgruppe und den Produktnutzen, ist für die Wirkung auf den Konsumierenden und damit den wirtschaftlichen Erfolg von hoher Bedeutung. Im Rahmen der vorliegenden Bachelorarbeit wurde eine qualitative Untersuchung der Image- und Gestaltungswirkung auf den Konsumierenden durchgeführt. Theoretische Ansätze zum Thema Marken und Werbung in Verbindung mit psychologischen Erklärungen bilden dafür eine fundierte Basis. Als Untersuchungsobjekt fungieren zwei eigen kreierte Werbemittel, welche auf Basis theoretischer Grundlagen für das identische fiktive Produkt erstellt wurden. Bei dem Produkt handelt es sich um einen Energy-Drink, welcher eine junge dynamische Zielgruppe ansprechen soll. Dabei zeigen die teilweise gegensätzlich gestalteten Plakate auf, welche Techniken im Hinblick auf das Produkt sowie die vorher definierte Zielgruppe funktionieren und welche nicht.
Um ein neues System zur Korrektur des Tool Center Points des Roboterwerkzeugs zu finden, wurde diese Bachelorarbeit von der Firma Badische Staal Enginering angeboten. Das Ziel ist es, die Position und den Winkel des TCP1 des an den Roboter angebrachten Tools zu korrigieren, basierend auf dem Messergebnis des TCP. Für diese Arbeit wurde eine Roboterstation bereitgestellt, die auch mit einer Triangulationskamera ausgestattet war.
Nach einer Analyse und Entwicklung des Systems wurde ein Programm erstellt, das Bewegungen, Messungen und Berechnungen kombiniert. Sobald dieses Korrektursystem entwickelt ist, wird eine Testbasis an die Projektbedingungen angepasst, um seine Zuverlässigkeit und Wiederholbarkeit unter realen Bedingungen zu testen. Diese Arbeit wird in der Testumgebung der Halle der BSW2 Anlagenbau und Ausbildung GmbH durchgeführt.
Das Softwareunternehmen HRworks implementiert eine Personalverwaltungssoftware unter Verwendung der Programmiersprache Smalltalk und des Model-View-Controller (MVC) Musters. Innerhalb des Unternehmens erfordert jede Model-Klasse des Patterns das Vorhandensein einer korrespondierenden Controllerklasse. Controller verfügen über ein wiederkehrendes Grundgerüst, das bei jeder neuen Implementierung umgesetzt werden muss. Die Unterscheidungen innerhalb dieses Grundgerüsts ergeben sich lediglich aus dem Namen und der spezifischen Struktur der korrespondierenden Model-Klasse. Die vorliegende Arbeit adressiert die Herausforderung der automatischen Generierung dieses Controllergrundgerüsts, wobei die Besonderheiten jeder Model-Klasse berücksichtigt wird. Dies wird durch den gezielten Einsatz von Metaprogrammierung in der Programmiersprache Smalltalk realisiert und durch eine Benutzeroberfläche in der Entwicklungsumgebung unterstützt. Zusätzlich wird der Controller um eine Datentypprüfung erweitert, wofür ein spezialisierter Parser implementiert wurde. Dieser extrahiert aus einem definierten Getter der Model-Klasse den entsprechenden Datentyp des Attributes. Im Ergebnis liefert die Arbeit eine Methodik zur automatisierten Generierung und Anpassung von Controllergrundgerüsten sowie dazugehörigen Teststrukturen basierend auf der jeweiligen Model-Klasse. Zusätzlich wird die Funktionalität der Controller durch eine integrierte Datentypprüfung erweitert.
Mit Hilfe eines Präzisionsmessplatzes soll es ermöglicht werden, automatisierte Tests mit optischen Distanzsensoren der Firma SICK durchzuführen. Hierbei handelt es sich um applikationsbezogene Vergleichsmessungen. Für die Realisierung einer erweiterbaren, automatischen Ansteuerung wird mit LabVIEW eine Software entwickelt, die unterschiedliche Distanzsensoren für Displacement Anwendungen (kurze Reichweite) einbindet. Zur Bewertung von Sensoren werden unterschiedliche Messmodi bereitgestellt. Hierbei werden motorisierte Linearachsen angesteuert, wodurch dynamische 2D-, bzw. 3D Messungen von unterschiedlichen Materialproben ermöglicht werden. Außerdem können Messergebnisse verschiedener Materialproben visuell verglichen werden. Des Weiteren besteht die Möglichkeit, aufgenommene Messdaten zu exportieren.
Mit der realisierten Ansteuerungssoftware ist es möglich, in Zukunft Mitarbeiter der global agierenden Sales & Service Units ressourcenschonend und in einem anwendungsbezogenen Kontext in die Benutzung und Bewertung von Dis-placementsensoren einzuarbeiten. Für diese Maßnahme der betrieblichen Weiterbildung ist eine Lerneinheit konzipiert. Hier geht es hauptsächlich darum, dass Mitarbeiter die Eigenschaften und Konfigurationsmöglichkeiten von Displacementsensoren verstehen und für unterschiedliche Testobjekte anwenden. Für die Lerneinheit sind Unterrichtsmaterialien erstellt sowie ein vollständiger Unterrichtsentwurf erarbeitet. Der Unterrichtsentwurf orientiert sich an dem Perspektivenschema nach Klafki (vgl. 1994, S. 270ff.).
Das Projekt PHOTOPUR soll die Reduzierung von Pestiziden in Oberflächengewässern ermöglichen. In dieser Arbeit wird eine Automatisierung eines ersten Demosystems entwickelt, welches den gesamten Reinigungsprozess abbildet. Eine Projektierung der Automatisierung des Systems wird mit den dafür vorgesehenen Fließschemas und Gerätelisten durchgeführt. Darauf aufbauend wird die Ablaufsteuerung des Demosystems durch einen Ablauf-Funktionsplan umgesetzt. Um eine Systemüberwachung der Anlage zu gewährleisten wurde dazu eine Visualisierung ausgearbeitet. Zusätzlich wurden die Regelstrecken der Durchflussregelungen in den zwei Teilprozessen des Reinigungsprozesses bestimmt und durch unterschiedliche Einstellregeln der optimale Regler der Regelkreise ermittelt.
Die in dieser Arbeit entwickelte Software, beinhaltet die drei folgenden Umsetzungen: Realisierung der Ablaufsteuerung, Implementierung der Reglerparameter durch einen vorhandenen Regelalgorithmus und die Visualisierung des Demosystems.
Diese Arbeit beschäftigt sich mit den Grundlagen zu Multi-Agenten-Systemen in der Industrie. Der Begriff “Industrie 4.0“ wird eingeführt und es wird eingehend auf die Potentiale und Herausforderungen diesbezüglich eingegangen. Außerdem wird ein Überblick über aktuelle Entwicklungen und Ansätze zur Entwicklung von sogenannten autonomen Agenten gegeben. Diese werden auch im Hinblick auf die Themen Holonic Manufacturing und Multi-Agenten-System besprochen. Im praktischen Teil der Arbeit wird ein System bestehend aus vier BDI-Agenten ntwickelt, um einen beispielhaften Geschäftsprozess zu bearbeiten. Die Entwicklung basiert dabei auf Java und dem Jadex Agenten-Framework. Es wird gezeigt, dass sich damit autonome BDI-Agenten umsetzen lassen, die über Rechnergrenzen hinweg koordiniert werden können.
Der beständig wachsende Markt und die Aussicht auf eine Vielzahl an „ausrangierten“ Batteriespeichern aus der Elektro-Mobilität, hat in den letzten Jahren zu einer Vielzahl an Anbietern von Batteriespeichersystemen für Gewerbe und Industrie geführt.
Die Anwendungsmöglichkeiten und daraus resultierende Geschäfts- und Erlösmodelle sind ein Schwerpunkt im vorliegenden Leitfaden. Außerdem beantworten wir praxisrelevante Fragestellungen für einen potentiellen Anwender: Welche relevanten Anbieter gibt es am Markt? Wie unterscheiden sich diese und deren Produkte? Welche zusätzlichen Services werden angeboten? Um nur einige davon zu nennen.
Der Fokus unserer Analyse sind dabei die Anbieter von Komplett-Lösungen. Diese unterscheiden sich oftmals gerade nicht in der verwendeten Batterietechnologie sondern vor allem durch die Leistungselektronik und die (oft proprietäre) Steuerungstechnik. Und die machen aus Anwender- und Systemsicht oft den Unterschied.
Inhalte: Einführung und Hintergrund | Batteriespeicher in Gewerbe- und Industrie – Einleitung, Markt, Förderung | Beschreibung und Bewertung der Anwendungsfälle | Beschreibung und Bewertung der Geschäfts- und Erlösmodelle | Anbieter und Wertschöpfungskette verfügbarer Lösungen | Vergleich Unternehmen und Produkte | Detaillierte Anbieter- bzw. Unternehmensprofile
Marken müssen sich der Herausforderung stellen, in einem immer stärker werdenden Wettbewerb mit wachsender Informationsflut den Kunden mit Werbebotschaften erreichen zu können. Hinzukommt die zunehmende Relevanz der Integration von Social Media in die Unternehmenskommunikation. Da jedoch gerade die sozialen Medien von einer großen Informationsflut betroffen sind, ist es notwendig, aus der Masse herauszuragen. An dieser Stelle sollen die Erkenntnisse des Neuromarketing Abhilfe schaffen, um sich durch eine gehirngerechte Kommunikation in den Köpfen der Zielgruppe zu verankern.
Neurobiologische Grundlagen konnten zunächst zeigen, dass 95 Prozent aller Werbebotschaften unbewusst wahrgenommen werden und der Autopilot daher eine zentrale Rolle in der Markenkommunikation spielt. Das Neuromarketing mit seinen Methoden versucht dementsprechend eine implizite Wirkung zu entfalten, indem Bedeutungsträger an die für bestimmte Zielgruppen, je nach Ausprägung des Emotions- und Motivsystems, relevanten Motive anschließen. Auf diese Weise kann sich ein einzigartiges neuronales Markennetzwerk im Gehirn der Konsumenten verankern, was eine starke Marke ausmacht.
Dieses Wissen gilt es in die Social Branding Praxis zu integrieren, indem die vier Codes der Markenkommunikation entsprechend angewandt werden. Somit können Konsumenten nachhaltig und effizient in sozialen Netzwerken erreicht werden.
Diese Bachelorarbeit befasst sich mit der Integration von Storytelling in der Unternehmenskommunikation mittelständischer Unternehmen und analysiert, welche Bedeutung dem Einsatz von Storytelling zur Lead-Generierung, zugesprochen werden kann. Dabei wird die Wirkungsweise von Storytelling näher betrachtet und mit dem unternehmerischen Nutzen in Verbindung gebracht.
Die Arbeit bietet einen Überblick über die Kommunikationsabläufe eines Unternehmens und nimmt den Leadgenerierungsprozess unter die Lupe. Unter Berücksichtigung der besonderen Rahmenbedingungen, die sich für mittelständische Unternehmen ergeben, werden Berührungspunkte und Zusammenhänge erarbeitet, die eine Integration von Storytelling in den Leadgenerierungsprozess ermöglichen. Die Betrachtung der Rolle von Storytelling, sowohl auf der operativen als auch auf der strategischen Ebene, verdeutlicht dabei die unterschiedlichen Integrationsstufen, die sich für den Storytelling-Einsatz ergeben können. Ein abschließender Ausblick, bei dem die Herausforderungen des Mittelstandes erörtert werden, soll auf die Bedeutung des Storytellings in der nahen Zukunft eingegangen werden.
Diese Arbeit befasst sich mit dem Thema der sogenannten „Advanced-Spike-Technology“. Dabei wird ein fortschrittliches Vorfußdämpfungselement betrachtet, dessen Kompressionssteifigkeit variiert wird. Die Technik soll die Sprint-Spikes maßgeblich verbessern. Die Arbeit untersucht, ob die Variation der Kompressionssteifig-keit der Sprint-Spikes einen Einfluss auf die sportliche Leistungsfähigkeit beim Sprinten hat. Es werden drei Prototypen von Adidas getestet, die jeweils unterschiedliche Steifigkeiten im Vorfußbereich aufweisen (hart, mittel und weich). Das Ziel besteht darin, die Auswirkungen der Variation der Kompressionssteifigkeit auf den Start bis 10 Meter und den Sprint auf etwa 50 bis 60 Meter zu untersuchen. Dabei werden die Geschwindigkeit und die Beschleunigung des Körperschwerpunktes in Matlab R2023b berechnet. Anhand der Ergebnisse wird die Fragestellung beantwortet. Zu Beginn werden folgende Hypothesen aufgestellt: Die Variation der Kompressionssteifigkeit hat keinen signifikanten Einfluss auf die sportliche Leistungsfähigkeit. Allerdings können individuelle Präferenzen der Sportler*innen in Bezug auf die Steifigkeit der Spikes berücksichtigt werden.
Die Untersuchung wird am Advanced Motion Lab in Offenburg (AMLO) der Hochschule Offenburg durchgeführt. Die Messung erfolgt auf einer Tartanbahn, wobei Kraftmessplatten im Bodenbelag integriert sind, um die Bodenreaktionskräfte beim Fußaussatz zu messen. Zusätzlich werden acht High-Speed-Videokameras eingesetzt, um die Sprintbewegung mittels markerlosem 3D-Motion-Capturing aufzuzeichnen. Es werden 30 Proband*innen getestet, davon 20 männliche und 10 weibliche Teilnehmer*innen, die eine saisonale persönliche Bestleistung von 12,5 Sekunden beziehungsweise 13,5 Sekunden über 100 Meter besitzen. Außerdem dürfen die Proband*innen in den letzten sechs Monaten keine kardiovaskulären Einschränkungen oder Verletzungen aufgewiesen haben. Nach Unterzeichnung der Einverständniserklärung und einem kurzen individuellen Warm-up wird die Kalibrierung der verwendeten Software beziehungsweise Messgeräte durchgeführt. Anschließend beginnt die eigentliche Messung. Pro Person werden jeweils mindestens zwei gültige Starts und ein gültiger maximaler Sprint pro Schuhbedingung durchgeführt. Die Pausengestaltung zwischen den einzelnen Messungen wird individuell gewählt, um Ermüdung zu vermeiden. Nach der Durchführung erfolgt die Auswertung und Verarbeitung der Daten durch das Programm Theia Markerless.
Zu Beginn wird die Berechnung in Matlab realisiert. Der erste allgemeine Schritt in der Berechnung des Startes und Sprints ist identisch. Die verarbeiteten Daten aus Theia werden unter Einsatz einer Funktion eingelesen. Diese Funktion durchläuft eine Ordnerstruktur, die zuvor manuell erstellt werden muss und die die einzelnen Daten der Proband*innen beinhaltet.
Um den Start berechnen zu können, müssen zunächst die Daten der vertikalen Bodenreaktionskraft umgerechnet werden. Daraufhin folgt eine Filterung der vertikalen Bodenreaktionskraft mit einer Schwelle von -3 Newton, da um die Nulllinie ein Rauschen vorliegen kann. Die Daten unterhalb dieser Schwelle entsprechen denen des Fußaufsatzes der Kraftmessplatte. Im Anschluss werden die Indizes unterhalb der Schwelle identifiziert. Auch die Daten des Körperschwerpunktes müssen gefiltert werden, da ungültige Datenauswertungen in Theia für den Wert des Körperschwerpunktes -999999 annehmen. Um diese Daten zu eliminieren, wird eine Schwelle von -100 eingeführt. Daraufhin folgt die Zuordnung der Indizes der Bodenreaktionskraft zu den Werten des Körperschwerpunktes und die Extraktion der Daten des Körperschwerpunktes. Im nächsten Schritt werden die Geschwindigkeit und die Beschleunigung anhand der internen Funktion „gradient“ berechnet. Weiterführend folgt die Berechnung der minimalen, mittleren und maximalen Werte der Geschwindigkeit und Beschleunigung. Letztendlich werden die Parameter als Excel-Datei exportiert, um eine statistische Auswertung durchzuführen.
Der erste Schritt zur Berechnung des maximalen Sprints besteht darin, den Körperschwerpunkt bei der Startfilterung zu identifizieren. Hierbei wird erneut die Schwelle von -100 verwendet und es werden die lokalen Maxima (Höhepunkte) in der Sagittalebene des Körperschwerpunkts identifiziert. Das Ziel ist es, die Daten zwischen zwei Maxima zu extrahieren, was genau einem Schritt entspricht. Es wird eine Mindestsuchhöhe für die Maxima festgelegt. Der Code unterscheidet zwischen den Fällen, in denen ein, zwei, drei oder vier und mehr Maxima gefunden werden. Des Weiteren werden verschiedene Abfragen und Unterscheidungen durchgeführt, um die beiden besten Maxima zu ermitteln. Danach werden die Indizes im Intervall von Maxima zu Maxima identifiziert und dem Körperschwerpunkt zugeordnet. Im Folgenden werden die Geschwindigkeitsberechnungen mithilfe der Funktion „gradient“ sowie die minimalen, mittleren und maximalen Geschwindigkeiten dargestellt. Abschließend erfolgt der Export der Parameter für die statistische Auswertung.
Nachfolgend wird die Leistungsfähigkeit der erstellten Programme in Matlab manuell überprüft. Beim Start und Sprint ergibt sich eine Genauigkeit von 98,89 und 96,66 %. Dies ermöglicht eine präzise statistische Auswertung, die im Programm „Jasp“ durchgeführt wird. Es wird eine einfaktorielle Varianzanalyse (ANOVA) mit Messwiederholung angewendet, wobei einige Voraussetzungen erfüllt sein müssen. Es lässt sich feststellen, dass die Variation der Kompressionssteifigkeit keinen signifikanten Einfluss auf die Geschwindigkeit oder Beschleunigung hat. Beim maximalen Sprint ist der Einfluss größer als beim Start, jedoch nicht signifikant. Diese Ergebnisse bestätigen die Hypothese.
Im Rahmen dieser Masterarbeit soll ein Radträger für ein Leichtbaufahrzeug entwickelt werden. Dieser soll ein niedriges Gewicht sowie eine hohe Steifigkeit aufweisen und fertigbar sein.
Dabei wird über einen iterativen Prozess aus Simulation, Topologieoptimierung und Neukonstruktion ein neues Radträgerdesign entwickelt.
Zu Beginn der Arbeit wird auf die wissenschaftlichen Grundlagen eingegangen. Dabei spielen vor allem das Thema Leichtbau sowie die finite Elemente Methode eine Rolle. Es wird auf Prinzipien der Konstruktion eingegangen, um das Bauteil fertigungsgerecht und auch effizient zu gestalten.
Im nächsten Kapitel wird der aktuelle Stand der Technik genauer untersucht. Hierbei wird der Entwicklungsprozess der aktuellen Radträger-Varianten untersucht und diese mittels FEM nachgerechnet. Zuvor werden noch die für die Simulation benötigten wirkenden Kräfte berechnet und Plausibilitätstests durchgeführt, bei denen Computersimulationen mit realen Messwerten auf deren Richtigkeit überprüft werden.
In den letzten Kapiteln geht es um die Entwicklung des Radträgers. Hier werden einige Konzepte entwickelt und mittels FEM-Simulationen getestet. Durch den Einsatz von Topologieoptimierungen wird versucht, das Gewicht des Radträgers bei gleichbleibender Steifigkeit zu senken.
Bereichsübergreifender Einsatz von JavaScript – Aktueller Stand und exemplarische Implementierung
(2021)
Nahezu alle Websites nutzen die Programmiersprache JavaScript zur Darstellung von interaktiven Inhalten und zur Bereitstellung von komplexen Funktionalitäten. Seit ihren Anfängen im Jahr 1995 hat sich die Sprache nicht nur zum Standard in der Webentwicklung etabliert, sondern auch zu einer leistungsfähigen Mehrzweckprogrammiersprache weiterentwickelt.
Diese Arbeit befasst sich mit einer ausführlichen Darstellung der aktuellen Möglichkeiten, welche Ansätze sich durch die Weiterentwicklung JavaScripts zu einer Mehrzweckprogrammiersprache ergeben und wie sich diese heute umsetzen lassen. Anhand des intelligenten Schlüsselkastens „Smart Vault“ wird verdeutlicht, wie dieses Vorgehen praktisch realisiert und die Vorteile einer einzigen Programmiersprache angewendet werden können.
Es hat sich herausgestellt, dass sich JavaScript für Anwendungen unterschiedlicher Bereiche einsetzen lässt und darüber hinaus ein hohes Potenzial für weitere Entwicklungen, Verbesserungen und zusätzliche Einsatzgebiete besitzt. Es lassen sich nicht nur Websites, Web Server und Desktop Apps, sondern auch Mikrocontroller im Internet of Things konfigurieren und miteinander nutzen, ohne eine weitere Programmiersprache zu benötigen. Zahlreiche Bibliotheken und Frameworks machen es möglich, dass die Sprache verschiedene Anwendungen über ihre Einsatzgebiete hinweg miteinander verbindet.
Im Leistungssport können Verletzungen den weiteren Karriereverlauf einer Athletin stark beeinflussen. Eine umso größere Rolle spielt daher der Rehabilitationsprozess. Diese Arbeit befasst sich mit den Kraftfähigkeiten des M. triceps surae nach einer Achillessehnenrekonstruktion im Bereich des Leistungsturnens. Die Quantifizierung der Kraftfähigkeiten erfolgt mit Hilfe von isokinetischen Krafttests. Dazu werden auf beiden Seiten einmal wöchentlich 2 x 3 Wiederholungen bei einer Testgeschwindigkeit von 30 deg/s durchgeführt. Die Messungen überspannen einen Zeitraum von 10 Wochen und beginnen 6 Monate postoperativ. Die Datenauswertung erfolgt mit MATLAB. Auf der unverletzten Seite werden keine oder nur geringfügige Änderungen in den Kraftfähigkeiten erwartet. Auf der verletzten Seite hingegen wird ein deutlicher Anstieg in den Kraftfähigkeiten erwartet. Die Kraftfähigkeiten werden über das maximale Drehmoment, den Drehmomentkraftstoß und die Kraftanstiegsrate (rate of force development = RFD) festgestellt. Werden die Messwerte aus der ersten und der letzten Messung verglichen, zeigen die Ergebnisse ein anderes Bild auf. Die Messwerte für die unbetroffenen Seite steigen um 17,1 % für das Drehmoment, um 17,2 % für den Drehmomentkraftstoß und um 20,4 % für die RFD. Auf der betroffenen Seite steigen die Werte respektive um 19,1 %, 15,2 % und 59,3 %. Es liegt also lediglich für die RFD ein deutlicher Anstieg im Vergleich zur unbetroffenen Seite vor. Ein anderes Ergebnis zeigt sich, wenn die Messwerte der ersten und der vorletzten Messung verglichen werden. Die Werte der unverletzten Seite steigen um 19,2 %, 19,6 % und 35,4 %. Auf der verletzten Seite hingegen, ist eine Steigerung von 32,6 %, 31,7 % und 102,2 % zu sehen. Somit liegt ein deutlicher Anstieg in dem Kraftfähigkeiten der verletzten Seite, auch in Bezug unverletzte Seite, vor. Ob es sich bei der letzten Messung um einen Ausreißer auf der betroffenen Seite handelt, lässt sich durch fehlende Folgemessungen nicht bestimmen.
Für eine fundiertere Aussage sollte ein längerer Zeitraum betrachtet werden. Aufgrund der zeitlichen Begrenzung für die Erstellung dieser Arbeit ist das leider nicht möglich.
This thesis deals with the FEV centrifugal compressor teststand at Offenburg University of Applied Sciences. The teststand has two electrically operated compressorunits from the Rotrex company, on which students can gain practical experience. The range of application of the teststand is to be extended, so that different impeller geometries can be tested with otherwise unchanged construction. To realise this, knowledge about the operating behaviour of the volute and possible design solutions for the interface between the impeller and the gearbox are required. Using numerical methods for flow analysis, the operating range of the volute was determined by narrowing down the inlet conditions. Furthermore, research was carried out on common couplings, three different coupling concepts were worked out and compared with each other. This work does the preliminary work and thus lays the foundation for the implementation of the upcoming series of tests on the operating behaviour of different impeller geometries.
Der True-Crime-Podcast erfreut sich in Deutschland einer großen Hörerschaft, die ganz unterschiedliche Nutzungsmotivationen mitbringt. Die Faszination für wahre Kriminalfälle kommt nicht von ungefähr – das Phänomen, welches dieser zugrunde liegt, ist die Morbid Curiosity. Da bislang noch nicht allzu viel Forschung in diesem Gebiet betrieben wurde, gibt diese Arbeit durch einen Vergleich verschiedener Untersuchungen Aufschluss darüber, wo diese Neugier für morbide Ereignisse herkommt. Gleichzeitig soll ein Überblick über das Genre True Crime und das Medium Podcast gegeben werden. Das Ziel ist es, eine Verbindung zwischen dem Phänomen Morbid Curiosity und dem Format True-Crime-Podcast herzustellen. Die Forschungsfrage lautet: Welche Rolle spielt Morbid Curiosity bei der Nutzungsmotivation der Konsumenten von True-Crime-Podcasts? Die Ergebnisse zeigen, dass Frauen andere Nutzungsmotivationen mitbringen als Männer und gleichzeitig die primären Konsumentinnen sind. Die Neugier für morbide Ereignisse spielt dabei durchaus eine Rolle, wenn auch scheinbar eine untergeordnete. Es werden Ansätze für weitere Forschung gegeben.
Diese Arbeit befasst sich mit der Betriebsanalyse einer Trinkwarmwasseranlage und der Erweiterung der Abwärmenutzung einer Wärme- und Kälteerzeugungsanlage. Der Trinkwarmwasserbetrieb wird mit einem Gaskessel und einem Wärmepumpenboiler energetisch analysiert und verglichen. Die Wärme- und Kälteerzeugung soll durch eine Umschaltung von einer Kältemaschine optimiert werden. Die bisherige Abwärmenutzung im Kühlbetrieb soll auch in Teilen für Verbraucher im Heizbetrieb gewährleistet werden und somit den Energieverbrauch des Gaskessels senken.
Der Fokus dieser Arbeit liegt auf den Bewegtbildstrategien von Tageszeitungen in Baden-Württemberg. Es sollte aufgezeigt werden welche strategischen Vorgehensweisen die Lokalzeitungen in Baden-Württemberg verwenden und wie sie diese Umsetzen. Weiter sollten Faktoren extrahiert werden, die als erfolgskritisch angenommen werden können. Herausgefunden wurde, dass alle befragten Zeitungsverlage eine konvergenzinduzierte Cross-Media-Strategie verfolgen, in der die Diversifikation vertikal verläuft. Das heißt die Zeitungen sind meist selbst Produzent des Bewegtbilds und nutzen die wechselseitigen Synergieeffekte der redaktionellen Kompetenzen und multimedialen Distributionskanäle. Weiter kann festgestellt werden, dass Im Bereich Bewegtbild Ansätze einer Nischen- oder Fokusstrategie zu erkennen sind.
Als Erfolgsfaktoren können vor allem die lokale Kompetenz, die Format- und Themenwahl von Videos sowie die Redaktionsorganisation, die stark mit der Nutzung von Synergieeffekten zusammenhängt, angenommen werden.
Diese Arbeit befasst sich mit dem Entwurf und der Herstellung einer Roboterhandprothese, die amputierten Menschen eine gewisse Mobilität und eine teilweise Nutzung der Hand ermöglichen soll.
Das Projekt konzentriert sich insbesondere auf die Erkennung der vom Benutzer ausgeführten Bewegung und wird die Schritte der Erfassung, der Bewegung der Übertragung und die Erkennung detailliert darstellen.
Die Ruptur des vorderen Kreuzbandes (VKB) im Knie ist eine häufige, schwerwiegende und mit hohen Kosten verbundene Verletzung im Sport. Eine erfolgreiche Rehabilitation und Rückkehr in den Wettkampfsport ist trotz zahlreicher wissenschaftlicher Erkenntnisse schwierig. Um das Wiederverletzungsrisiko zu minimieren und den optimalen Zeitpunkt für ein Back To Sport (BTS) zu definieren, werden in der Literatur sehr umfangreiche Assessments vorgegeben, die hohe Anforderungen an Gerätschaften, Geld und Zeit stellen. Durch ein bereitgestelltes Lasersystem für den Olympiastützpunkt (OSP) Freiburg-Schwarzwald wurde überprüft, ob ein einziger funktioneller Test mit dem Lasersystem ein BTS-Assessment ersetzen kann. Dafür wurde eine kleine Studie mit 10 Kreuzbandpatienten durchgeführt. Die Studienteilnehmer wurden durch ein umfangreiches Assessment geführt, wie sie aus aktuellen Studien vorgegeben wird, und absolvierten einen funktionellen Sprungtest mit dem Lasersystem. Um Zusammenhänge der Sprungtest- und der Assessmentergebnisse festzustellen, wurde eine Korrelationsanalyse durchgeführt. Diese zeigte, dass einzelne Tests aus dem Assessment signifikante Zusammenhänge mit den Ergebnissen des Sprungtests hatten. Zukünftig könnte man in Erwägung ziehen, diese zu ersetzen.
Es werden die wesentlichen theoretischen Methoden der Unternehmensbewertung dargestellt und erläutert – DCF-Methode, Bewertung auf Basis vergleichbarer börsennotierter Unternehmen oder vergleichbarer Transaktionen. Die Relevanz der Ansätze variiert von Fall zu Fall stark und die Anwendbarkeit hängt wesentlich vom Ziel der Bewertung sowie den zur verfügung stehenden Informationen ab.
Bilder und Filme sind aus dem modernen Leben nicht mehr wegzudenken. Besonders die Präsenz im Internet – die Webseite der Firma, der persönliche Blog oder der Auftritt in sozialen Medien – kommt nicht mehr ohne die richtige Visualisierung aus. Wer entsprechende Fähigkeiten und Ausrüstung besitzt, erstellt sich seine benötigten Inhalte selbst. Wer diese Möglichkeit nicht hat, muss auf Werke anderer zurückgreifen. Einfach aus dem Internet herunterladen und benutzen darf man diese allerdings nicht, denn sie sind in den meisten Fällen urheberrechtlich geschützt. Große Firmen und Personen mit entsprechendem Budget buchen für diese Zwecke deshalb extra Fotografen oder kaufen ihre gewünschten Inhalte auf beliebten Stock-Plattformen wie Shutterstock oder Getty Images. Diese Abschlussarbeit richtet sich an diejenigen, die das nicht können: (Werk-)Studenten im Bereich Medien, Gestaltung oder Onlinemarketing sowie kleinere Firmen und Einzelpersonen, welche Bilder und Filme für private, schulische, redaktionelle oder kommerzielle Zwecke benötigen.
Ziel dieser Arbeit ist das Vorstellen der zahlreichen Möglichkeiten, im Internet Bilder und Filme für die kostenlose und rechtssichere Nutzung zu recherchieren. Dabei werden verschiedene Arten der kommerziellen und nichtkommerziellen Nutzung berücksichtigt, sodass möglichst viele Leser einen Nutzen aus dieser Abschlussarbeit ziehen können. Hierzu wird zunächst die Rechtslage in Deutschland geklärt und anschließend 7 Plattformen sowie 2 Suchmaschinen für Bilder und 7 Plattformen für Filme untersucht und miteinander verglichen. Für jede Plattform werden ihre typischen Features vorgestellt und ihre Bedeutung für die Recherche aufgezeigt. Dies soll als Hilfestellung für einen effizienten Recherche-Arbeitsablauf auf der jeweiligen Plattform dienen. Anschließend wird die jeweilige Bild- und Videoauswahl anhand beispielhafter Suchbegriffe dargestellt.
Einleitung: Nach einer Verletzung oder Operation ist die Rehabilitation und das eigenständige Training entscheidend für die Wiederherstellung der Funktion und Unabhängigkeit. Für eine höhere Trainingsadhärenz wurde der auf Inertialsensoren basierende digitale Trainingsassistent re.flex (Kineto Tech Rehab SRL, Bukarest, Rumänien) entwickelt, der Gelenkwinkel messen und visuell darstellen kann. Eine Smartphone App dient als Therapieanleitung. Durch die Kombination des re.flexSystems mit einer Knieorthese, wurde die Genudyn® OA smart (Sporlastic GmbH, Nürtingen, Deutschland) entwickelt, ein digitales Behandlungskonzept bei Gonarthrose. Damit haben Patient:innen die Möglichkeit eigenständig ein 12-wöchiges individuelles Trainingsprogramm mit integriertem Echtzeit-Biofeedback zu absolvieren. In der vorliegenden Arbeit soll die Messgenauigkeit des re.flexSystems evaluiert und mögliche Einflussgrößen erfasst werden.
Methoden: Die Messergebnisse des re.flex-Systems wurden mit einem 3D MotionCapture-System von Vicon (Vicon, Oxford, England) als Referenz verglichen. In vier Durchgängen wurden jeweils fünf therapeutische Übungen durchgeführt, bei denen Knie- und Hüftwinkel gemessen wurden. Für die Erfassung möglicher Einflussgrößen wurden Messungen nur mit den Sensoren am Bein, mit Knieorthese, mit 1cm und 3cm senkrechter Verschiebung eines Sensors durchgeführt und kleinere mit größeren Oberschenkelumfängen verglichen. Für die statistische Analyse wurde der RMSE und ICC berechnet und Bland-Altman-Plots erstellt.
Ergebnisse: Der ICC aus der ROM lieferte Werte von 0,26 - 0,82, aus den Maxima 0,01 – 0,82. Der RMSE reichte von 6,53° - 15,39°. Kniewinkel und Hüftflexion lieferten die besten Ergebnisse, Hüftabduktion mittelmäßige und Hüftextension die schlechtesten. Die Bland-Altman-Plots zeigten wenige Ausreißer. Die Knieorthese und das Weichteilgewebe zeigten einen negativen Einfluss auf die Messgenauigkeit. Die Verschiebung des Sensors hatte keinen Einfluss.
Schlussfolgerung: Da besonders die Kniegelenkwinkelmessungen, auf denen der Fokus für das Behandlungskonzept bei Kniearthrose liegt, hohe Genauigkeiten erzielten, konnte der digitale Trainingsassistent re.flex in der vorliegenden Arbeit als Therapiehilfsmittel überzeugen.
Jugendmarken wie Nintendo, Coca Cola, Nike und H&M haben es geschafft, sich bei den Jugendlichen zu etablieren und ihre Marke erfolgreich zu positionieren. Doch, wie schafft man es in der schnelllebigen Zeit von heute, eine erfolgreiche Jugendmarke zu werden und in den übersättigten Märken das Interesse bei den Jugendlichen zu wecken? Im ersten Teil der Bachelor-Arbeit soll deshalb der Frage nachgegangen werden, welche Kriterien eine Marke heutzutage erfüllen muss, um sich als erfolgreiche Jugendmarke etablieren zu können. In den Mittelpunkt rückt daher die Lebenswelt der Jugendlichen. Eine Zielgruppenanalyse soll ihren Alltag, ihre Bedürfnisse und ihre Werte durchleuchten und auf diese Weise Schlussfolgerungen für Eigenschaften und Faktoren für erfolgreiche Jugendmarken liefern. Aber auch auf Problematiken mit der jugendlichen Zielgruppe soll in der Arbeit eingegangen werden. Im zweiten Teil der Bachelor-Arbeit soll dieses Wissen auf ein fiktives Konzept für eine Jugendmarke reflektiert werden. Widerspiegeln soll sich dies in der Produktlinie, der Markenidentität und dem Kommunikationskonzept. Die Marke soll in das Interessengebiet der Jugendlichen von heute passen und sie in den Mittelpunkt stellen.
In 2012 sind laut Börsenverein des Deutschen Buchhandels 91.100 neue Bücher auf dem Markt erschienen. Zwar bedeutet dies einen Rückgang von 5,4 Prozent im Vergleich zum Vorjahr (2011: 96.273 Titel) und ist der niedrigste Wert seit sieben Jahren, aber nach wie vor ist das eine sehr hohe Zahl an Neuerscheinungen. Dies führt dazu, dass selbst Vielleser und Personen mit einer hohen Lesefrequenz den Überblick verlieren und angeben, dass der Buchmarkt für sie unübersichtlich ist. Gleiches ist auch bei Jugendlichen zu erkennen. Hier geben ein Achtel der Befragten an, dass ihnen der Überblick fehle und sie deshalb nicht lesen.
Es wird deutlich, dass der Käufer die entscheidende Instanz ist und durch seine Entscheidung, ein Produkt zu kaufen oder nicht, den Erfolg eben dieses Produkts bestimmt. Da es sich bei der aktuellen Marktsituation also klar um einen Käufer oder Kundenmarkt handelt, müssen die Verlage immer mehr auf die Wünsche und Bedürfnisse ihrer Kunden und Leser eingehen. Das erreichen sie vor allem durch die Spezialisierung ihres Programms. In der Folge gibt es zum Beispiel Wissenschaftsverlage, Schulbuchverlage oder Kinder- und Jugendbuchverlage. Die spezialisierten Verlage müssen die Zusammensetzung und Wünsche ihrer jeweiligen Zielgruppe genau kennen, um erfolgreich zu sein.
Um den Kunden hinsichtlich der Programmübersicht zu unterstützen und so mögliche Käufer zu gewinnen, hat sich der Kinderbuchverlag Ernst Kaufmann Verlag in Lahr zusammen mit dem Oetinger Verlag in Hamburg neben seinem Kerngeschäft einen Reise- und Versandbuchhandel („Smalland“) aufgebaut. Smalland bietet dem Verlag die Möglichkeit, in Zusammenarbeit mit rund 10.000 Kindergärten in ganz Deutschland Kinderbuchausstellungen durchzuführen.
Zweimal im Jahr werden Buchpakete mit je circa 30 Titeln verschiedener Verlage zusammengestellt, welche dann als Musterpakete von den Kindergärten für die Eltern und Kinder ausgestellt werden. Eltern fordern dann die gewünschten Kinderbücher per Sammelbestellung an.
Um verlagseigene Produkte im jeweiligen Programmumfeld optimal zu positionieren ist es notwendig, die bisherigen Ergebnisse der Ausstellungen zu analysieren. Hierfür eignet sich eine Analyse der Absatzzahlen von insgesamt zehn Halbjahren, welche dem Verlag vorliegen.
Ziel dieser Arbeit ist es, das Programmumfeld eines ausgewählten verlagseigenen Produkts zu untersuchen und die Erfolgsparameter eben dieses Produkts festzustellen. Mittels einer Absatzzahlenuntersuchung und anhand acht aufgestellter Thesen wird sich diesem Ziel genähert.
Der Bankensektor vollzieht eine digitale Transformation. Welche exakten Auswir-kungen diese Transformation auf den Bankensektor und die einzelnen Banken haben wird ist noch nicht abzusehen. Doch schon jetzt zeichnet sich ab, dass Banken sich von ihren starren Öffnungszeiten lösen und flexibler auf die Kunden zugehen müssen. Servicequalität durch maßgeschneiderte Angebote und permanente Verfügbarkeit sind zu kritischen Erfolgsfaktoren im Rennen um die Gunst des Kunden geworden.
Um in diesem Wettstreit einen Wettbewerbsvorteil zu erhalten muss die Verfügbarkeit kritischer Geschäftsprozesse und Ressourcen stets gewährleistet sein. An dieser Stelle setzt Business Continuity Management (BCM) an. In der vorliegen-den Arbeit wird anhand eines Modells einer bereits vollständig digitalisierten Bank, ein Geschäftsprozess ausgewählt um anhand dessen die Auswirkungen des Ausfalls von digitalen Vertriebswegen und Abhängigkeit von IT-Ressourcen aufzuzeigen.