Refine
Year of publication
Document Type
- Bachelor Thesis (604)
- Master's Thesis (208)
- Conference Proceeding (69)
- Book (15)
- Study Thesis (13)
- Article (reviewed) (8)
- Other (3)
Conference Type
- Konferenzband (64)
- Konferenzartikel (5)
Is part of the Bibliography
- no (920) (remove)
Keywords
- Mikroelektronik (60)
- Marketing (30)
- IT-Sicherheit (24)
- JavaScript (17)
- Social Media (16)
- Biomechanik (15)
- Internet der Dinge (15)
- Künstliche Intelligenz (15)
- Webentwicklung (15)
- COVID-19 (14)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (295)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (173)
- Fakultät Medien (M) (ab 22.04.2021) (165)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (138)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (101)
- Fakultät Wirtschaft (W) (33)
- IfTI - Institute for Trade and Innovation (13)
- INES - Institut für nachhaltige Energiesysteme (6)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (6)
- IUAS - Institute for Unmanned Aerial Systems (3)
Open Access
- Closed Access (463)
- Open Access (229)
- Closed (228)
- Bronze (60)
- Diamond (16)
- Gold (1)
The primary objective of this thesis is to examine the lean accounting transformation, which involves applying lean management principles to the accounting domain. In recent years, various sectors, including manufacturing, healthcare, and services, have experienced success with lean management practices. Nevertheless, the implementation of lean accounting within financial management has not been as extensively explored. This research aims to bridge that gap by scrutinizing the benefits and potential drawbacks of adopting lean accounting practices in business operations.
This research uses a combination of qualitative techniques and an extensive literature review to better understand the present subject matter. By describing the ideas of lean management and standard accounting and highlighting the fundamental distinctions between the two systems, the literature study lays a theoretical framework. The case studies illustrate the benefits of adopting lean accounting processes with real-world examples of firms that have made the transition effectively.
In the quantitative analysis of lean accounting's impact, both financial and operational factors are examined extensively. The results indicate that companies embracing lean accounting practices experience significant improvements in productivity, cost reduction, and decisionmaking quality. By highlighting the potential gains to be made by incorporating lean techniques into accounting procedures, this study adds to the current body of information on lean management. The findings offer practical implications for accounting professionals, business leaders, and policymakers interested in leveraging lean accounting to drive organizational performance improvement. The thesis finishes with suggestions for further study in this area, lean accounting.
In der heutigen Zeit sind viele Menschen von Rückenschmerzen betroffen. Besonders in der Industrie, beispielsweise im Bereich der Logistik oder der Produktion, kommt es durch die gesundheitlichen Beschwerden zu Arbeits- und Produktionsausfällen. Um den Beschwerden vorzubeugen, werden Exoskelette entwickelt, die das Muskel-Skelett-System unterstützen.
Exoskelette sind am Körper getragene Assistenzsysteme, die mechanisch auf den Körper einwirken. Insbesondere reduzieren sie den Kompressionsdruck im Bereich des unteren Rückens. In diesem Zusammenhang wird mit der vorliegenden Bachelorarbeit die Entlastung der Lendenwirbel durch den Einfluss von Exoskelett-typischen Kräften, die im Bereich des Brustkorbs und der Oberschenkel wirken, untersucht. Dabei beschränkt sich die Untersuchung auf eine Anhebung, wie beispielsweise die Anhebung einer Kiste.
Mithilfe eines markerbasierten und nicht-invasiven 3D-Aufnahmeverfahrens wird eine Hebebewegung ohne Exoskelett aufgenommen. Die experimentelle Aufnahme wird in der Software OpenSim mit einem computerbasierten Skelettmodell verknüpft. Durch das Hinzufügen von Exoskelett-typischen Kräften, die auf das Skelettmodell beim Anheben wirken, wird die Krafteinwirkung während des Tragens eines Exoskeletts simuliert. Dabei entstehen Drehmomente im unteren Rückenbereich, die in dieser Arbeit analysiert werden.
Die Auswertung des nicht-invasiven Verfahrens liefert die Erkenntnis, dass der Einsatz eines Exoskeletts beim Anheben im Bereich der Lendenwirbel zu einer Verringerung der Drehmomente und somit zu einer Verringerung der Belastung des unteren Rückens führt.
Für die flächendeckende Einführung von IP-basierter Infrastruktur benötigt der WDR Werkzeuge zur Bewertung von Qualitätskriterien komplexer Mediennetzwerke. Zu diesem Zweck wurde die Web-Applikation "Netztest" entwickelt.
Die Applikation besitzt eine intuitive Benutzeroberfläche und ermöglicht eine Bedienung ohne Netzwerk-technisches Hintergrundwissen. Sie greift über die Programmierschnittstelle auf die Messfunktionen der Software "Fusion" von VIAVI Solutions zu. "Fusion" bietet umfassende Konfigurationsmöglichkeiten und ist für ein Nutzende ohne technisches Hintergrundwissen schwer einsetzbar. Die Applikation "Netztest" vereinfacht die Schnittstelle zum Nutzenden und begrenzt die Funktionsvielfalt auf für den Anwendungsfall passende Testkonfigurationen.
Zu Beginn dieser Arbeit werden mit Hilfe einer Anforderungsanalyse Optimierungsmöglichkeiten der Applikation aufgezeigt. Anschließend wird die Implementierung eines UDP-basierten Teststandards vorgenommen, da "Netztest" bisher nur einen TCP-basierten Test bot. Das verbindungslose Transportprotokoll UDP eignet sich insbesondere für die Übertragung von Audio- und Videodaten. Für den WDR als Produktionsunternehmen solcher Medien ist ein Durchsatztest, der auf UDP basiert daher unabdingbar.
Der Code der Anwendung wird so angepasst, dass beide Tests weitestgehend dieselben Funktionen verwenden und in Zukunft problemlos weitere Tests implementiert werden könnten. Nach dem Durchlaufen eines Tests werden die Ergebnisdaten graphisch dargestellt. Das Piktogramm einer Ampel zeigt dem oder der Nutzenden an, ob die gemessene Verbindung einsatzbereit, ausreichend oder nicht ausreichend ist.
Die Implementierung des Y.1564-Tests und damit das Ziel dieser Arbeit konnte erreicht werden, doch es gibt noch Schwachstellen und Verbesserungsmöglichkeiten, die vor einer Inbetriebnahme der Anwendung "Netztest" beseitigt werden müssten.
Die Einführung der extrakorporalen Zirkulation unter Verwendung eines medikamentös induzierten Herzstillstands ermöglicht der Herzchirurgie die Herzoperationen, wie sie heute bekannt sind. Eine große Debatte besteht in der optimalen Zusammensetzung und Anwendungsweise der kardioplegischen Lösungen [6]. In der Helios Klinik für Herzchirurgie in Karlsruhe werden die kalte, kristalloide Kardioplegie nach Bretschneider und die modifizierte, kalte Blutkardioplegie nach Calafiore verwendet. Die vorliegende Arbeit beschäftigt sich mit der Frage, ob die Wahl der Kardioplegie Einwirkungen auf den intraoperativen und postoperativen Verlauf einer Bypass-Operation hat.
In der dazu angefertigten Studie wurden die Daten von 135 KHK Patienten retrospektiv erfasst und statistisch analysiert. Darunter wurden 81 Patienten mit der kalten Blutkardioplegie nach Calafiore behandelt und 53 Patienten mit der kristalloiden HTKLösung nach Bretschneider. Die demografischen Daten und Dringlichkeit der Operationen unterscheiden sich nicht signifikant voneinander. Bei den intraoperativen Parametern sind hinsichtlich der Hämoglobin-, Natrium-, und Kaliumkonzentration signifikante Unterschiede erkennbar. Weitere intraoperative Laborwerte zeigen keine Signifikanz. Die intraoperativen Parameter der Myokardprotektionsverfahren unterscheiden sich bezüglich der verabreichten Kardioplegiemenge. Bei postoperativen Parametern sind keine besonderen Signifikanzen notiert.
Die kristalloide Kardioplegie nach Bretschneider wie auch die modifizierte kalte Blutkardioplegie nach Calafiore sind sichere und effektive Verfahren. Einige Unterschiede konnten zugunsten der Blutkardioplegie nach Calafiore gefunden werden, die spezifisch für das jeweilige Verfahren sind. Zwingende Argumente für oder gegen eines dieser Verfahren konnten nicht gefunden werden.
Risk-based Cybermaturity Assessment Model - Protecting the company against ransomware attacks
(2023)
Ransomware has become one of the most catastrophic attacks in the previous decade, hurting businesses of all sorts worldwide. So, no organization is safe, and most companies are reviewing their ransomware defensive solutions to avoid business and operational hazards. IT departments are using cybersecurity maturity assessment frameworks like CMMC, C2M2, CMMI, NIST, CIS, CPP, and others to analyze organization security capabilities. In addition to maturity assessment models for the process layer and human pillar, there are much research on the analysis, identification, and defense of cyber threats in product/software layers that propose state-of-the-art approaches.
This motivates a comprehensive ransomware cyber security solution. Then, a crucial question arises: “How companies can measure the security maturity of controls in a specific danger for example for Ransomware attack?” Several studies and frameworks addressed this subject.
Complexity of understanding the ransomware attack, Lack of comprehensive ransomware defense solutions and Lack of cybermaturity assessment model for ransomware defense solutions are different aspects of problem statement in this study. By considering the most important limitations to developing a ransomware defense cybermaturity assessment method, this study developed a cybermaturity assessment methodology and implemented a Toolkit to conduct cyber security self-assessment specifically for ransomware attack to provide a clearer vision for enterprises to analyze the security maturity of controls regardless of industry or size.
Proteine spielen eine entscheidende Rolle im Stoffwechsel aller Lebewesen. Für die Lebensmittelindustrie sind die Grundbausteine der Proteine, besonders interessant, da sie den Geschmack von Lebensmitteln stark beeinflussen können, oder sich in Form von Supplementen als Nahrungsergänzungsmittel für Sportler eignen. Zur Gewinnung dieser Aminosäuren werden unteranderem Aminopeptidasen verwendet. In dieser Arbeit wurden fünf fungale Aminopeptidasen Pep 1 aus Aspergillus turcosus, Pep 4 aus Aspergillus thermomutatus, Pep 6 aus Coccidioides posadasii C735 delta SOWgp, Pep 7 aus Trichophyton interdigitale H6 und Pep 8 aus Onygena corvina in Pichia pastoris rekombinant exprimiert, mittels Ultrafiltration aufkonzentriert und biochemisch charakterisiert. Die Aminopeptidasen aus Aspergillus turcosus (Pep 1), Aspergillus thermomutatus (Pep 4) und Trichophyton interdigitale H6 (Pep 7) hatten ihr pH-Optimum bei pH 9, während die Aminopeptidasen aus Coccidioides posadasii C735 delta SOWgp (Pep 6) und Onygena corvina (Pep 8) bei pH 8,5 die höchste Aktivität aufwiesen. Die Temperaturoptima lagen bei 60 °C (Pep 1 und Pep 6) und 50 °C (Pep 4, Pep 7 und Pep 8) und alle waren zwischen 45 und 55 °C für 15 Minuten temperaturstabil. Die Aminopeptidasen hatten nach der Deglykosilierung ein Molekulargewicht von 57 (Pep 1), 52 (Pep 4 und Pep 7), 54 (Pep 6) und 53 kDA (Pep 8). Mit Leu-pNA als Substrat zeigten die fungalen Aminopeptidasen maximale spezifische Umsatzgeschwindigkeiten von 357 (Pep 1), 238 (Pep 4), 2000 (Pep 6), 56 (Pep 7) und 476 nkat/g (Pep 8). Pep 1 wurde am stärksten positiv von Bivalenten Ionen wie Mg2+, Co2+, Mn2+ und Ca2+ beeinflusst, in Gegenwart von 0,1 mM Mg2+ konnte eine relative Enzymaktivität von 345 % im Vergleich zum Referenzwert gemessen werden. Bei den anderen Aminopeptidasen konnten inhibitorische Effekte festgestellt werden. Bie allen fungalen Aminopeptidasen bei der Hydrolyse von vorhydrolysiertem Gluten die Freisetzung von Aminogruppen festgestellt werden, somit eignen sich die Aminopeptidasen in Kombination mit Endopeptidasen zur Hydrolyse von Proteingemischen. Bei der Hydrolyse konnte zudem die Freisetzung von Glutamin durch das L-Glutamine/Ammonia Assay Kit (Rapid) von Megazyme nachgewiesen werden.
Diese Bachelorarbeit beschäftigt sich mit der Vorstellung und Anwendung von Maßnahmen des Suchmaschinenmarketings, um die Positionierung der Website www.phoenix-biker-tours.de auf den Suchergebnisseiten von Google zu optimieren. Phoenix-Biker-Tours ist ein kleiner Reiseanbieter für geführte Motorradtouren welt-weit. Das Unternehmen verfügt über eine Website, die jedoch bisher für Suchmaschinen nicht optimiert wurde.
Die vorliegende Arbeit „Platform enabled Web - Webanwendungen auf Basis öffentlicher APIs am Beispiel von Facebook und Instagram“ beschäftigt sich mit einer Nische im Bereich der Webanwendungen. Unter Betreuung der Firma „Visual Statements“ wurde eine Webanwendung realisiert, deren Mehrwert ausschließlich auf den öffentlich zugänglichen Schnittstellen der Plattformen Facebook und Instagram basiert. Das Social Media Dashboard erlaubt der Redaktionsabteilung von Visual Statements die exakte Analyse der relevanten Key Perfomance Indikatoren des gesamten Markennetzwerks.
Zu Beginn der Arbeit wurde der Begriff API und die damit in Verbindung stehenden Architekturen des Webs beleuchtet. Es wurde gezeigt, welche wichtigen Konzepte, wie diverse Repräsentationsformate oder Autorisierungsverfahren, eine Basis für zuverlässige und offene Web-APIs bilden. Eigens für diese Arbeit realisierte Minimalbeispiele veranschaulichten die Implementation in der Praxis und machten die aufgezeigten Konzepte zugänglicher.
Anschließend folgte eine Analyse offener Web-APIs und der darauf basierenden Anwendungen im WWW. Eine umfassende Betrachtung der verschiedenen Anwendungsbereiche mit unterschiedlichen Beispielen verdeutlichte die Bedeutung des APIs in einem großen Spektrum diverser Sektoren. Dabei wurde nicht nur der technische Anwendungsbereich untersucht - auch auf Schnittstellen mit dem ökonomischen Sektor und den dortigen Einfluss von APIs wurde eingegangen. Daraufhin wurde erörtert, welchen Nutzen offene APIs in diesen Bereichen haben, welche Hindernisse für eine erfolgreiche Etablierung zu überwinden sind und welche Lösungsansätze hierbei bereits existieren.
Das bekannte Graph API von Facebook, welches die unmittelbare Bezugsquelle aller Informationen darstellt, die für das Social Media Dashboard benötigt wurden, wurde anschließend genau beschrieben. Der Abschnitt zeigte zudem, weshalb Facebook längst nicht mehr nur eine Plattform für den Kommunikationsaustausch ist, sondern vielmehr ein eigenes Ökosystem für Entwickler, Kreative und Unternehmen geschaffen hat. Die immense Menge an zugänglichen Daten, das umfangreiche Angebot an open-source Software und die verschiedenen Initiativen, welche von Facebook als Plattform zur Verfügung gestellt werden, unterstreichen die gemachten Erkenntnisse.
Auf Basis der Möglichkeiten, die dieses Ökosystem zu bieten hat, wurde das Projekt in Zusammenarbeit mit Visual Statemens spezifiziert. So schloss sich die Definition des Anforderungsprofils nahtlos an die Übersicht zu Facebooks Plattform an. Unter Berücksichtigung verschiedener Kriterien wurde hier das Bild des gewünschten Ergebnisses gezeichnet, welches im folgenden und abschließenden Kapitel umgesetzt wurde. Unter Verwendung von Node.js als serverseitiger Software und einer großen Anzahl eingebundener Module wurde eine funktionsfähige und datenbanklose Webanwendung realisiert, welche sämtliche Informationen aus den offenen APIs von Facebook und Instagram bezieht. Visual Statements besitzt nun ein maßgeschneidertes Tool zur Analyse der Social Media Performance und kann unabhängig von kostenpflichtigen Anbietern auf die wertvollen Informationen zugreifen.
In dieser Arbeit wird der Bildbearbeitungsprozess von Dokumenten mithilfe von einem schlicht gehaltenem Neuronalen Netzwerk und Bearbeitungsoperationen optimiert. Ziel ist es, abfotografierte Dokumente zum Drucken aufzubereiten, sodass die Schrift gut lesbar, gerade und nicht verzerrt ist und Störfaktoren herausgefiltert werden. Als API zur Verfügung gestellt, können Bilder von Dokumenten beliebiger Größe und Schriftgröße bearbeitet werden. Während ein unter schlechten Bedingungen schräg aufgenommenes Bild nach Tesseract keine Buchstaben enthält, wird mit dem bearbeiteten Bild davon eine Buchstabenfehlerrate von 0,9% erreicht.
Die Vision vom "Internet der Dinge" prägt seit Jahren Forschung und Entwicklung, wenn es um smarte Technologien und die Vernetzung von Geräten geht. In der Zukunft wird die reale Welt zunehmend mit dem Internet verknüpft, wodurch zahlreiche Gegenstände (Dinge) des normalen Alltags dazu befähigt werden, zu interagieren und sowohl online als auch autark zu kommunizieren. Viele Branchen wie Medizin, Automobilbau, Energieversorgung und Unterhaltungselektronik sind gleichermaßen betroffen, wodurch trotz Risiken auch neues wirtschaftliches Potential entsteht. Im Bereich "Connected Home" sind bereits Lösungen vorhanden, mittels intelligenter Vernetzung von Haushaltsgeräten und Sensoren, die Lebensqualität in den eigenen vier Wänden zu erhöhen. Diese Arbeit beschäftigt sich mit dem Thread Protokoll; einer neuen Technologie zur Integration mehrerer Kommunikationsschnittstellen innerhalb eines Netzwerks. Darüber hinaus wird die Implementierung auf Netzwerkebene (Network Layer) vorgestellt, sowie aufbereitete Informationen bezüglich verwendeter Technologien dargestellt.
Für die Prognose von Zeitreihen sind bezüglich der Qualität der Vorhersagen heutzutage neuronale Netze und Deep Learning das Mittel der Wahl. LSTM-Netzwerke etablierten sich dazu als eine gut funktionierende Herangehensweise. 2017 wurde der auf Attention basierende Transformer für die Übersetzung von Sprache vorgestellt. Aufgrund seiner Fähigkeit mit sequenziellen Daten zu arbeiten, ist er auch für Zeitreihenprobleme interessant. Diese wissenschaftliche Arbeit befasst sich mit der Vorhersage von Zeitreihen mit einem Transformer. Es wird analysiert, inwiefern sich ein Transformer für Zeitreihenvorhersagen von einem Transformer für Sprachübersetzungen unterscheidet und wie gut die Vorhersagen im Vergleich zu denen eines LSTM-Netzwerkes abschneiden. Dazu werden ein LSTM- und ein Transformer-Netzwerk auf Luftqualitäts- und Wetterdaten in Berlin trainiert, um den Feinstaubgehalt (PM25) in der Luft vorherzusagen. Die Ergebnisse werden mit einem Benchmark-Modell anhand von Evaluationsmetriken verglichen. Anschließend wird evaluiert, wie die Fehler des Transformers reduziert werden können und wie gut der Transformer generalisiert.
Diese Bachelor Thesis behandelt das Thema MQTT 5, ein Anwendungsprotokoll im Internet der Dinge, das im Januar 2018 veröffentlicht wurde. MQTT 5 dient zur Kommunikation zwischen Geräten die mit dem Internet verbunden sind.
Innerhalb dieser Thesis werden die Neuerungen und Verbesserungen von MQTT 5 beschrieben.
Es wird untersucht, welche Mikrocontroller, SoC-Computer, Programmier-Frameworks und lattformdienste MQTT 5 unterstützen.
Anschließend wird die Entwicklung eines Smarthome-Szenarios beschrieben, das im "Interaktive Verteilte Systeme Labor" an der Hochschule Offenburg zur Anwendung kommt.
Um die Umgebung während der Durchführung von Laborversuchen zu verbessern,werden die Temperatur, Luftfeuchtigkeit, Luftqualität, Lautstärke und Lichtstärke im Labor gemessen.
Diese Werte werden anhand von Lichtern, die ihre Farbe ändern und einer Steckdose, die sich je ach Wert ein- und ausschaltet, visualisiert.
The cellulase-producing Trichoderma reesei strain RL-P37 exhibits significant potential, yielding 7.3 g/L of cellulase in 241 hours. Microscopic investigations reveal a link between spore formation and enzyme production, suggesting the need for research into the intricate relationship between enzyme production, stress responses, and the nutritional prerequisites of fungi. Comparatively, the use of sodium hydroxide (NaOH) treatment, as opposed to water treatment, results in the reduction of micronutrient content and carbon source extraction as filtrate. Despite these challenges, research by He et al. (2021) highlights NaOH's efficiency in cellulose extraction from plant-based sources. Using NaOH pretreatment can be proven as effective by designing a proper cultivation method. The selection of inducers for enzyme induction gains importance, with soluble inducers, as emphasized by Zhang et al. (2022), exhibiting superior effectiveness. Hence, adopting soluble inducers in designing cultivation methods for improved enzyme production in shaking flasks is recommended. Enzymatic treatment of bio-waste, as outlined by Hu et al. (2021), shows promise in augmenting essential component content by breaking down plant cell walls and intercellular compartments. However, the feasibility of using an artificial bio-waste medium for cultivating Trichoderma reesei is questioned. Investigating the impact of micronutrient levels, particularly the inhibitory role of zinc, on fungal growth becomes essential. These findings underscore the necessity for ongoing research and optimization in cellulase production, emphasizing both strain productivity and cultivation methodologies.
Das Projekt PHOTOPUR soll die Reduzierung von Pestiziden in Oberflächengewässern ermöglichen. In dieser Arbeit wird eine Automatisierung eines ersten Demosystems entwickelt, welches den gesamten Reinigungsprozess abbildet. Eine Projektierung der Automatisierung des Systems wird mit den dafür vorgesehenen Fließschemas und Gerätelisten durchgeführt. Darauf aufbauend wird die Ablaufsteuerung des Demosystems durch einen Ablauf-Funktionsplan umgesetzt. Um eine Systemüberwachung der Anlage zu gewährleisten wurde dazu eine Visualisierung ausgearbeitet. Zusätzlich wurden die Regelstrecken der Durchflussregelungen in den zwei Teilprozessen des Reinigungsprozesses bestimmt und durch unterschiedliche Einstellregeln der optimale Regler der Regelkreise ermittelt.
Die in dieser Arbeit entwickelte Software, beinhaltet die drei folgenden Umsetzungen: Realisierung der Ablaufsteuerung, Implementierung der Reglerparameter durch einen vorhandenen Regelalgorithmus und die Visualisierung des Demosystems.
Die vorliegende Masterarbeit hatte zum Ziel, die Effektivität des Influencer Marketings auf der Livestreaming-Plattform Twitch.tv zu untersuchen, da diesbezüglich zum einen bisher kaum geforscht wurde und zum anderen die Influencer Marketing Industrie weiterhin von Jahr zu Jahr wächst. Mittels eines Experiments basierend auf einem Forschungsmodell zweier norwegischer Masterstudentinnen wurde ein randomisiertes Zwei-Gruppen-Experiment durchgeführt, um die Effektivität des Influencer Marketings zu messen, sowie den Einfluss von Parasozialen Interaktionen auf die Effektivität des Influencer Marketings zu analysieren. Außerdem wurde ein Vergleich zwischen dem Influencer Marketing und einer regulären Online-Werbung gezogen. Für die Durchführung des Experiments konnten 184 Probanden gewonnen werden, welche randomisiert einem Treatment in Form eines gesponserten Twitch-Streams oder einem Videospieltrailer ausgesetzt waren. Trotz dieser Anzahl konnten im Laufe der Analyse keine signifikanten Ergebnisse erzielt werden. Jedoch konnten diverse Erkenntnisse gewonnen und Empfehlungen für zukünftige Forschung mit dem Fokus Influencer Marketing auf Twitch.tv ausgesprochen werden.
Die Bachelor-Thesis beschäftigt sich mit den Aspekten des Empfehlungsmarketing im Web 2.0. Dazu werden die Grundlagen zum Empfehlungsmarketing mit einer Definition, der Bedeutung und den verschiedenen Formen näher erläutert und im Anschluss die konkreten Umsetzungsmöglichkeiten für Unternehmen im Web 2.0 näher dargestellt. Hierbei zeigt die Verfasserin die grundlegenden Eigenschaften des Web 2.0 und der einzelnen Social Media Instrumente auf und geht auf die relevanten Plattformen mit ihren Chancen für das Empfehlungsmarketing ein. Zudem behandelt die Arbeit auch kritische Aspekte und Risiken des Social Webs und wie diese den Zielen des Empfehlungsmarketing entgegenwirken.
Planung und Umsetzung einer Medieninstallation mit dem Schwerpunkt: Steuerung über DMX und RS232
(2015)
Die vorliegende Arbeit stellt zunächst das Konzept und die Idee der Zeitmaschine als Installation vor. Anschließend werden die eingesetzte Technik und das verwendete Protokoll erklärt. Daraufhin nennt die Autorin die einzelnen Bauelemente und Geräte, erklärt wie diese für die Zeitmaschine zum Einsatz gebracht werden und stellt die technische Planung vor. Abschließend beschäftigt sich die Ausarbeitung mit der Software und dem Programmcode zur Steuerung der einzelnen Elemente.
Die vorliegende Bachelor-Arbeit entstand bei der Robert Bosch GmbH und befasst sich mit der Untersuchung elektrischer Antriebe, dessen Leistungsverhalten mithilfe des Rotormagnetfeldes bestimmt werden. Sie ist Bestandteil des Projektes „MagCam - Examination“ und beinhaltet als Hauptaufgabe die Rastmoment (engl. cogging torque) -Messung an elektrischen Antrieben mithilfe des intelligenten Messsystems „MagCam“. Anhand der Messung des Rotormagnetfeldes wurde das Rastmoment des elektrischen Motors quantifiziert und dessen Ursachen auf der Bauteilebene identifiziert.
Mit der Corona-Krise ist die digitale Bildung sehr stark in den Vordergrund gerückt. damit einhergehend wurde verstärkt E-Learning eingesetzt. Meistens wurde allerdings das volle Potenzial von E-Learning Plattformen nicht genutzt. Häufig wurden solche Systeme als Dateiablagen, Wissensdatenbanken oder nur für die Kollaboration Fähigkeiten benutzt. Aber darüber hinaus besitzen E-Learning Plattformen die Fähigkeit, eine Learning-Experience für die Lernenden zu erzeugen.
Diese Thesis beschäftigt sich mit KI-basierten Empfehlungssystemen im E-Learning Bereich. Dabei werden wissenschaftliche Arbeiten anhand der Methodik analysiert, welche Programmiersprachen, Algorithmen und Bibliotheken verwendet werden. Abhängig davon werden verschiedene prototypische Empfehlungsprogramme erstellt, wobei verschiedene Algorithmen ausprobiert werden. Diese Algorithmen werden bereinigte Tabellendateien verarbeiten, welche zuvor aus Moodle generiert werden. Dadurch sollen dann konkrete Empfehlungen erzeugt werden, die anschließend evaluiert und bewertet werden. Anschließend wird ein Fazit gezogen, worauf unter anderem auf die Probleme der verschiedenen Algorithmen hingewiesen wird und in welcher Hinsicht man das Empfehlungssystem verbessern könnte.
Increasing global energy demand and the need to transition to sustainable energy sources to mitigate climate change, highlights the need for innovative approaches to improve the resilience and sustainability of power grids. This study focuses on addressing these challenges in the context of Morocco's evolving energy landscape, where increasing energy demand and efforts to integrate renewable energy require grid reinforcement strategies. Using renewable energy sources such as photovoltaic systems and energy storage technologies, this study aims to develop a methodology for strengthening rural community grids in Morocco.
Traditional reinforcement measures such as line and transformer upgrades will be investigated as well as the integration of power generation from photovoltaic systems, which offer a promising way to utilise Morocco's abundant solar resources. In addition, energy storage systems will be analysed as potential solutions to the challenges of grid stability and resilience. Using comprehensive data analysis, scenario planning and simulation methods with the open-source simulation software Panda Power, this study aims to assess the impact of different grid reinforcement measures, including conventional methods, photovoltaic integration, and the use of energy storage, on grid performance and sustainability. The results of this study provide valuable insights into the challenges and opportunities of transitioning to a more resilient and sustainable energy future in Morocco.
Based on a rural medium-voltage grid in Souihla, Morocco, three scenarios were carried out to assess the impact of demand growth in 2030 and 2040. The first scenario focuses on conventional grid reinforcement measures, while the second scenario incorporates energy from residential photovoltaic systems. The third scenario analyses the integration of storage systems and their impact on grid reinforcement in 2030.
The simulations with energy from photovoltaic systems show a reduction in grid reinforcement measures compared to the scenario without solar energy. In addition, the introduction of a storage system in 2030 led to a significant reduction in the required installed transformer capacity and fewer congested lines. Furthermore, the results emphasized the role of storage in stabilizing grid voltage levels.
In summary, the results highlighted the potential benefits of integrating energy from photovoltaics and storage into the grid. This integration not only reduces the need for transformers and overall grid infrastructure but also promotes a more efficient and sustainable energy system.
Die vorliegende Ausarbeitung thematisiert die Entwicklung im Eventmarketing und behandelt mitunter die Bedeutung von Events aus Sicht des Veranstalters, der austragenden Destination und der Eventteilnehmenden als beteiligte Akteure. Zunächst erfolgt ein theoretischer Teil, in dem unter anderem essentiell wichtige Begriffe definiert und eingeordnet sowie Aufgaben im Rahmen des Arbeitsprozesses eines Marketing-Events erläutert werden. Um einen Bezug zur Praxis herzustellen wird eine empirische Vorgehensweise verfolgt, anhand der die Arbeitsfelder rund um die Erstellung der Veranstaltung „Snow Bike Festival 2017 in Gstaad“ veranschaulicht werden, wofür Experteninterviews mit Personen aus der Eventmarketingpraxis durchgeführt wurden. Ziel ist es zudem, die Bedeutsamkeit von Events in praktischer Sichtweise festzuhalten, Trends im Bereich Events zu erkennen und den zukünftigen Einsatz der Kommunikationsinstrumente auf wissenschaftlicher Basis zu analysieren.
Analyse der Anwendbarkeit des Dynamische Fähigkeiten-Konzepts am Beispiel von Großhandelsunternehmen
(2019)
Eine Anpassung aufgrund sich schnell verändernder Geschäftsumgebungen an aktuelle Gegebenheiten ist für alle Unternehmen sowohl in der freien Wirtschaft als auch staatlichen Ursprungs relevant. Diese kann durch starke dynamische Fähigkeiten der involvierten Unternehmen erfolgen. Zur Validierung des theoretischen Konzepts der dynamischen Fähigkeiten werden Großhandelsunternehmen herangezogen und deren Unternehmensaktivitäten im Hinblick auf die erste dynamische Fähigkeit in Gesprächen ermittelt. Die Ausführungen der vier Großhändler zielen in einem ersten Teil darauf ab, die grundsätzliche Anwendbarkeit des Konzepts in der Praxis zu bestätigen. In einem zweiten Teil wird analysiert in welchem Umfang sie für die betrachtete Branche beschrieben werden kann. Es zeigt sich, dass das Dynamische Fähigkeiten-Konzept nicht ohne Einschränkungen auf die Praxis übertragen werden kann, wenngleich die Ausprägungen dem Konzept zugrundeliegender Elemente bei allen Firmen ähnlich sind. Trotz dieser Ähnlichkeit konnten keine festen Muster bzw. Interdependenzen erkannt werden, die die Integration, den Aufbau und/oder die Neukonfiguration von Fähigkeiten zuverlässig fördern. Die Resultate ermöglichen es dennoch in einem letzten Teil zu beurteilen, welche Indikatoren eine Basis zur strategischen Anpassung an den Strukturwandel schaffen. Sie sind Teil der formulierten Hypothesen zu den einzelnen Elementen der ersten dynamischen Fähigkeit. Mit der Summe der Erkenntnisse konnte in gewisser Hinsicht eine Transparenz des Konzepts erreicht werden – mit Hilfe des entwickelten Interviewleitfadens kann analog zum Vorgehen in dieser Arbeit für die zweite und dritte dynamische Fähigkeit verfahren werden, sodass in einem breiteren Kontext erneut eine Aussage über die Anwendbarkeit des Konzepts getroffen werden kann.
Das Berliner Unternehmen Student Services International Ltd. will im Jahr 2017 in das EU-Ausland Frankreich expandieren.
Daraufhin entwickelte ich im Rahmen meiner Bachelor-Thesis einen Marketingplan, um einen erfolgreichen Start in die Französische Republik zu ermöglichen. Anschließend ist ein Leitfaden für weitere EU-Expansionen zu finden, der als Hilfestellung und Vereinfachung der Unternehmensaus¬weitung dienen soll.
Anhand verschiedener Analysemethoden untersucht die Arbeit die Unternehmensumwelt, die Wettbewerber und die Branchen. Aus den erarbeiteten Stärken, Schwächen, Risiken und Chancen wurde ein Konzept entwickelt, das alle internen und externen Einflüsse berücksichtigt und dabei mit Hilfe der aufgeführten Forschungsansätze passende Marketinginstrumente kombiniert.
Das Ziel dieser Arbeit ist es, zwei unterschiedliche Bewegungserfassungssysteme zu vergleichen. Dabei wird die neue Technologie der markerlosen Bewegungserfassung mit der gängigen markerbasierten Methode verglichen. Es sollen Aspekte wie Aufbau, Vorbereitung, Durchführung, Nachbearbeitung und Messergebnisse analysiert und gegenübergestellt werden.
Im Rahmen einer Querschnittsstudie wurden insgesamt 27 Probanden bei Richtungswechsel mit unterschiedlichen Winkeln in drei verschiedenen Geschwindigkeiten gemessen. Dabei nahmen beide Systeme gleichzeitig in Verbindung mit zwei Kraftmessplatten die Bewegung auf. Von jeder Geschwindigkeit wurden drei gültige Durchläufe aufgezeichnet und anschließend das Knieabduktionsmoment betrachtet. Über das maximale und minimale Knieabduktionsmoment hat für jeden Winkel und Geschwindigkeit ein Vergleich der beiden Systeme stattgefunden.
Aufbau, Vorbereitung und Durchführung des markerlosen Systems erwiesen sich als deutlich einfacher und reibungsloser. Bei dem markerbasierten System ging viel Zeit für die Systemkalibrierung, das Aufkleben von Markern oder das Wiederholen der Messung durch abfallende Marker verloren. Auch die Datennachbearbeitung ist bei dem markerbasierten System deutlich zeitaufwendiger. Die markerlosen Daten werden allerdings fix ausgegeben und können bei auftretenden Fehlern nicht bearbeitet werden.
Die beiden Systeme wurden zum Schluss anhand des gemessenen Maximums und Minimums des Knieabduktionsmoments verglichen. Insgesamt messen die beiden Systeme durchschnittlich ein unterschiedliches Maximum von 0,2 +- 0,33, bei dem Minimum lag die gesamte durchschnittliche Differenz der beiden Systeme bei -0,34 +- 0,65. Das markerlose System zeigte durchschnittlich höhere Maxima und niedrigere Minima als das markerbasierte System auf. Durch die teilweise starken Messunterschiede und auftretenden Messfehler des markerlosen Systems, sollten die Messergebnisse des Knieabduktionsmoments zur Beurteilung von Rupturen des vorderen Kreuzbandes kritisch hinterfragt werden.
Seit 2011 beschäftigt sich die visionsbox GmbH mit der Erstellung von AR-Anwendungen. Momentan werden diese Apps auf Basis von Unity 3D und dem AR SDK Vuforia von Qualcomm erstellt. Der plattformunabhängige Ansatz von Unity 3D erlaubt es, sehr schnell Anwendungen für iOS als auch für Android zu kompilieren. Ein großer Nachteil des bestehenden Entwicklungskonzepts ist das Fehlen der Möglichkeit Inhalte zur Laufzeit aus dem Internet herunterzuladen. Eine Änderung oder Erweiterung der Anwendung ist nur über ein erneutes Kompilieren und erneutes Installieren der Applikation möglich. Dieser Updateprozess ist langwierig und wenig flexibel. Das Vorhandensein einer Anbindung ans Internet, ermöglicht jedoch prinzipiell das Herunterladen von neuen oder zusätzlichen Inhalten zur Laufzeit der Anwendung. Ziel dieser Master Thesis ist es, die Möglichkeiten des Nachladens von Anwendungsinhalten von einem eigenen Webserver zu evaluieren. Eine beispielhaft implementierte Anwendung soll die Machbarkeit für Android und iOS demonstrieren und gleichzeitig als Vorlage für bestehende und zukünftige AR-Anwendungen auf Basis von Unity3D und Vuforia dienen.
In dieser Arbeit werden Untersuchungen an einem neuartigen Sensorkonzept zur Erfassung von Winkelbeschleunigungen durchgeführt. Ziel dieser Arbeit war es, die Möglichkeit, eine Miniaturisierung des Prototyps zu untersuchen. Hierfür wurde eine analytische und experimentelle Untersuchung durchgeführt. Für die analytische Betrachtung erfolgte eine Fehlerfortpflanzung nach Gauß, welche die Fertigungstoleranzen, Dimensionsfehler des Accelerometers, Rauschen und Messabweichungen von Accelerometer und Gyroskop berücksichtigt. Die Ergebnisse zeigen, dass bei Verwendung der hochwertigen Inertial Measurment Units (IMUs) eine theoretische Verkleinerung bis auf 21mm eine höhere Genauigkeit bietet als die numerischen Differentiationen der Winkelgeschwindigkeit.
Für die Verifizierung unter realen Bedingungen wurden verschiedene Prüfkonzepte verglichen.
Dabei erwies sich ein Pendelprüfstand als vielversprechender Ansatz. Durch die Verwendung von Kugellagern kann ein breites Spektrum an Winkelbeschleunigungen abgebildet werden. Die kontinuierliche Erfassung reflektierender Marker auf der Pendelstange ermöglicht die Ermittlung der Winkel, die als Grundlage für ein Modell dienen, wodurch sich reale Winkelbeschleunigungen mit den Messdaten des Sensors vergleichen lassen. Dabei stellt die Modellierung der Verlustterme eine zukünftige Herausforderung dar.
Die Ergebnisse zeigen, dass eine Miniaturisierung des Sensorprototyps möglich ist und das der Pendelprüfstand eine Methode zur Verifizierung darstellt. Dies trägt dazu bei, die Anwendungsmöglichkeiten des Sensorkonzepts in der Praxis zu erweitern.
Die vorliegende Bachelorarbeit erstellt ein Konzept für eine Sozialmarketingkampagne zur Senkung des Fleischkonsums anhand einer Sekundärforschung. Damit verfolgt die Arbeit das Ziel, Handlungsempfehlungen für die Praxis abzuleiten.
Im Teil der Literaturarbeit werden relevante Einflussfaktoren auf den Fleischkonsum und mögliche Ansätze für eine Verhaltensänderung analysiert. Die Ergebnisse der Recherche deuten auf eine teilweise fehlerhafte Umsetzung von Kampagnen zur Reduktion des Fleischkonsums hin.
Die Kampagne der Fifty/Fifty Challenge setzt die Erkenntnisse beispielhaft um. Als Ansatzpunkt dient ein Segment, in dem die größte Offenheit gegenüber einem reduzierten Fleischkonsum besteht. Als Zielgruppe sind expeditiv und sozialökologisch eingestellte Studierende ausgewählt worden. Die Kampagne verfolgt das Ziel, eine Halbierung des Fleischkonsums bei der Zielgruppe zu erreichen. Die Kommunikationsmaßnahmen sind rund um eine Aktionswoche in den Mensen von 20 Studierenden- werken geplant. Die strategische Umsetzung wird exemplarisch anhand der Albert Schweitzer Stiftung aufgezeigt. Die Laufzeit der Kampagne beträgt ein Jahr und benötigt ein Budget von 220.000 €, um rund 780.000 Studierende zu erreichen.
Die Ergebnisse der Arbeit bieten eine Grundlage für die Umsetzung des Themas in der Kampagnenarbeit von Nichtregierungsorganisationen.
In dieser Bachelor Thesis geht es um das Internet Protokoll Version 6, insbesondere um die Stateless Address Autoconfiguration (SLAAC). Hierfür wurde ein Netzwerk aufgebaut und entsprechend konfiguriert. Zur Veranschaulichung wurde daraufhin ein Laborversuch über eine Webschnittstelle realisiert, der den Ablauf von SLAAC und die Adressauflösung durchläuft. Schritt für Schritt kann so die Adressvergabe und die einzelnen Vorgänge verfolgt und die jeweiligen Aufgaben bearbeitet werden.
Vergleich eines iOS-basierten zu einem markerbasierten System zur dreidimensionalen Bewegungsanalyse
(2023)
Die iOS-basierte Methode zur dreidimensionalen Bewegungsanalyse wird mithilfe von OpenCap durchgeführt. OpenCap ist eine Open-Source-Software, die laut Hersteller eine gute Alternative zu herkömmlichen Methoden der Bewegungsanalyse sein soll. Durch eine verständliche Menüführung, geringe Anschaffungskosten und ohne Notwendigkeit von Fachpersonal, soll hiermit eine großflächigere Anwendung von dreidimensionalen Bewegungsanalyse gegeben werden. (Uhlrich et al., 2022) Um diese Hypothese zu belegen wurde im Rahmen dieser Bachelorthesis eine kleine Studie mit 12 Probanden durchgeführt. Diese waren hauptsächlich Freiwillige der Hochschule Offenburg und sowohl männlich (7/12 Probanden) als auch weiblich (5/12 Probanden). Das Alter lag bei 25,76 ±5,08 Jahre, die Größe betrug 1,73 ±0,08 Meter und das Gewicht 69,38 ±7,12 Kilogramm. Die Probanden wurden zum Vergleich mit zwei verschiedenen Methoden zur dreidimensionalen Bewegungsanalyse (OpenCap und markerbasierter) und bei zwei verschiedenen Sprungformen, aufgenommen.
Anschließend wurden die Ergebnisse der Gelenkwinkel für Hüfte und Knie der rechten Körperhälfte der Probanden betrachtet. Dabei fiel auf, dass die gemessenen Werte von OpenCap, für Hüfte und Knie verschieden stark von den markerbasierten Werten abwichen. Die Differenz der Hüftflexionswinkel, zwischen den beiden Messmethoden, war um einiges größer als die ermittelte Differenz der Knieflexionswinkel. Diese lag beim Counter Movement Jump (CMJ) für die Hüfte bei 8,01° ±10,89° und für das Knie bei -0,9° ±3,22°. Beim Drop Jump (DJ) ergaben die Differenzen für die Hüfte 15,91° ±12,35° und für das Knie 3,03° ±2,59°. Außerdem wichen die Ergebnisse auch von der Studie der OpenCap Erfinder ab, die mit einem mittleren absoluten Fehler von 4,5°, die App anpriesen. (Uhlrich et al., 2022)
Der Vergleich zeigte somit das OpenCap eine gute Alternative zur Messung offensichtlicher Körpersegmente oder Bewegungen, wie beispielsweise dem Knie, sein kann. Für Messungen der Hüftpartie eignet es sich derzeitig, aufgrund seiner Ungenauigkeit, weniger.
Die vorliegende Abschlussarbeit wurde intern an der Hochschule Offenburg angefertigt. Gegenstand der Untersuchung ist der Einsatz von cloudbasierten Business-Intelligence-Systemen in der Lehre.
Die Arbeit befasst sich zu Beginn mit der Anbindung einer externen Datenquelle in SAP Data Warehouse Cloud (DWC). Diese basiert auf einer relationalen Datenbank. Hierfür wer- den drei unterschiedliche Lösungen untersucht und miteinander verglichen. Außerdem werden Lernszenarien für die Arbeit mit der SAP Analytics Cloud (SAC) entworfen. Die Lernszenarien beinhalten jeweils ein Vertriebsdashboard, welches zuvor konzipiert und in SAP Analytics Cloud (SAC) implementiert wird. Die Dashboards sollen durch das Absolvieren von Lernszenarien durch Studierende an der Hochschule Offenburg unter Einhaltung von Prinzipien guter Visualisierung nachgebaut werden. Beide Produkte von SAP sind momentan Teil von Laboren an der Hochschule Offenburg, um Prinzipien von Business Intelligence (BI) praktisch anzuwenden. Mit Hilfe von SAP Data Warehouse Cloud (DWC) wird ein Datenmodell entworfen. Dieses wird in SAP Analytics Cloud (SAC) verwendet, um die Daten zu visualisieren. Die Grundlage für die Arbeiten bilden die Daten der Global Bike Group. Hierbei handelt es sich um eine Referenzfirma von SAP, die es ermöglicht, anhand von geschäftlichen Testdaten einen Eindruck von den Funktionen der SAP-Produkte zu erlan- gen.
Die Arbeit orientiert sich an zwei Forschungsfragen. Die erste Forschungsfrage behandelt die Anbindung einer Datenquelle in SAP Data Warehouse Cloud (DWC). Die zweite Forschungsfrage betrifft den Entwurf von Lernszenarien mit unterschiedlichem Umfang und unterschiedlicher Zielgruppe in SAP Analytics Cloud (SAC). Beide Fragen konnten erfolg- reich beantwortet werden. Die Ziele der Arbeit wurden erreicht
Zu Beginn dieser Arbeit wurde das Problem beschrieben, dass das Ersetzen von einzelnen Modulen innerhalb TYPO3s durch React bisher nicht möglich war. Dadurch ergab sich die Aufgabe eine Lösung zu finden, mit der die Vorteile von React in TYPO3 eingebracht werden können, möglichst ohne große Veränderungen und Aufwände zu betreiben. Als zusätzliche Anforderung wurde definiert, dass React in TypeScript geschrieben werden soll.
Um dem Leser dieser Arbeit die Möglichkeit zu geben, den angefertigten Code verstehen und interpretieren zu können, wurden zunächst Grundlagen in TypeScript, React und TYPO3 geschaffen. Daraufhin wurde der Ist-Stand beschrieben, welcher ein simples TYPO3-Plugin beschreibt. Dies wurde für die grundsätzliche Umwandlung in React möglichst simpel gehalten, war dennoch mit einigen Grundsätzen wie AJAX und Rerendering ausgestattet, um gewisse Vorteile und Problematiken bei der Umsetzung aufzeigen zu können. Daraus ergab sich ein Soll-Stand, welcher zugleich weitere Anforderungen an die spätere Lösung definierte.
Um ein mögliches Lösungskonzept erarbeiten zu können wurden im Kapitel „Stand der Technik“ 2 verwandte Arbeiten und Möglichkeiten vorgestellt. Daraufhin wurden die beiden zu entwickelnden Plugins beschrieben, zunächst das Dummy-TYPO3-Plugin, gefolgt vom in React entwickelten Äquivalent.
In Kapitel 8 wurde ein Konzept erstellt und daraufhin die Umsetzung Schritt für Schritt durchgeführt. Dabei konnte erfolgreich React in TYPO3 aufgesetzt und zur Entwicklung genutzt werden. Das Dummy-Plugin konnte ohne größere Probleme umgesetzt werden und zeigte somit eine mögliche Lösung für die Umwandlung von TYPO3 zu React auf. Um diese Lösung zu validieren, wurde im Folgekapitel das ProofOfConcept entwickelt. Dabei handelte es sich um ein produktiv eingesetztes Projekt, welches auf einer älteren Version basiert und verschiedene Anforderungen mitbrachte. Dies wurde nach Vorstellung des Projektes und Lösungskonzept Schritt für Schritt umgesetzt.
In dieser Arbeit wird die Entwicklung einer Methode zur Messung von Bodenreaktionskräften bei menschlicher Lokomotion auf variablen Untergründen behandelt. Das Ziel dieser Arbeit ist es, unter realistischen Bedingungen eine Ganganalyse in einem Biomechaniklabor durchführen zu können.
Bisher ist es nicht möglich in einem Biomechaniklabor verschiedene Untergründe nach einer bestimmten Methode auszutauschen, womit Szenarien im Alltag besser simuliert werden können.
Um dieses Ziel zu erreichen wurde ein geeignetes Konzept für die Fertigung der benötigten Bodenplatten und Bodenbeläge erstellt. Darauffolgend wurden die Komponenten angefertigt oder schon vorhandene modelliert. Die Anwendung der entwickelten Methode wurde unter realen Bedingungen einer Ganganalyse erfolgreich untersucht. Hierbei konnten exemplarisch die durchschnittlichen Bodenreaktionskräfte in z-Richtung für die Untergründe Kunstrasen, Kunststoffbahn (Tartanboden) und Steinboden untersucht werden. Das größte Optimierungspotential bei diesem Funktionstest zeigte sich bei der Anpassung der geeigneten An- und Ablaufstrecken mit den jeweiligen Untergründen.
Mit dieser entwickelten Methode können in einem Biomechaniklabor besser die Bedingungen die alltäglich benötigten Ganganpassungen an verschiedene Untergründe simuliert werden. In Kombination mit weiteren Messmethoden, wie die Messung der Muskelaktivität (EMG) und der Gangkinematik, kann so ein tieferes Verständnis des menschlichen Gangbildes gewonnen werden.
Durch den demografischen Wandel und dem daraus resultierenden Fachkräftemangel brauchen Unternehmen eine Strategie, um in Zukunft genügend Fachkräfte zu gewinnen und die aktuellen Mitarbeitenden halten zu können. Dabei können mit dem Employer Branding Maßnahmen zur Stärkung der Arbeitgebermarke erarbeitet werden.
Ziel dieser Arbeit ist eine vergleichende Analyse von Selbst- und Fremdbild zwei großer Arbeitgebermarken. Dabei sollen zwei Unternehmen aus der Region Offenburg/Ortenau in Hinblick auf ihr Employer Branding und ihre Kommunikation auf der unternehmenseigenen Karriere-Webseite untersucht werden. Dafür wurden die beiden Arbeitgebermarken „Hubert Burda Media“ und „Hansgrohe Group“ ausgewählt. Durch den Einsatz von qualitativen Experteninterviews wird das Selbstbild der Unternehmen ermittelt. Für die externe Beurteilung wurde die Zielgruppe „Studierende der Generation Z“ ausgewählt. Diese können mithilfe eines Fragebogens das Fremdbild beider Unternehmen beschreiben und die Karriere-Webseiten beurteilen.
Das Ergebnis der Forschung war unter anderem die Beschreibung des Arbeitgeber-images. Durch die Annäherung von Fremd- und Selbstbild nach Ansicht der Karriere-Webseite konnte die Kommunikation bewertet werden. Dabei konnten Optimierungs-ansätze für beide Unternehmen identifiziert werden. Die erarbeiteten Erkenntnisse wurden zusammengefasst und es wurden jeweils Handlungsempfehlungen für die Kommunikation und das Employer Branding formuliert.
Durch die Auswertungen der qualitativen Forschungen konnte die Wichtigkeit der Karriere-Webseite für die junge Generation bestätigt werden. Dabei fiel bei beiden Unternehmen auf, dass die Authentizität und die Kommunikation der eigenen Arbeitgebermarke in einigen Punkten optimiert werden sollten.
Extensible Authentication Protocol (EAP) bietet eine flexible Möglichkeit zur Authentifizierung von Endgeräten und kann in Kombination mit TLS für eine zertifikatsbasierte Authentifizierung verwendet werden. Motiviert wird diese Arbeit von einer potenziellen Erweiterung für PROFINET, die diese Protokolle einsetzen soll.
Dabei soll eine sicherer EAP-TLS-Protokollstacks für eingebettete Systeme in der Programmiersprache Rust entwickelt werden. Durch das Ownership-System von Rust können Speicherfehler eliminiert werden, ohne dabei auf die positiven Eigenschaften von nativen Sprachen zu verzichten. Es wird ein besonderes Augenmerk auf wie die Verwendung klassischer Rust-Bibliotheken im Umfeld von eingebetteten Systemen, den Einfluss des Speichermodells auf das Design, sowie die Integration von C-Bibliotheken für automatisierte Interoperabilitätstests gelegt.
Hintergrund der Studie ist die Annahme, dass das Tragen von Barfußschuhen einen positiven Effekt auf die Gleichgewichtsfähigkeit eines Menschen hat und somit präventiv das Sturzrisiko vermindern kann. Ziel der Studie ist daher, einen Zusammenhang zwischen der Zehenfreiheit und der Gangsicherheit festzustellen. Zu diesem Zweck werden anhand einer Ganganalyse mit dem GRAIL-System, der Firma Motek Medical, das Laufverhalten von 23 Probanden in drei verschiedenen Schuhkonditionen (schmale Barfußschuhe, breite Barfußschuhe und getapte Zehen in Barfußschuhen) untersucht. Pro Perturbationsdurchgang werden jeweils fünf Gangzyklen vor und nach der Perturbation aufgenommen. Betrachtet werden die Kokontraktionswerte ausgewählter antagonistischer Muskelpaare des Ober- und Unterschenkels. Diese werden während der fünf Gangzyklen vor den einzelnen Perturbationen mittels EMG (Elektromyographie )-Sensoren gemessen. Die Ergebnisse zeigen, dass das einmalige Tragen von Barfußschuhen und somit die kurzfristige Veränderung der Zehenfreiheit keinen signifikanten Einfluss auf die Kokontraktionswerte und somit auf die Gleichgewichtsfähigkeit hat. Lediglich beim langfristigen Tragen von Barfußschuhen wiesen die Ergebnisse leichte Tendenzen in Richtung einer Erhöhung der Gleichgewichtsfähigkeit auf. Daraus lässt sich ein Trainingseffekt der Barfußschuhe auf den menschlichen Körper ableiten, der langfristig zu einer Verbesserung der Gangsicherheit führt. Da diese Ergebnisse jedoch nicht signifikant sind, muss diese Annahme erst durch weitere Studien geprüft werden. Einen tatsächlich signifikanten Einfluss hatte hingegen der Lerneffekt, der sich während des Versuchsablaufs bei den Testpersonen einstellte, auf die Kokontraktionswerte. Hierbei zeichnet sich eine annähernd exponentiell fallende Kurve im Verlauf der Messungen ab. Interessant ist dabei, dass dies auch für die Baseline zutraf, also auf die Referenzmessung ohne Perturbationen. Dies deutet darauf hin, dass die Probanden nicht primär wegen der Perturbationen in einer angespannten bzw. vorbereiteten Haltung waren, sondern aufgrund des ihnen unbekannten Untergrunds, dem perturbationsfähigen Laufband. Bei zukünftigen Studien sollte daher für aussagekräftige Ergebnisse eine stärkere Eliminierung des Lerneffekts geachtet werden.
Es werden die aktuellen Studien über Fußformen auf signifikante Unterschiede zwischen Männer und Frauen, Einflussfaktoren wie das Alter, die Körpergröße, das Gewicht und den BMI untersucht. Weiter werden die Unterschiede zwischen verschiedenen Ethnien, Belastungen und dem Aufwachsen mit oder ohne Schuhe analysiert. Die Studien werden über PubMed und ConnectedPapers gesucht und die Daten mit Excel ausgewertet und graphisch dargestellt. Folgendes hat sich ergeben: das Alter hat im Wachstum des Fußes einen Einfluss auf die Fußlänge und die Fußbreite. Außerhalb des Wachstums hat das Alter Einfluss auf die fibulare Bogenlänge und die Bogenhöhe. Die Körpergröße hat Einfluss auf die Fußlänge, die fibulare Bogenhöhe, die distale Knöchelhöhe und den Ballenumfang. Das Gewicht hat im Fußwachstum einen Einfluss auf die Fußlänge. Außerhalb des Wachstums hat das Gewicht einen Einfluss auf die fibulare Bogenhöhe, die Höhe des distalen Knöchels, die Zehenhöhe und den Ballenumfang. Der BMI hat einen Einfluss auf die fibulare Bogenlänge, die mediale und distale Knöchelhöhe und die Zehenhöhe. Für die Fersenbreite und die Risthöhe wurden keine Einflussfaktoren gefunden.
Der True-Crime-Podcast erfreut sich in Deutschland einer großen Hörerschaft, die ganz unterschiedliche Nutzungsmotivationen mitbringt. Die Faszination für wahre Kriminalfälle kommt nicht von ungefähr – das Phänomen, welches dieser zugrunde liegt, ist die Morbid Curiosity. Da bislang noch nicht allzu viel Forschung in diesem Gebiet betrieben wurde, gibt diese Arbeit durch einen Vergleich verschiedener Untersuchungen Aufschluss darüber, wo diese Neugier für morbide Ereignisse herkommt. Gleichzeitig soll ein Überblick über das Genre True Crime und das Medium Podcast gegeben werden. Das Ziel ist es, eine Verbindung zwischen dem Phänomen Morbid Curiosity und dem Format True-Crime-Podcast herzustellen. Die Forschungsfrage lautet: Welche Rolle spielt Morbid Curiosity bei der Nutzungsmotivation der Konsumenten von True-Crime-Podcasts? Die Ergebnisse zeigen, dass Frauen andere Nutzungsmotivationen mitbringen als Männer und gleichzeitig die primären Konsumentinnen sind. Die Neugier für morbide Ereignisse spielt dabei durchaus eine Rolle, wenn auch scheinbar eine untergeordnete. Es werden Ansätze für weitere Forschung gegeben.
In einer Welt, in der Heterogenität bezüglich Produkte und Dienstleistungen vorherrscht, ist es allerhöchste Zeit sich mit dem Thema der Reputation zu beschäftigen. Denn bei zunehmender Vergleichbarkeit von Produkten, ist es in erster Linie, das unternehmerische Bild welches verspricht, weiterhin erfolgreich wirtschaften zu können. Der Ruf einer Organisation kann durch seine Einmaligkeit, die Austauschbarkeit von Waren und Dienstleistungen aufheben und schafft Präferenzen. Wird man heute also gefragt; „Was hat sie zu diesem Kauf verleitet?“ Sind die häufigsten Antworten „ Ich kenne das Produkt und vertraue dem Unternehmen.“ Umstritten bleibt beim Reputation Management oftmals, inwieweit das Ansehen der Unternehmensführung das wahrgenommene Unternehmensbild prägt. Klar ist, dass leitende Personen immer öfters als reputationstreibende Kraft angesehen werden, in dessen Verantwortung das wahrgenommene Bild des Unternehmens liegt. Dennoch ist diese Erkenntnis nicht flächendeckend in den Firmen angekommen. Im hektischen Alltag bleibt selten Zeit sich damit zu beschäftigen, wie Bezugsgruppen das Verhalten der Führungskräfte wahrnehmen. Doch genau diese Interessensgruppen sind es später, die sich für oder gegen den Chefs und damit oftmals auch für oder gegen das Unternehmen aussprechen.
In den letzten Jahren haben Recommender Systeme zunehmend an Bedeutung gewonnen. Diese Systeme sind meist für Bereiche des E-Commerce konzipiert und berücksichtigen oftmals nicht den aktuellen Kontext der nutzenden Person. Recommender Systeme können allerdings nicht nur im E-Commerce zum Einsatz kommen, sondern finden ihren Anwendungszweck auch im Gesundheitswesen. Ziel dieser Bachelorarbeit ist es, ein Recommender System zu entwickeln, das den aktuellen Kontext der nutzenden Person (Chatverlauf, demografische Daten) besser berücksichtigen kann. Dazu befasst sich diese Arbeit mit der Konzeption und prototypischen Umsetzung eines kontextsensitiven Recommender Systems für einen bereits existierenden Chatbot aus dem Gesundheitswesen. Das in dieser Arbeit konzipierte und entwickelte Recommender System soll Mitarbeitende aus dem Gesundheits- und Sozialwesen entlasten und ihnen hilfreiche sowie thematisch sinnvolle Informationen zur Verfügung stellen. Basierend auf festgelegten Anforderungen wurde ein Konzept für das Recommender System entwickelt und zu Teilen als Prototyp umgesetzt. Abschließend wurde der Prototyp im Hinblick auf die Anforderungen evaluiert. Zudem fand eine technische Evaluation und eine Evaluation mithilfe von Anwendenden statt, welche den implementierten Prototypen bereits existierenden Systemen gegenüberstellte. Die von dem Prototyp empfohlenen Textausschnitte erzielten in der Evaluation mit nutzenden Personen eine thematisch signifikant höhere Übereinstimmung mit den Chatdaten.
Evaluation des In-Memory Datenbanksystems SAP HANA als Cloudlösung für Business Intelligence Systeme
(2013)
Global agierende Unternehmen sind mit einem stetig ansteigenden Datenaufkommen konfrontiert. Zur Analyse werden diese Daten in Business Intelligence Systeme geladen. Aufbereitete Daten werden heutzutage in der Regel in zeilenbasierten (relationalen) Datenbanksystemen vorgehalten. Ein großer Nachteil dieses Datenbanksystems für diesen Anwendungsfall ist, dass es auf eine hohe Anzahl einfacher Transaktionen mit wenigen Datensätzen ausgelegt ist. Im Kontext eines analysebasierten Modells, wie hier beim Business Intelligence, fallen dagegen hauptsächlich komplexe Abfragen auf einer Vielzahl von Datensätze an [BaGü2009]. Die SAP AG stellt mit dem Produkt SAP HANA eine Lösung zur Verfügung, welche auf die Datenanalyse für Business Intelligence ausgelegt ist und zugleich auch transaktionalen Anforderungen genügen soll. Das System ist als Appliance aus Soft- und Hardware konzipiert, das auf einem spaltenorientierten, In-Memory Datenbanksystem aufbaut. Diese Arbeit geht zunächst auf die Grundlagen des Business Intelligence, die allgemeinen Prinzipien von spaltenorientieren In-Memory Datenbankensystemen sowie deren Abgrenzung zu klassischen relationalen Systemen ein. Weiterhin wird auf die Architektur von SAP HANA und deren Besonderheiten eingegangen. Hauptgegenstand dieser Arbeit ist die Umsetzung einer Demoanwendung basierend auf SAP HANA in einer Cloud Umgebung (SAP HANA ONE). Hierbei wird insbesondere auf die Realisierbarkeit der Anwendung mittels der Entwicklungsumgebung SAP HANA Studio in einer Cloudumgebung eingegangen. Weiterhin steht zur Diskussion inwiefern SAP HANA in bestehende Business Intelligence Umgebungen integriert werden kann.
In dieser Forschungsarbeit wird die Datensicherheit von Microsoft Azure analysiert und bewertet. Die Bewertung findet dabei aus der Sicht von Unternehmen statt. Im ersten Abschnitt wird zunächst der grundlegende Aufbau und die unterschiedlichen Formen des Cloud Computing beschrieben. Im zweiten Teil wird ein Vergleich der drei größten Cloud Anbieter vollzogen. Der letzte Teil besteht aus der Evaluation der Datensicherheit von Azure, wobei auf Aspekte wie Datenschutz, Bedrohungen und Schutzmaßnahmen eingegangen wird. Abschließend wird eine Empfehlung für das Unternehmen Bechtle GmbH Offenburg IT-Systemhaus abgegeben.
Im Verlauf der Arbeit stellt sich heraus, dass Azure eine ausreichende Datensicherheit bieten kann. Allerdings wird deutlich, dass durch die Kombination von mehreren Nebenfaktoren wie das Patch-Verhalten oder die Antwortzeit auf Sicherheitsschwachstellen seitens Microsofts, eine große Gefahr für die Daten von Unternehmen entstehen kann. Demnach ist Microsoft als Anbieter ein größeres Problem für die Sicherheit von Daten in Azure als der Cloud-Dienst selbst.
Evaluierung neuer HTML5- und JavaScript-Technologien bei der Nutzung in heterogenen Umgebungen
(2012)
Die 1&1 Internet AG in Karlsruhe betreibt einen Onlinespeicher, der von Kunden der diversen Tochter- und Schwestergesellschaften hauptsächlich über ein Browserfrontend bedient wird. Dieses kommuniziert mittels einer definierten JSON-Schnittstelle mit der auf Java basierenden Middleware. Da der Client schon vor einigen Jahren entwickelt wurde, nutzt er noch nicht alle Möglichkeiten die HTML5 in aktuellen Browsern bietet. Die Beschreibung und Bewertung dieser Möglichkeiten stellt die Kernaufgabe der Thesis dar. Einer der Schwerpunkt soll dabei auf der Offlinefähigkeit und intelligenten Benutzung von Caching- & Sync-Strategien zwischen Onlineanwendung und Offlineclient bestehen. Desweiteren sollen die Möglichkeiten von aktuellen Browsern ohne Beachtung der Rückwärtskompatibilität zu älteren Browsern genutzt werden. Zu Demonstrationszwecken sollen Beispielanwendungen den Einsatz der neuen Technologien erstellt werden, damit deren praktische Nutzung leichter zu erfassen ist. Das Hauptaugenmerk bei den Beispielanwendungen liegt indes nicht auf der Funktionalität, sondern auf dem Einsatz der jeweiligen Technologie, so dass deren Möglichkeiten getestet werden können. Ebenfalls Teil der Arbeit soll die Erarbeitung von theoretischen Aspekten sowie die Erstellung einer Übersicht über den aktuellen Stand der Fachliteratur darstellen. Dies soll bei weiterer Nutzung der Ergebnisse die Erarbeitung von erweitertem Fachwissen erleichtern. Basis sollen hier die aktuell Erschienenen Fachbücher auf deutsch und englisch sowie - naturgemäß nochmals aktueller - die regelmäßigen Veröffentlichungen im Internet und in Fachzeitschriften bilden. Die zu besprechenden Themen umfassen die grundsätzliche Beschreibung von HTML5 und dem Standardisierungsprozess, die neuen HTML-Element in Bezug auf Formulare, Multimedia-Darstellung, die Möglichkeiten der Offline-Anwendung (Application Cache, Cache Manifest, DOM Storage), die Drag & Drop API zur Nutzung beim Dateiupload sowie die File API. Mögliche Themen für den theoretischen Teil sind gängige Architekturmuster (beispielsweise MVC, MVP, MVVM, PAC), Caching- und Sync-Strategien sowie die Potentiale aktueller Skriptsprachen (ECMAScript 5, Coffeescript, DART).
Das Unternehmen Coca-Cola mit ihrem Slogan „Mach dir Freude auf“ oder der Automobilkonzern Audi mit ihrem Leitspruch „Vorsprung durch Technik“ sind Marken mit weltweitem Bekanntheitsgrad. Der Begriff Marke wird durch diese und noch weitere bekannte Unternehmungen in erster Linie mit dem Konkurrenzmarkt von Konsumgütern verknüpft und weniger mit Einrichtungen aus dem Bildungsbereich, wie beispielsweise einer Hochschule. Die beiden Begrifflichkeiten Marke und Hochschule wachsen jedoch nach der Strukturreform der Hochschulen mehr und mehr zusammen. Die Hochschulen befinden sich in einer Reform, die Veränderungen in ihrer Organisation und in ihrem Gesamtauftritt, mit sich bringt. Anlässlich des 50. Jubiläums der Hochschule Offenburg im Mai 2014, soll im Rahmen dieser Arbeit ein Blick auf die Außenwirkung und das Erscheinungsbild der Hochschule geworfen werden. Dabei wird die Hochschule als Marke sowie eine Logoentwicklung im Fokus stehen.
Das Messstellenbetriebsgesetz sieht bis 2032 einen Pflichteinbau von modernen Messeinrichtungen bzw. intelligenten Messsystemen bei allen Verbrauchern und Erzeugern vor. Des Weiteren ist die Anbindung von regenerativen Erzeugungsanlagen und steuerbaren Verbrauchern sowie die netzdienliche Steuerung dieser Einrichtungen über das Smart Meter Gateway durch das Messstellenbetriebsgesetz vorgeschrieben. Diese netzdienliche Steuerung wird unter dem Begriff CLS-Management zusammengefasst und muss von allen Netzbetreibern und Messstellenbetreibern künftig umgesetzt werden. Im Rahmen der Bachelorarbeit wurde ein Testaufbau mit einem intelligenten Messsystem inklusive entsprechender Steuereinrichtung aufgebaut, um das CLS-Management an einfachen Schalthandlungen zu erproben. Die daraus gewonnenen Erfahrungen sollen dem Messstellenbetreiber dabei helfen, das Thema in der Wirkumgebung platzieren zu können. Ziel dieses Aufbaus ist es, über die Kommunikationsart LTE eine Schalthandlung an einer Steuerbox in der Rolle des externen Marktteilnehmers vornehmen zu können. Für die Umsetzung wird eine entsprechende Software des Gateway Herstellers zur Verfügung gestellt, um die Versuche außerhalb des zertifizierten Bereiches durch-führen zu können.
Als konkreten Anwendungsfall wird im Rahmen der Thesis die Ablösung der Funkrundsteuertechnik durch das CLS-Management betrachtet. Mit dem Rollout der intelligenten Messsystemen müssen künftig die steuerbaren Verbrauchseinrichtungen und regenerativen Erzeugungsanlagen über das Smart Meter Gateway gesteuert werden können. Dies hat gegenüber der Funkrundsteuertechnik den entscheidenden Vorteil, dass die Informationen über eine gesicherte TLS-Verbindungen übertragen werden und durch einen Rückkanal auch Informationen über das korrekte Ausführung der Schalthandlung beim externen Marktteilnehmer ankommen.
Als weiteren Anwendungsfall wird untersucht, wie über ein Smart Meter Gateway außer Steuersignale auch Energiedaten und Sollwerte von externen Marktteilnehmer an Smart Grid Infrastrukturen übertragen werden können, um diese optimal betreiben zu können. Als Grundlage dient hierfür das Micro Grid am INES der Hochschule Offenburg
Durch die Digitalisierung erschlossen sich in den letzten 15 Jahren nicht nur viele Möglichkeiten neues Bildmaterial oder Videomaterial aufzunehmen und zu verwahren, sondern auch die Zugänglichkeit der breiten Masse zu solcher Technologie. Abseits der Datenmengen wie sie Social Media Plattformen tagtäglich verarbeiten, existieren die Sende- und Rundfunkanstalten mit gigantischen Archiven von Videomaterial. Der Großteil davon ist von dokumentarischer oder szenischer Natur sowie verschiedenste Interviews aus allen Bereichen des öffentlichen Lebens.
Nach dem aktuellen Stand wird das Videomaterial von Hand kategorisiert und zur Indizierung verschlagwortet. Die Aufgabe war es nun, diesen Prozess zumindest teilweise zu automatisieren. Dazu sollten auf dem Markt verfügbare Technologien in Bereich der Gesichtserkennung und Texterkennung auf ihre Nutzbarkeit zu diesem Zweck hin evaluiert werden. Dabei soll mit Hilfe der in Interviews verwendeten Bauchbinden das momentan gezeigte Gesicht "gelernt" werden, um es später ohne solche Hilfe wiederzuerkennen.
Die freie Achillessehne wird bis heute meist als homogene Struktur betrachtet. Jedoch gibt es viele anatomische Studien, die einen verdrehten Aufbau der Achillessehne aufzeigen. Des Weiteren gibt es Studien der Achillessehne in vivo (hier nur in der Sagittalebene), als auch in vitro, bei denen heterogene Verschiebungen nachgewiesen wurden. So stellt sich die Frage, ob die Achillessehne wirklich als homogene Struktur betrachtet werden kann oder ob der besondere Aufbau einen maßgeblichen Einfluss auf die Physiologie hat. In dieser Studie sollen nun mit Hilfe von Ultraschalluntersuchungen Bewegungen in der Transversalebene der Achillessehne aufgenommen werden. Eine solche Studie gab es bisher noch nicht und könnte deswegen weitere wichtige Informationen über die Achillessehne liefern. Durch lokale, isolierte Stimulationen des musculus gastrocnemius medialis (GM) und musculus gastrocnemius lateralis (GL), soll gezeigt werden, ob es zu heterogenen Bewegungsmustern in der Achillessehne kommt. Analysiert werden die Ultraschallaufnahmen mittels einem 2D Speckle Tracking Verfahren, das auch in anderen Studien in der Sagittalebene verwendet wurde, seinen Ursprung jedoch in der Kardiologie findet. In dieser Pilotstudie wurden fünf Proband:innen (29,2 ± 8,5 Jahre) untersucht. Als Ergebnis wurden bei fast allen Proband:innen lokal unterschiedliche Bewegungsmuster in der Achillessehne bei isolierter Stimulation des GM und GL erfasst. In den drei Stimulationen, die pro Muskel durchgeführt wurden, waren die Ergebnisse innerhalb eines Probanden jeweils sehr ähnlich. Um die Funktionsweise und deren Einfluss nun noch genauer zu analysieren, gilt es in der Zukunft weitere Parameter in das Grundkonzept dieser Studie hinzuzufügen und mehr Proband:innen zu testen.
Der Bankensektor vollzieht eine digitale Transformation. Welche exakten Auswir-kungen diese Transformation auf den Bankensektor und die einzelnen Banken haben wird ist noch nicht abzusehen. Doch schon jetzt zeichnet sich ab, dass Banken sich von ihren starren Öffnungszeiten lösen und flexibler auf die Kunden zugehen müssen. Servicequalität durch maßgeschneiderte Angebote und permanente Verfügbarkeit sind zu kritischen Erfolgsfaktoren im Rennen um die Gunst des Kunden geworden.
Um in diesem Wettstreit einen Wettbewerbsvorteil zu erhalten muss die Verfügbarkeit kritischer Geschäftsprozesse und Ressourcen stets gewährleistet sein. An dieser Stelle setzt Business Continuity Management (BCM) an. In der vorliegen-den Arbeit wird anhand eines Modells einer bereits vollständig digitalisierten Bank, ein Geschäftsprozess ausgewählt um anhand dessen die Auswirkungen des Ausfalls von digitalen Vertriebswegen und Abhängigkeit von IT-Ressourcen aufzuzeigen.
Diese Bachelor-Thesis beschreibt die Entwicklung eines Informationssystems, das abteilungsintern für verschiedene Report- und Controllingaufgaben in der Abteilung Organisation/IT genutzt wird. Grundlage bilden Daten über Hard- und Software aller Client-Computer, die von der in der PWO AG eingesetzten Anwendung zur Installation / Softwareverteilung (Microsoft SCCM) wöchentlich gesammelt werden. Zunächst wird die Funktionalität der Inventarisierung auf Korrektheit überprüft und die daraus entstehenden Daten analysiert. Benötigte Daten werden gefiltert, sortiert und teilweise mit bestehenden Datenbanken verknüpft. Daraus entsteht ein Webportal, welches es den zuständigen Mitarbeitern/innen ermöglicht, ohne manuellen Aufwand Clients, Software und Lizenzen zu verwalten und entsprechende Berichte zu erstellen. Zudem wird die bestehende CMDB durch bisher fehlende Daten ergänzt. Ziel ist es, die Aufgaben der IT-Abteilung an die ITIL Vorgaben innerhalb der PWO AG auszurichten, um so effektives und effizientes IT Service Management betreiben zu können. Gleichzeitig wird somit ein Standard für die Tochterwerke entwickelt.
Implementierung von Softcore-Prozessoren und/oder weiteren IPs (Intellectual Properties) in FPGAs
(2017)
In heutigen Low-Power-Anwendungen ist es mittlerweile Standard sogenannte System-on-a-Chip (SoC)-Systeme zu entwickeln. Diese benötigen eine Recheneinheit, sowie nur die notwendigste Hardware, um die Energieversorgung auch über Energy-Harvesting zu ermöglichen.
Im Rahmen dieser Abschlussarbeit wurde der aktuelle Stand von verfügbaren Hardcore- und Softcore-Prozessoren evaluiert. Aufgrund der hohen Anforderung an den Prozessor in Low-Power-Systemen, wurden Hardcore-Prozessoren für die weitere Untersuchung ausgeschlossen. Obwohl diese sehr leistungstarke und energieeffiziente Prozessoren sind, weisen Hardcore-Prozessoren nicht die notwendige Flexibilität in einer minimalen Konfiguration auf, um die Ansprüche einer Low-Power-Anwendung zu erfüllen.
Aus diesem Grund wurden von verschiedenen Quellen Softcore-Prozessoren untereinander mit zusätzlich, ausgewählten Kriterien untersucht. Die Wahl fiel auf den NEO430, welcher auf der Architektur des Mikrocontrollers MSP430 von Texas Instrument basiert.
Mit dem NEO430 als Softcore, wurde ein Demonstrator-System entwickelt und auf dem Development-Board DE2-115 von Terasic implementiert. Im Zuge der Entwicklung des Demonstrators wurden weiterhin frei verfügbare IP-Cores zur Anbindung an den NEO430 untersucht. Der Demonstrator umfasste eine selbst entwickelte CRC-Berechnung, um damit die Programmierbarkeit, die Funktionen des NEO430 zu testen und dessen Ressourcenverbrauch, sowie Erweiterbarkeit über der Wishbone-Schnittstelle zu evaluieren.
Die Evaluierung des Demonstrator-Systems ergab einen Ressourcenverbrauch von 1253 Logikelemente des Development-Boards. Neben dem Demonstrator wurden weitere Konfigurationen, wie eine Minimale-, die Standard-Konfiguration und insbesondere eine Konfiguration ohne der Wishbone-Schnittstelle evaluiert.
Durch die starke Verbreitung der MSP430-Serie in der Industrie, ist der NEO430 ein interessanter Kandidat für Low-Power-Systeme
Livestreaming-Setups für Kulturinstitutionen - Best Practice: Zentrum für Kunst und Medien Karlsruhe
(2021)
Spätestens seit der Corona-Pandemie ist Livestreaming ein polarisierendes Thema in der Kulturbranche. Die Technologie bietet Zugang zu kulturellen Angeboten trotz Lockdown & Social Distancing. Dabei ist die Produktion hochwertiger Livestreams kein einfaches Unterfangen: Verschiedene Voraussetzungen, Anforderungen an die Qualität und der eigentliche Inhalt des Streams beeinflussen den technische Umsetzung einer Live-Produktion. Das Ziel der vorliegenden Arbeit ist es, herauszufinden, mit welchen Livestreaming-Setups sich verschiedene Formate produzieren lassen.
Dafür wird zunächst das Phänomen Livestreaming und dessen technischer Hintergrund erläutert. Da diese Arbeit am Zentrum für Kunst und Medien Karlsruhe (ZKM) entstanden ist, konnten Erkenntnisse direkt aus der Praxis gesammelt werden, um die Forschungsfrage zu beantworten. Basierend darauf, wie das ZKM Livestreams produziert, wurden fünf Livestreaming-Setups herausgearbeitet. Diese eignen sich für verschiedene Formate, unter Berücksichtigung variierender Voraussetzungen. Zum Schluss der Arbeit wird ein Blick in die Zukunft von Livestreaming für Kulturinstitutionen geworfen.
Diese Arbeit befasst sich mit der Entwicklung von Full-Stack-Anwendungen im Bereich des Internets der Dinge mit JavaScript. Grundlegende Wissensbereiche, die für diese Entwicklung notwendig sind, werden vorgestellt und erklärt. Es werden ausgewählte JavaScript-Frameworks und -Interpreter im Bereich des Internets der Dinge vorgestellt, bewertet und miteinander verglichen. Mikrocontroller und Einplatinencomputer, welche von den vorgestellten JavaScript-Frameworks und -Interpretern unterstützt werden, werden vorgestellt.
Um die Entwicklung von Full-Stack-Anwendungen im Bereich des Internets der Dinge mit JavaScript bewerten zu können wird eine Anwendung zur Erfassung, Speicherung und Darstellung von Umgebungsvariablen mit Moddable SDK und dem MERN-Stack entwickelt. Vor der Entwicklung werden Anforderungen über eine Anforderungsanalyse definiert und die Anwendung konzipiert. Im Anschluss wird die Anwendung anhand der Anforderungen bewertet. Probleme, die während der Entwicklung der Anwendung auftreten, werden zusammen mit möglichen Lösungen vorgestellt und Full-Stack-Anwendungen im Bereich des Internets der Dinge mit JavaScript werden in diesem Schritt evaluiert.
JavaScript ist für die Entwicklung von Mikrocontrollern zum aktuellen Stand noch nicht ausgereift genug, jedoch bestehen aktuelle Anstrengungen die Entwicklung von JavaScript APIs für Embedded Systems zu vereinheitlichen und voranzutreiben. Dadurch hat die Entwicklung von Full-Stack-Anwendungen im Bereich des Internets der Dinge mit JavaScript Zukunftspotenzial.
This paper gives an overview of the impact that the corona pandemic has on the export industry in Canada and analyzes the different Canadian government measures for exporters. In addition, the measures are subsequently evaluated in order to identify if the support measures can help Canadian exporters to overcome the crisis. The basis of this paper are semi-structured expert interviews with experts from the financial sector, scientific literature and studies. The results have shown that the COVID-19 pandemic has a major impact on Canada’s export economy and it’s GDP. Trade is only possible to a limited extent, as many borders are closed. The Canadian government reacted with an economic response plan to support Canadian individuals and businesses. This paper depicts and assesses the most eligible measures for export companies.
In Zeiten austauschbarer Produkte, zunehmender Konkurrenz und einer immer kritischer werdenden Gesellschaft ist es für Unternehmen essentiell, sich in den überfüllten Märkten durch Einzigartigkeit zu behaupten und sich von Mitbewerbern und deren Marktpräsenz abzuheben. Das Image eines Unternehmens wurde in diesem Zusammenhang in den letzten Jahren zu einem immer größeren Erfolgsfaktor, Orientierungspunkt und dessen Management zu einem wichtigen Bestandteil des strategischen Marketings. In der vorliegenden Arbeit wird vor diesem Hintergrund untersucht, inwieweit das Medium Film und insbesondere das Genre Imagefilm sich für die Imagebildung von Unternehmen eignen.
Laut einer Studie der AZT Automotive GmbH sind etwa 75% aller Verkehrsteilnehmer im deutschsprachigen Raum durch fahrzeugseitige Technik abgelenkt. Dies stellt eine der größten Unfallgefahren dar: Bei ca. 11% der Verkehrsunfälle 2002-2012 in Deutschland ist die Ursache auf die Ablenkung des Fahrers zurückzuführen. Mittels Sperrkonzepten, welche den Zugriff auf Bereiche und Funktionen des Infotainmentsystems während der Fahrt limitieren, soll die Fahrerablenkung bei den immer größer werdenden Displays, komplexeren Einstellungsmöglichkeiten und längeren Interaktionspfaden minimiert und die Sicherheit im Straßenverkehr gewährleistet werden.
Diese Masterarbeit befasst sich mit dem Thema Fahrerablenkung im Kontext von automatisierten Fahrfunktionen. Durch die zunehmende Automatisierung des Fahrzeugs können wichtige Fahraufgaben und -funktionen durch Fahrassistenzsysteme übernommen und somit der Fahrer bei der Fahraufgabe und der Überwachung des Verkehrsgeschehens unterstützt bzw. entlastet werden. Dadurch ergeben sich für den Fahrer neue Freiheiten, die es ihm erlauben, seine Aufmerksamkeit (teilweise) von der Fahraufgabe abzuwenden und für andere, fahrfremde Tätigkeiten, wie der Interaktion mit dem Infotainmentsystem, zu nutzen. Ziel der Arbeit ist die Spezifikation und prototypische Umsetzung eines dynamischen Sperrkonzeptes für Infotainmentsysteme in Abhängigkeit des Automatisierungsgrades des Fahrzeugs. Risiken durch Fahrerablenkung sollen mittels Sperrungen von Infotainment-Bereichen und -Funktionen minimiert werden, zeitgleich soll der Zugriff auf Informationen und Unterhaltung für den Fahrer möglichst uneingeschränkt gewährleistet werden. Dabei wird der Fokus auf die Automatisierungsgrade Level eins bis drei (nach SAE) gelegt, wo es immer noch zu einem Wechsel zwischen automatisierten und manuellen Fahrabschnitten kommt.
Als Basis für das dynamische Sperrkonzept dient der Stand der Technik bisheriger wissenschaftlicher Erkenntnisse sowie Studien zu automatisierten Fahrfunktionen, Fahrerablenkung, Arbeitsbelastung, Reaktionszeit und Situationsbewusstsein. Außerdem soll ein Überblick über aktuelle Gesetzes- und Normenlagen sowie Gestaltungsrichtlinien in Bezug auf automatisierte Fahrzeuge bzw. Fahrfunktionen geschaffen werden, welche bei der Entwicklung von Sperrkonzepten eine essenzielle Rolle spielen.
Hintergrund: Die markerlose Bewegungserfassung (sog. Motion Capturing) ist eine neu entwickelte Technik, die die Nachteile der bisherigen verwendeten markerbasierten Bewegungserfassung eliminieren und weitere Vorteile bieten soll. Da Kniegelenkmomente in der Frontalebene, insbesondere das Knie-Abduktions-Moment, als einer der größten Risikofaktoren für eine Verletzung des vorderen Kreuzbandes bei Richtungswechseln angesehen werden, ist ein Vergleich der zwei Systeme in diesem Bereich sinnvoll.
Zielsetzung: Evaluation der Vergleichbarkeit des markerlosen Motion Capturing (Theia3D) mit dem markerbasierten Motion Capturing (Qualisys Track Manager) in Bezug auf die Kniegelenkmomente in der Frontalebene bei 90 ° Richtungswechsel
Stichprobe: 20 gesunde Probanden (9 Frauen, 11 Männer; Größe 174,7 ± 8,4 cm; Gewicht 71,1 ± 10 Kg; Alter 24,1 ± 4,3 Jahre)
Methodik: Gleichzeitige Aufnahme von jeweils drei Messungen eines 90° Richtungswechsels pro Proband:In mit acht Miqus Videokameras und 21 Miqus M3 Infrarotkameras. Die Bodenreaktionskraft wurde mittels einer Kraftmessplatte erhoben.
Ergebnisse: Ein signifikanter systematischer Unterschied (p = 0.02) ergab sich für das KAM gesamt. Verglichen zu dem markerbasierten System zeigt das markerlose System ein höheres KAM gesamt (ML: 0.22 ± 0.11 Nm/Kg, MB: 0.07 ± 0.33 Nm/Kg) aber einen niedrigeren peak KAM gesamt (ML: 0.56 ± 0.2 Nm/Kg, MB: 0.68 ± 0.49 Nm/Kg) und peak KAM 100ms (ML: 0.47 ± 0.19 Nm/Kg, MB: 0.62 ± 0.50 Nm/Kg). Des Weiteren wurden große Differenzen innerhalb der Probanden beobachtet.
Schlussfolgerung: Die Ergebnisse veranschaulichen, dass ein direkter Vergleich zwischen den zwei Systemen nicht sinnvoll ist. Dennoch zeigen sie, dass das markerlose System zu plausiblen Ergebnissen führen und mit einer zukünftigen Weiterentwicklung des Systems die Anwendung vielversprechend sein kann.
Verschiedenste Hersteller von Prothesen treiben die Entwicklungen in der Neuroprothetik immer weiter voran. Jedoch steigen dadurch nicht nur die Komplexität und die Funktionen einer solchen Prothese, sondern auch die Kosten. Oft wird vernachlässigt, dass ein einfaches Greifen meist schon ausreicht und damit oftmals viel mehr Personen geholfen werden kann als mit einer teuren Highend-Prothese.
Die vorliegende Masterthesis soll zeigen, dass es möglich ist, mit einfachen Mitteln einen funktionsfähigen bionischen Prototyp zu entwickeln. Die Steuerung funktioniert per Knopfdruck, Bewegungen werden automatisch ausgeführt.
Hierfür wurde auf der Rekonstruktion der ersten eisernen Hand des Götz von Berlichin-gen aufgebaut. Diese wurde mit günstiger und einfach beschaffbarer Elektronik verändert, damit die Prothese durch elektrische Motoren aktiv ansteuerbar ist. Das Modell wurde mit SolidWorks 2018 verändert. Die elektronischen Bauteile wurden über ein Arduino Board UNO R3 angesteuert, welcher die Schnittstelle zum Computer bildet.
In dieser Arbeit werden 3D-Scanner, deren verschiedene Funktionsarten und Einsatz-möglichkeiten vorgestellt. Ein besonderes Augenmerk liegt hierbei auf medizinischen Anwendungen.
Außerdem wird eine programmierte Ansteuerung in C++ eines 3D-Scanners vom Typ Artec Eva demonstriert. Hierbei werden die mit Qt erstellte GUI und Teile des Quellcodes vorgestellt und erklärt. Ziele der Programmierung waren, außer der Ansteuerung in C++ eine Darstellung mit Hilfe des Visualization Toolkits VTK und es zu ermöglichen, die aufgenommenen Daten auch abspeichern zu können.
Schließlich werden Grundlagen der Kalibrierung und der Koordinatentransformation dargelegt und am Beispiel der Kalibrierung des Artec EVA Scanners exemplarisch aufgezeigt.
Der gesamte Quellcode, welcher im Rahmen dieser Arbeit entstand, ist im Anhang der Arbeit zu finden.
Der "Return to run" (RTR) ist in der Rehabilitationsphase nach der Ruptur des vorderen Kreuzbandes ein entscheidender Moment für den Patienten. Die Kriterien von RTR sind aktuell jedoch noch vielfältig. Die Evaluierungsmöglichkeiten, die den Physiotherapeuten zur Verfügung stehen, sind nicht immer bekannt.
Das Ziel dieser Arbeit ist Messmethoden und -geräte vorzustellen, die für den Alltag einer physiotherapeutischen Praxis einfach anwendbar sind. Diese Messgeräte sollen die drei Gütekriterien (Validität, Reliabilität und Objektivität) der wissenschaftlichen Forschung erfüllen.
In diesem Sinne wurde eine Literaturrecherche durchgeführt. In diesem Systematic Review wurden Querschnittsstudien, Kohortenstudien und Literaturübersichten berücksichtigt. Insgesamt wurden 33 Studien (18 über die Kraftuntersuchung, 5 über die sensomotorische Untersuchung, 3 über die Laufanalyse und 7 über die Sprunganalyse) in der Studie eingeschlossen. Die Messgeräte, die in der Studie gefunden wurden, haben eine Validität mit einem Evidenzgrad von Moderat bis sehr gut. Sowohl die Inter- als auch die Intrareliabilität besitzen einen Evidenzgrad von gut bis sehr gut.
Alternativen zu den Gold Standards existieren. Sie stellen jedoch noch nicht eine perfekte Validität im Vergleich zu den Gold Standards dar. Allerdings ist sich die Mehrheit der Wissenschaftler darüber einig, dass diese Alternativen im Alltag gut anwendbar sind. In der zukünftigen Entwicklung dieser Messgeräte soll noch mehr Wert auf die absolute Validität gelegt werden.
Im Buch "Visualisiere deine Welt! Ein Workbook für visuelle Notizen" erlernt der Leser in den ersten drei Teilen Schritt für Schritt, was visuelle Notizen sind und welchen Vorteil sie gegenüber rein textbasierten Notizen haben sowie aus welchen Elementen sie sich zusammensetzen. Anwendung finden visuelle Notizen beim Kommunizieren mit anderen, um sich visuell verständlich zu machen. Sie helfen aber auch dabei, Lösungen für Probleme zu finden, Ideen zu entwickeln und letztendlich bedeutsame Inhalte visuell zu dokumentieren. Im letzten Teil des Workbooks hat der Leser die Möglichkeit, sein erlerntes Wissen in zahlreichen Übungen anzuwenden.
Egal ob Smart City, Smart Home oder als kleine Alltagshilfen, das Internet der Dinge ist heutzutage allgegenwärtig. Um die Dinge der vernetzten Welt nutzen zu können, benötigt man in der Regel ein User Interface. Es gibt verschiedenste Möglichkeiten für den Menschen, mit vernetzten Dingen zu kommunizieren. Es kann über ein Voice User Interface (VUI) mit der Sprache kommuniziert werden oder sogar bereits nur mit Gedanken über sogenannte Brain User Interfaces (BUI). Eine zentrale Rolle hat momentan vor allem das Smartphone, welches als leistungsstarker, dauerhafter Begleiter im Alltag durch eingebaute Sensoren und Kommunikationsmöglichkeiten wie Wifi, Bluetooth oder NFC, ein ideales Interface zum IoT bietet. Das Smartphone, sowie bereits viele Mikrocontroller, bieten zudem die Möglichkeit mit Internettechnologien wie HTML, CSS und JavaScript programmiert zu werden. Somit sind Webentwickler in der Lage, komplette IoT-Anwendungen zu implementieren. Für die webtechnologienbasierte User-Interfaceentwicklung des Smartphones bieten sich Frameworks wie Ionic, React Native, NativeScript oder Evothings an. Zu diesen vier Frameworks wird ein fundierter Vergleich durchgeführt, der Aufschluss über die Einsetzbarkeit der Frameworks bei einer IoT-Anwendung gibt. Ionic steht bei diesem Vergleich beispielsweise durch eine große Community, oder unzählige UI-Elemente mit hoher Usability, an erster Stelle. Die Möglichkeiten von Ionic werden anhand der App für den smarten Briefkasten Mail-E verdeutlicht.
Die Bachelor-Thesis "Entwicklung eines Web-Portals für M+I-Studierende" befasst sich mit der Entwicklung des Studierendenportals MI-Complete der Fakultät M+I der Hochschule Offenburg. In den üblichen Arbeitsschritten (Analyse, Konzeption, Umsetzung, Evaluation, Ausblick) wird darin der Werdegang des neuen Studierendenportals MI-Practix beschrieben.
In dieser Bachelorthesis werden On-Premise und Cloud Lösungen miteinander verglichen und eine bereits bestehende On-Premise Reklamationsverwaltung, die Teil eines ganzen ERP-Systems ist, wird mithilfe des Reengineerings, als cloudbasierte App neu implementiert.
Im ersten Abschnitt wird der Vergleich durchgeführt. Dabei werden die Hauptmerkmale beider Lösungen und ihre Vor- und Nachteile herausgearbeitet. Zum Schluss wird überprüft, welche der beiden Lösungen besser zu den Anforderungen passen. Da die neue Reklamationsverwaltung als App umgesetzt werden soll, wurde sich für die Cloud Lösung entschieden. Diese ist deutlich flexibler und für kleinere Kunden kostengünstiger.
Im zweiten Abschnitt wird ein Reengineering der alten On-Premise Lösungen als cloudbasierte App durchgeführt. Dabei werden alle Anforderungen und Kriterien an die App aufgezeigt. Danach werden alle Schritte des Reengineerings, wie beispielsweise die Analyse der Datenstruktur und Erstellung von Aktivitätsdiagrammen, genauer beschrieben und für die App angewendet. Mithilfe des Reengineerings konnte die Datenstruktur angepasst werden. Auch wurden viele überflüssige Funktionen aus der alten Lösung entfernt und nur die wichtigsten Funktionen sind geblieben.
Im Leistungssport können Verletzungen den weiteren Karriereverlauf einer Athletin stark beeinflussen. Eine umso größere Rolle spielt daher der Rehabilitationsprozess. Diese Arbeit befasst sich mit den Kraftfähigkeiten des M. triceps surae nach einer Achillessehnenrekonstruktion im Bereich des Leistungsturnens. Die Quantifizierung der Kraftfähigkeiten erfolgt mit Hilfe von isokinetischen Krafttests. Dazu werden auf beiden Seiten einmal wöchentlich 2 x 3 Wiederholungen bei einer Testgeschwindigkeit von 30 deg/s durchgeführt. Die Messungen überspannen einen Zeitraum von 10 Wochen und beginnen 6 Monate postoperativ. Die Datenauswertung erfolgt mit MATLAB. Auf der unverletzten Seite werden keine oder nur geringfügige Änderungen in den Kraftfähigkeiten erwartet. Auf der verletzten Seite hingegen wird ein deutlicher Anstieg in den Kraftfähigkeiten erwartet. Die Kraftfähigkeiten werden über das maximale Drehmoment, den Drehmomentkraftstoß und die Kraftanstiegsrate (rate of force development = RFD) festgestellt. Werden die Messwerte aus der ersten und der letzten Messung verglichen, zeigen die Ergebnisse ein anderes Bild auf. Die Messwerte für die unbetroffenen Seite steigen um 17,1 % für das Drehmoment, um 17,2 % für den Drehmomentkraftstoß und um 20,4 % für die RFD. Auf der betroffenen Seite steigen die Werte respektive um 19,1 %, 15,2 % und 59,3 %. Es liegt also lediglich für die RFD ein deutlicher Anstieg im Vergleich zur unbetroffenen Seite vor. Ein anderes Ergebnis zeigt sich, wenn die Messwerte der ersten und der vorletzten Messung verglichen werden. Die Werte der unverletzten Seite steigen um 19,2 %, 19,6 % und 35,4 %. Auf der verletzten Seite hingegen, ist eine Steigerung von 32,6 %, 31,7 % und 102,2 % zu sehen. Somit liegt ein deutlicher Anstieg in dem Kraftfähigkeiten der verletzten Seite, auch in Bezug unverletzte Seite, vor. Ob es sich bei der letzten Messung um einen Ausreißer auf der betroffenen Seite handelt, lässt sich durch fehlende Folgemessungen nicht bestimmen.
Für eine fundiertere Aussage sollte ein längerer Zeitraum betrachtet werden. Aufgrund der zeitlichen Begrenzung für die Erstellung dieser Arbeit ist das leider nicht möglich.
This thesis evaluates and compares current Full-Stack JavaScript Technologies. Through extensive research on the state of the art of JavaScript and its related frameworks, different aspects of FullStack Development are analysed to judge the popularity of technologies.
The language JavaScript and the idea of Full-Stack Development are presented with the functionality of different frameworks. The JavaScript runtime Node.js was examined and marked as the most influential JavaScript technology, which opened up many opportunities.
As technology stacks MERN, MEAN and MEVN were investigated, featuring the base technologies Node.js, MongoDB and Express.js. It was discovered that front-end frameworks have the most influence on which variant of Full-Stack can be chosen. Comparison criteria between the technology stacks were the learning curve, the maintainability, modularity and media integration. These criteria were extracted from research and a questionnaire conducted with students of the University of Applied Sciences Offenburg.
For the purposes of testing and experiencing a Full-Stack JavaScript application, the game RemArrow, based on the 1979s game Simon, was designed and implemented. The comparison with predefined criteria shows the result that the MERN stack with React.js is the best to learn and promises the most potential. Arising JavaScript technologies and their popularity are very dependent on the industry and skill set of the developer.
In conclusion, it can be established that the concept of Full-Stack Development is currently very interesting and more than just a trend. It has potential of becoming a new kind of web development, and part of the curriculum taught at universities. Expert knowledge is needed but there is a high demand and much potential for Full-Stack JavaScript Developers.
In einer digitalisierten Welt wird das Smartphone zunehmend multifunktional eingesetzt. Auch Anwendungen für eine eindeutige Identifikation wie bei Banking-Apps sind bereits verfügbar, weshalb das Smartphone auch als Ersatz des klassischen Schlüssels genutzt werden kann.
Ziel der Thesis ist es, genau das unter Beweis zu stellen. Im Rahmen der Arbeit soll eine mobile Applikation in Android Studio für ein Google Pixel 7 Pro entwickelt werden, die mit einem Türschloss interagieren und dieses ansteuern kann. Eine Besonderheit dieses Systems besteht in der präzisen Positionsbestimmung mithilfe der Ultra-Wideband Technologie. Diese wird genutzt, um die Position des Smartphones zum Türschloss genau zu bestimmen und festzulegen, ab welcher Position das Schloss auf die Interaktion des Smartphones reagieren soll.
Die im Rahmen der Thesis entwickelte App hat das Ziel erfüllt. Sie fungiert als Demo-App für ein funktionierendes Tür-System, bei dem die Positionsbestimmung mit Ultra-Wideband umgesetzt wurde. Ebenfalls wurde der Datenaustausch mit mehreren Sicherheitsmechanismen wie einem AES-Algorithmus, einem Running Counter oder einem Hash-Wert umgesetzt.
Dennoch muss erwähnt werden, dass das Ziel, den Datenaustausch ebenfalls mit Ultra-Wideband zu implementieren, nicht gelungen ist. Hierfür wird in der bestehenden App Bluetooth Low Energy genutzt.
Im Laufe der Arbeit hat sich gezeigt, dass Ultra-Wideband im Zusammenhang mit dem angedachten Tür-System zur Positionsbestimmung geeignet ist. Es konnte eine hohe Präzision mit einer Aktualisierungsrate von mehreren Ranging-Ergebnissen pro Sekunde erreicht werden.
Allerdings ist ein abgeschlossenes Konzept, das ausschließlich auf Ultra-Wideband basiert, bislang nicht möglich. Ebenfalls erschweren fehlende Standards die Implementierung. Hier mangelt es an einer Vereinheitlichung.
Auch besteht Potenzial zur Entwicklung von Konzepten für die Umsetzung des Datenaustauschs über Ultra-Wideband in mobilen Applikationen. Somit wäre es möglich, Ultra-Wideband als alleinige Technologie für solche Systeme zu nutzen.
Abschließend zeigt diese Arbeit jedoch, dass Positionsbestimmung mit Ultra-Wideband im in der Thesis untersuchten Konzept möglich ist und die Technologie für eine Indoorpositionierung in Kombination mit einem smarten Türschloss genutzt werden kann. Die herausragende Präzision in Echtzeit kann in diesem Prototyp verdeutlicht werden und als ein funktionierendes System als Grundlage für zukünftige Arbeiten genutzt werden.
This paper describes a project absolved to increase the material flow through the LTCC production of the Bosch Anderson Plant in South Carolina, USA. To archive this goal the regarded value stream is introduced first. The bottleneck, which is limiting the material flow is found and eliminated in order to increase the output of the machine and consequently improve the material flow through the whole value stream. The completed projects made for this purpose result in a 13% increase. To control the material flow the inventory sizes are determined. The inventories, from which the size is desired to be determined, include climatization processes to dry the pastes that are applied in the previous process steps. Therefore, a separation of the parts in the production process climatization and the buffer is necessary first. After that the buffer can be eliminated and the inventory areas minimized. The results are smaller and controlled buffer sizes that make part of the floor space unnecessary. A welcomed side effect is the solution to a production problem of warped parts because of too long climatization times. Observations over time show that the results of the buffer limitations are just right to improve the material flow through the LTCC production.
Die vorliegende Bachelorarbeit beschäftigt sich mit der Evaluation einer Simulationssoftware anhand unterschiedlichen Roboterkinematiken sowie einer virtuellen Inbetriebnahme einer speicherprogrammierbaren Steuerung (SPS) mittels OPC-UA-Kommunikation.
Für die Evaluation der Simulationssoftware wurden drei Roboter verschiedener Hersteller, die die gleiche Aufgabe erfüllen, mit der Simulationssoftware Visual Components simuliert und anschließend in einer realen Umgebung getestet. Für die virtuelle Inbetriebnahme einer SPS mittels OPC-UA-Kommunikation wurde eine virtuelle SPS-gesteuerte Roboter-Fertigungslinie implementiert.
Ergebnis dieser Arbeit sind detaillierte Einarbeitung in die Simulationssoftware Visual Components, strukturierte Offline und Online Roboterprogrammierung und somit Auswertung der Simulationssoftware anhand unterschiedlicher Roboterkinematiken. Bewertung des Datenaustauschs (via OPC-UA) zwischen einer SPS und der Simulationssoftware Visual Components.
Bifaziale Photovoltaikmodule werden durch ihre höhere Leistung, bezogen auf den Flächenbedarf immer attraktiver. Die meisten der bislang hergestellten Photovoltaik Module sind Monofazial ausgeführtund schöpfen damit nicht ihr vollständiges Potential aus. Weiterhin bestehen die konventionell hergestelltenPhotovoltaik(PV) Module aus einem Verbund aus Glas und Kunststoff sowie verschiedenen Metallen, was die Entsorgung oder ein Recycling kostenaufwendig und kompliziert gestaltet. Die Firma Apollon greift diese Punkte auf und versucht, beides in dem NICE-Modul(Siehe Anhang 12.1)zu vereinen,nämlich ein bifaziales Modul, bei dem die PV-Zellen zwischen zwei Glasplatten, anstelle von zwei Kunststoffen eingespannt werden. Die Hochschule Offenburg ist F&E-Partner der Firma Apollon und betreibt ein kleines Labor zur Herstellung von NICE-Modulen. Zu Testzwecken werden diese der Witterung ausgesetzt und so der Energieertrag,sowie deren Lebensdauer unter geltenden Witterungsbedingungen ermittelt. In der Masterarbeit von Benjamin Smith[1]stellte sich heraus, dass sich bei den Modulen nach weniger als zwei Wochen im Freien die Klebefläche zwischen den Glasplatten löste. Somit fielen die Module beim Witterungstest unter realen Bedingungen durch.Im Anschluss an die Arbeit von Benjamin Smith besteht diese Arbeit darin,einen Außenteststand zu konzipieren und aufzubauen, um das in Zwischenzeit neu entworfene Klebe-konzept, welches einem TC 50 Test standhielt, auf die Lebensdauer im Freien und das PV Modul selbst auf den elektrischen Ertrag zu untersuchen. Für den elektrischen Ertrag werden Strom-und Spannungsverlauf aufgezeichnet. Außerdem musste für eine Charakterisierung der Module die Bestrahlungsstärke,der Temperaturverlauf, sowie die Inho-mogenität der Bestrahlungsstärke auf der Rückseite und die Windgeschwindigkeit ermittelt werden. Um eine Alterung des Modulwechselrichters auszuschließen, werden speziell dafür die Wechselspannung und Leistung auf der Ausgangsseite des Modulwechselrichters aufgezeichnet. Sämtliche modulrelevanten Messwerte werden im 3-5 s Intervall abgespeichert und sind auf einem Webserver sowie für eine spätere Datenanalyse als .csv Datei abrufbar. Somit eignet sich die Messeinrichtung lediglich für eine Bilanzierung,nicht aber für eine Leistungsmessung.
Für den Außenteststand musste eine Unterkonstruktion, geeignet für bifaziale Module entworfen und aufgebaut werden. Die Konstruktion ist vollständig aufgebaut. Das Messsystem wurde auf deren Funktion erfolgreich geprüft und steht bis auf die Strahlungsinhomogenitätsmessung im Technikum am Campus Nord der Hochschule Offenburg bereit zur Inbetriebnahme.
Integration eines Shopsystems in Typo3 am Beispiel „Relaunch des Webauftritts Elbe&Flut Edition“
(2013)
Im Rahmen meiner Bachelorarbeit habe ich bei Elbe&Flut, Agentur für Fotografie und Gestaltung in der Hamburger Speicherstadt, eine Neuauflage der Webpräsenz für den Verlag Elbe&Flut Edition erstellt. Themenschwerpunkt der Elbe&Flut Edition ist Hamburgs Viertel zwischen Tradition und Vision — die Speicherstadt mit der wachsenden Hafencity. Ziel der Bachelorthesis war ein ganzheitlicher Webauftritt der Website mit einem Gesamtumfang von circa 25 Seiten, erstellt mit dem Content Management System Typo3 Version 4.5, um das nachträgliche Ändern und Einfügen von Inhalten effizient und simpel zu gestalten. Hinzu wurde ein Online-Shop für die Elbe&Flut Edition integriert, über den Bücher sowie Kalender geordert werden können. Dafür werden verschiedene Web-Shopsysteme wie die Typo3-Erweiterung Commerce und tt_products zu einem funktionalen Vergleich herangezogen. Die Einbindung von JQuery-Elementen wie Slidern, Lightboxes und Popups soll eine ästhetische und angemessene Benutzerfreundlichkeit sinnvoll unterstützen. Ausgangspunkt für die neuen Webpräsenzen war die damalige Website der Elbe&Flut Edition euf-edition.de, von der ein Großteil des Inhaltes übernommen wurde.
Vor allem in der heutigen Zeit ist die Privacy ein wichtiges Gut, das gewahrt werden muss. Bei der Verarbeitung von Daten muss deren Schutz entsprechend rechtsgültiger Vorschriften eingehalten werden. Damit der Datenschutz bei der Analyse von Listen und Mengen gewährleistet werden kann, muss sichergestellt werden, dass nur dann Einsicht in diese Listen und Mengen gewährt wird, wenn dies rechtlich begründet ist.
In dieser Arbeit wird auf Grundlage der Dissertation von Louis Tajan mit dem Titel „Privacy-Preserving Data Processing for Real Use Cases“ [21] überprüft, ob sich Bloom-Filter als Datenstruktur eignen, um eine rechtliche Erlaubnis zu begründen. Hierfür wird zunächst ein Blick auf die relevanten Artikel der in Deutschland geltenden Datenschutz-Grundverordnung (DSGVO) geworfen und anschließend der Aufbau und die Funktionsweise der Bloom-Filter beschrieben.
Nach dieser Einführung in das Thema wird eine Implementierung der Bloom-Filter in Java vorgestellt, im Anschluss daran werden Tests zur Korrektheit der Bloom-Filter Ergebnisse durchgeführt und zuletzt wird die Sicherheit der Bloom-Filter wird aus datenschutzrechtlichem Blickpunkt betrachtet.
Das Thema Honeypot nimmt einen immer größeren Stellenwert in der Weiterentwicklung der Informationssicherheit ein. Honeypots dienen nicht nur zur Erforschung von Angriffsmethoden und Vorgehensweisen, sondern können auch im Unternehmensumfeld aktiv zur Verbesserung der IT-Sicherheitsmaßnahmen beitragen. Diese Arbeit hat sich das Ziel gesetzt, das Themenspektrum Honeypot in Theorie und Praxis näher zu untersuchen. Im ersten Teil wird ein allgemeiner Überblick über das Thema Honeypot und Honeynet gegeben. Hier wird erklärt, welche Honeypot-Typen und Architekturen es gibt, welche Anforderungen ein Honeypot stellt und welche Risiken der Betrieb eines Honeypot-Systems verursacht. Am Ende des ersten Kapitels werden einige Beispiele eines Honeypot-Systems beschrieben. Im zweiten Teil wird konkret auf die Implementierung eines High Interaction Honeypots eingegangen, dessen Überwachungszentrale die Honeywall bildet. Dieser praktische Teil erklärt, wie ein komplettes Honeypot-System auf Basis der 'Honeywall CDROM Roo' eingerichtet wird, welche Möglichkeiten und Werkzeuge das Überwachungssystem besitzt und welche Einstellungen und Besonderheiten beim Einrichten beachtet werden müssen. Im darauffolgenden dritten Teil werden die gesammelten Daten ausgewertet. Dazu wird zuerst ein Überblick über mögliche Angreifer und deren Angriffswege gegeben. Mit diesem Hintergrundwissen werden die Daten im weiteren Verlauf konkret analysiert und zum Teil visualisiert. Nach dem praktischen Teil wird ein Ausblick gegeben, welche Ausbaumöglichkeiten die Versuchsanordnung bietet, welchen Schwerpunkt die Weiterentwickelung der Honeywall einnimmt und welche rechtlichen Fragen der Betrieb eines Honeypots aufwirft. Zu guter Letzt wird die Arbeit durch ein Fazit abgeschlossen.
Intelligente Assistenten - Untersuchung der Spracheingabe in Verbindung mit dem ERP-System SIVAS.ERP
(2018)
Die vorliegende Bachelorarbeit wurde für die schrempp edv GmbH erstellt. Die Untersuchung von Technologien intelligenter Assistenz und eine fundierte Einsatzempfehlung für zukünftige Entwicklungen in Verbindung mit dem ERP-System SIVAS sind die primären Ziele der Abschlussarbeit. Das Hauptaugenmerk der Analyse liegt auf der Spracherkennung und der Sprachverarbeitung. Diese Technologien sollen den Umgang mit den komplexen Anwendungen im SIVAS-Umfeld erleichtern.
Der erste Teil der Abschlussarbeit befasst sich mit den theoretischen Grundlagen intelligenter (Sprach-) Assistenz. Im zweiten Teil wird die SIVAS.Montage-App und ein Szenario zur prototypischen Umsetzung intelligenter Assistenz vorgestellt.
Die folgenden Teile beschäftigen sich mit der Spracherkennung und Sprachverarbeitung von Google und Microsoft. Die beiden Unternehmen betreiben seit Jahren intensive Forschungen zu den Sprachtechnologien und bieten erfolgreiche Lösungskonzepte an. Analysierte Frameworks der Spracherkennung sind die Google Speech API und die Bing Speech API. Kandidaten der Sprachverarbeitung sind Dialogflow von Google und LUIS von Microsoft.
Das Ergebnis der Analyse ist die Einsatzempfehlung der Frameworks von Google. Insbesondere bei der ermittelten Fehlerrate als Schlüsselkriterium der Spracherkennung, kann Google mit 11,11 % gegenüber Microsoft mit 23,09 % überzeugen. Der Vergleich der Frameworks zur Sprachverarbeitung liefert ähnliche Resultate. Google ist Microsoft bei der Klassifizierung bisher unbekannter Aussagen der Anwender mit einer Genauigkeit von 86,67 % um fünf Prozentpunkte überlegen. Informationen werden mit Hilfe von Dialogflow erfolgreicher und strukturell besser aufbereitet extrahiert.
Abschließend wird SIVAS mit den analysierten Google-Technologien mittels einer prototypischen Umsetzung des ausgewählten Szenarios zur Erfassung von Montagezeiten zusammengebracht.
In dieser Ausarbeitung befasst sich der Autor mit der Methodik staatlicher Hackgrup-pierungen. Weil besonders Russland und China öfter in den Fokus der medialen Öffent-lichkeit, sowie dem Inlandsgeheimdienst rücken, waren diese beiden Länder Untersuchungsgegenstand. Die Zielsetzung war es, deren Vorgehensweise sowie Charakteristiken aus deren Schadsoftwarearsenal zu analysieren um dem Leser einen Überblick über die eingesetzten Techniken zu geben. Diese unterscheidet sich von herkömmlichen An-griffen, weil staatliche Akteure in der Regel über weitaus mehr Ressourcen und Know-How verfügen. Anti-Virus Forscher beschäftigen sich mit Hackergruppierungen mit vermeintlich staatlichen Hintergrund. Deshalb existieren rundum die Gruppierungen und deren Schadsoftware Fallstudien, welche diese untersuchen. Aus diesem Grund wurde die empirische Forschungsmethode anhand eines Advanced Persistent Threat-Modell angewandt um diese auszuwerten. Die Charakteristiken dieser konnten dadurch in verschiedene Phasen eingeteilt und deren technischen Auffälligkeiten analysiert werden. Schließlich wurde ein Schutzkonzept erarbeitet, dass die ermittelten Ergebnisse berücksichtigt. Dieses basiert zwar größtenteils aus technischen Lösungen, berücksichtigt aber auch den Faktor Mensch, speziell in Bezug auf APTs. Im Endergebnis gibt diese Ausarbeitung dadurch einen Einblick auf verschiedene Techniken von Schadsoft-ware, als auch Lösungsvorschläge um deren Gefahren einzudämmen.
Entwicklung eines unabhängigen Systems zur Verstellung schiebergesteuerter Werkzeuge im Prozess
(2024)
Die Aufgabenstellung der Arbeit beinhaltete das Ausarbeiten eines unabhängigen Antriebssystems für Werkzeuge mit verstellbaren Schneiden. Hierbei bestand der Antrieb der Werkzeuge bisher aus einem rein mechanischen Anstriebsflansch. Dieser hat durch eine Drehspindel die rotatorische Bewegung der Maschinenspindel zu einer axialen Bewegung der Zugstange umgewandelt. Da die mechanische Drehspindel nicht in jeder Maschinenspindel vorhanden war, konnten die Werkzeuge von LMT Kieninger nur beschränkt eingesetzt werden. Aus diesem Grund sollte ein Antriebssystem entwickelt werden, welches auf jedem Bearbeitungszentrum unabhängig von der Maschinenspindeltechnologie eingesetzt werden konnte.
Für die Entwicklung des unabhängigen Antriebsflansches wurde zunächst eine Marktanalyse durchgeführt. Diese vergleichte bestehende Lösungsansätze auf dem Markt miteinander und untersuchte, welche davon für ein eigenes Lösungskonzept infrage kam. Hierbei wurde insbesondere der Antrieb, der die Bewegung erzeugen sollte, die Übergabe des Steuersignals und die Energieversorgung betrachtet. Ein vielversprechendes Lösungskonzept, das den vorliegenden Anforderungen entsprach, war eine elektrische Antriebsvariante mit einer Akkueinheit und einer Funksteuerung.
Um die elektronischen Komponenten in den bestehenden Antriebsflansch zu integrieren, mussten die Prozessparameter bestimmt werden. Dafür wurde ein Werkzeug als Referenz verwendet, das zum Ausspindeln der Laufflächen von Zylinderbuchsen verwendet wurde. In diesem Werkzeug befanden sich unterschiedliche Bauteile, welche den Mechanismus der Schneidenverschleißkompensation ermöglichten und die Drehbewegung des Antriebsflansches in den Verstellweg der Schneiden umsetzte. Unter Berücksichtigung der Bauteile sowie der vorhandenen Reibung und Verluste ergab sich ein Drehmoment, welches benötigt wurde, um die Schneiden zu verstellen. Nach der rechnerischen Ermittlung des benötigten Drehmoments konnte ein Kompaktantrieb von Maxon vorgeschlagen werden. Dies erfolgte unter Berücksichtigung der Anforderungen an den verfügbaren Bauraum, die Energieversorgung und die Akkueinheit. Dieser Kompaktantrieb bestand aus einem Motor, einem Planetenradgetriebe, einem Hall-Sensor zur Positionsbestimmung sowie einer Steuereinheit.
Die Konstruktion mit den einzelnen Bauteilen konnte nun erstellt werden. Der Konstruktionsprozess wurde durch die schrittweise und aufbauende Integration der Lösungen für die verschiedenen Funktionen des Bauteils systematisch und methodisch umgesetzt. Dabei erfolgte die Umsetzung in einem Modell, wobei jeder Schritt auf den vorherigen Überlegungen und Entscheidungen basierte. Der erste Schritt bestand darin, den Kompaktantrieb, der die Hauptfunktion darstellt, in den Grundkörper mit der HSK-Aufnahme zu integrieren. Anschließend wurden die Nebenfunktionen wie die axiale Lagerung, die Kühlmitteldurchführung und die Anpassung der Flanschgeometrie zur Aufnahme des Werkzeuges implementiert. Im nächsten Schritt wurden die Steuerung und die Akkueinheit als Blackbox positioniert sowie die Kabelkanäle in den Grundkörper konstruiert.
Abschließend wurden für die eigens entwickelten Bauteile technische Zeichnungen erstellt. Auf ihnen wurden alle relevanten technischen Merkmale hinterlegt, die für die Fertigung der Bauteile benötigt wurden. Hierzu gehörten beispielsweise Angaben zum Werkstoff, Toleranzen, Passungen, Oberflächenangaben sowie Form- und Lagetoleranzen. Zudem wurde eine Baugruppenzeichnung erstellt, die die Anordnung der einzelnen Bauteile mit ihrer Stückzahl und Positionsnummer in einer Stückliste klar und deutlich erkennbar machte.
Damit wurde die Neuentwicklung eines unabhängigen Antriebsflansches abgeschlossen und bot einen Einblick in die mögliche Integration eines mechatronischen Antriebs in den Antriebsflansch.
Communication protocols enable information exchange between different information systems. If protocol descriptions for these systems are not available, they can be reverse-engineered for interoperability or security reasons. This master thesis describes the analysis of such a proprietary binary protocol, named the DVRIP or Dahua private protocol from Dahua Technology. The analysis contains the identification of the DVRIP protocol header format, security mechanisms and vulnerabilities inside the protocol implementation. With the revealing insights of the protocol, an increase of the overall security is achieved. This thesis builds the foundation for further targeted security analyses.
China ist eine aufstrebende Volkswirtschaft. Das Wirtschaftswachstum im Land führt zu einer steigenden Kaufkraft und der digitale Fortschritt verändert die Kaufgewohnheiten und die komplette Customer Journey. Einheitliche Online Marketing-Ansätze sind dabei längst überholt. Die Konsumierenden erwarten eine persönliche Customer Experience mit Integration von neuesten Technologien, die ihren mobilen Lebensstil effizienter gestaltet.
Deutsche Unternehmen erkennen die Auswirkungen dieser Veränderungen und stehen vor der Herausforderung die neuen, anspruchsvollen Verbraucher/innen mit innovativen Online Marketing-Maßnahmen anzusprechen.
Für die eigene Studie wurden deutsche Unternehmen befragt, die bereits erfolgreiches Online Marketing in China betreiben. Anhand der Online-Befragung und Experten-/Expertinneninterviews sollen die wichtigsten Online Marketing-Instrumente, deren Plattformen, Ziele und Herausforderungen ermittelt werden.
Der Kommunikation von Unternehmen wird gegenwärtig eine geringe Glaubwürdigkeit zugeschrieben – vor allen Dingen, wenn sie über das Social Web stattfindet. Dabei besitzt
die Social Web-Kommunikation, insbesondere über soziale Netzwerke, einen hohen Stellenwert für die Unternehmenskommunikation und es wird davon ausgegangen, dass dieser Stellenwert in Zukunft noch weiter zunehmen wird. Aus diesem Grund wurde im Rahmen der vorliegenden Masterthesis untersucht, wie die nternehmenskommunikation,
die über die Social Web-Plattform soziales Netzwerk stattfindet, positiv beeinflusst werden kann.
Hierzu wurden Vermutungen über positive Beeinflussungsmöglichkeiten in Form von Hypothesen formuliert, welche zum Teil auf Erkenntnissen bisheriger Arbeiten auf dem Gebiet der Glaubwürdigkeitsforschung basieren. Daraufhin wurden die zur Überprüfung der Hypothesen benötigten Daten mittels einer standardisierten Online-Befragung erhoben und anschließend mit Hilfe von Varianzanalysen ausgewertet. Dabei konnten vier Hypothesen verifiziert werden. Diese besagen, dass die Glaubwürdigkeit der Unternehmenskommunikation über soziale Netzwerke durch das Eingehen auf negative Nutzerkommentare, die sprachliche Korrektheit von Unternehmensbeiträgen sowie durch die Ausgestaltung dieser Beiträge mit Emoticons und professionellen Bildern positiv beeinflusst wird. Die fünfte und letzte Hypothese, welche eine positive Beeinflussung der kommunikativen Glaubwürdigkeit durch die Verwendung von Influencern für
Unternehmensbeiträge unterstellt, konnte nicht validiert werden.
Eine neue Programmiersprache zu erlernen kann für Anfänger:innen manchmal schwer sein, selbst für Programmiersprachen wie Python, die bekannt dafür sind Einsteigerfreundlich zu sein. Denn selbst wenn die Syntax eines Python Programms schnell verstanden wird, ist oft nicht direkt erkenntlich wie der Code hinter dem Programm funktioniert. Anfänger:innen können dabei auch auf ihre Grenzen stoßen, den Ablauf eines Programmes nur alleine durch den Programmcode zu verstehen. Denn der Text der den Code ausmacht, kann auch nur bis zu einem gewissen Grad vermitteln wie oder was genau abläuft. Um den Ablauf eines Programms besser vermitteln zu können, wird der Code oft z.B. mit Diagrammen visualisiert. Visuelle Elemente können ebenfalls zusätzlich zum Code mehr Unterstützung leisten. Das Thema dieser Arbeit beschäftigt sich mit der Visualisierung von Python Programmen in der Entwicklungsumgebung Visual Studio Code, um Programmieranfänger:innen und Student:innen beim Erlernen der Programmiersprache Python zu unterstützen. Die Entwicklung der Visualisierung beinhaltet, das Erstellen einer Erweiterung in Visual Studio Code, die unter anderem das Debug Adapter Protocol einsetzt um mit dem Python Debugger zu kommunizieren.
In dieser Arbeit werden zunächst die technischen Grundlagen, die zur Erstellung der Applikation notwendig sind, näher betrachtet. Hierbei wird der Unterschied zwischen Nativen Apps und WebApps beleuchtet und verschiedene Techniken für die mobile Webentwicklung vorgestellt. Anschließend werden die didaktischen und sprachlichen Grundlagen, die eine optimale Aufbereitung des Lernstoffes gewährleisten sollen, näher betrachtet. Dabei werden neben der Sprachdidaktik und Methodik auch der Lernprozess sowie die japanische Sprache beleuchtet. Abgerundet wird dies mit einem Blick auf andere Sprachlernsoftware für die japanische Sprache. Danach wird auf die Konzeption der Applikation, welche den Aufbau und die Lerninhalte umfasst, eingegangen, bevor dann schließlich die Umsetzung der Applikation beschrieben wird. Hierbei werden einzelne Aspekte und Probleme der Realisierung näher beleuchtet.
Entwicklung eines Ansatzes zur Validierung von Beckenmodellen in Anlehnung an die ASME V&V-40
(2024)
Die Relevanz von In-silico Studien in der Medizin gewinnt für Ingenieure, Mediziner und Wissenschaftler stetig an Wert. In-silico Studien helfen dabei, kostspielige und zeitaufwendige Kadaverstudien sowie langjährige Ergebnisstudien einzugrenzen. Zum Thema Becken herrschen schon einige Berechnungsmodelle vor, jedoch nicht in dieser Ausführung und in Kombination mit einem Abgleich zu einer Kadaverstudie mit den gleichen Randbedingungen. Ein sehr wichtiger weiterer Bestandteil ist die Verifizierung und Validierung eines solchen Rechenmodells. Da kein Versuch im eigentlichen Raum, dem Körper, sondern in einer Simulationsumgebung stattfindet, muss das Modell verifiziert und validiert werden, um auf gewisse Weise die Glaubwürdigkeit des Modells darzulegen. In dieser Arbeit wurden verschiedene Ansätze zur bestmöglichen Abbildung der Kadaverstudie entwickelt. Die beste Übereinstimmung kam mit dem Modellansatz 3 zustande. Der Modellansatz 3 berücksichtigt die Unterteilung von der Spongiosa zur Kortikalis, die Lendenwirbel L3-L5, das Sacrum und die Ilia zuzüglich der Bandscheiben und der Symphysis pubica mit einem hyperelastischen Materialmodell, alle relevanten Ligamente sowie die verschiedenen Materialeigenschaften für jede einzelne Kortikalis, Spongiosa und der Weichteile aus der Kadaverstudie. Definiert wurde der Modellansatz 3 über die kinematisch nähere Beschreibung der Z-Achsen Sperrung, einer veränderten Krafteinleitung sowie einer Feinjustierung der Ligamenten Steifigkeiten. Aus diesem Modellansatz ging vor allem eine physiologische Kinematik wie auch eine überaus gute Konvergenz an den Markern der Anterior superior iliac spine rechts und links, Sacrum und L5 hervor. Die Verifizierung und Validierung des Rechenmodells wurde anhand der ASME V&V-40 geschaffen. Die dafür entscheidende Question of Interest lautet: Liegen die Stabilität, Belastungen und Verformungen von patientenspezifischen Frakturversorgungen unter standardisierten Lasten? Daraus ergaben sich drei Context of Use, von denen der erste (Context of Use 1: Deformation) im Fokus dieser Arbeit lag. Die Entscheidungskonsequenz sowie das Modellrisiko für den Context of Use und das Modell wurde als Low/Medium eingestuft. Mit Hilfe dieser Einstufung konnten die Model Credibility Factor Goals für das Modell definiert werden. Diese gaben schlussendlich den Grad der Validierung für das bestehende Modell vor.
In modernen Industrieautomatisierungssysteme kann die IT-Sicherheit nicht mehr ignoriert werden. Um dem Datenverkehr Schutz zu bieten, sind kryptografische Schutzmaßnahmen notwendig. Eine gängige Schutzmaßnahme ist die Verwendung von digitalen Zertifikaten zur Autorisierung und Authentifizierung. Um Zertifikate sicher und geregelt auf Endgeräte zu bringen, ist jedoch eine Public-Key-Infrastructure notwendig. Solche PKIs sind bisher wenig im Umfeld der Industrieautomatisierung untersucht. Das Institut für verlässliche Embedded-Systems der Hochschule Offenburg bietet hierfür eine mögliche Lösung, welche auf einer zentralen Einheit, genannt Credentialing Entity, basiert. Ein Demonstrator dieses Konzepts wurde bereits in den weit verbreiteten Systemprogrammier-sprachen C und C++ implementiert.
Im Rahmen dieser Arbeit wird die Verwendung der modernen speichersicheren Programmiersprache Rust in der Systemprogrammierung als Alternative zu den Domänenführern C/C++ am Beispiel der Implementierung der Credentialing-Entity untersucht. Hierbei werden Aspekte wie die Vorzüge Rusts, dessen Ökosystem und Interoperabilität mit den Marktführern C/C++ untersucht.
Die vorliegende Arbeit beschäftigt sich mit der Wahrnehmung von Websites im One-Page-Design und der Verbesserung der User Experience mit Hilfe von Blickaufzeichnung und weiteren Methoden.
Für ein Unternehmen ist eine Website mittlerweile ein zentrales Marketinginstrument. Eine gute Umsetzung der Website ist maßgeblich am Unternehmenserfolg beteiligt.
Eine bedeutende Rolle für eine Website spielt das Webdesign. Dies beeinflusst entscheidend, ob das Interesse des Nutzers geweckt wird und er auf der Website verweilt oder diese direkt wieder verlässt. Doch das Webdesign verändert sich laufend. Ein neuer Trend ist die Website im One-Page-Design. Diese bietet neue Möglichkeiten der Gestaltung, stellt Webdesigner jedoch auch bei der Umsetzung vor neue Herausforderungen. Mit der vorliegenden Arbeit sollen deshalb Websites im One-Page-Design hinsichtlich ihrer Wirkung auf den Nutzer analysiert werden. Zu diesem Zweck werden mit ausgewählten Probanden User Experience Tests durchgeführt, die Aufschluss darüber geben sollen, wie die Zielgruppe mit der Website interagiert. Durch die Analyse der gewonnenen Daten und die daraus abgeleiteten Handlungsempfehlungen kann die User Experience von Websites im One-Page-Design gesteigert werden. Neben der Eyetracking-Methode (Blickaufzeichnung) wird die Think Aloud-Methode, der Interview-Leitfragen sowie die Mimikmessung eingesetzt.
Diese Abschlussarbeit beschäftigt sich mit der Entwicklung eines VHDL-Ethernet Protokollstapels. Aufbauend auf einem existierenden Protokollstapel für 1 GBit/s ist das Ziel dieser Arbeit, einen Protokollstapel zu entwerfen, der eine Datenübertragungsrate von mehr als 10 GBit/s erreicht. Dieser Protokollstapel soll die Protokolle Ethernet, IPv4, ARP, ICMP und UDP enthalten. Durch eine flexible Struktur der Ports und den Einsatz von generics soll dieser Protokollstapel leicht konfigurierbar und so für viele Anwendungszwecke nutzbar sein.
Zunächst wurde der existierende Protokollstapel von der Xilinx Vertix5 Serie auf die 7er Serie portiert und in Betrieb genommen. Dabei traten Probleme mit dem Transceiver und dem ARP Protokoll auf. Nachdem diese gelöst wurden, konnte ein Konzept für den neuen Protokollstapel erarbeitet werden. Dieser nutzt nun ein – in der Busbreite – flexibles Streaming Interface, um die Geschwindigkeit der Datenübertragung anzupassen.
Da jedes der genutzten Protokolle an die Daten einen Header/Trailer anhängt oder entfernt,
wurden für diese Aufgabe insgesamt vier Low-Level-Module entwickelt. Diese Module wurden
mit Hilfe einer Testbench und einer Testmatrix verifiziert. Die Protokollmodule stellen nun den Header/Trailer zusammen und fügen diese mit Hilfe der Low-Level-Module an oder entfernen diese.
Bei der Simulation des Protokollstapels wurde die Funktion der Protokolle nachgewiesen. Durch die große Busbreite, von 64 Bit bei 10 GBit/s und 128 oder 256 Bit bei 40 GBit/s, schlug allerdings die Timing-Analyse fehl. Der kritische Pfad konnte bei der CRC Berechnung gefunden werden. Durch parallele CRC-Berechnungen wurde eine vorübergehende Lösung dieses Problems für die Geschwindigkeit 10 GBit/s erreicht.
Die Analyse des Ressourcenverbrauchs zeigte, dass der neue Protokollstapel nur wenig Ressourcen in einem FPGA nutzt. Für 10 GBit/s werden lediglich 3000 LUTs und 2400 Register
benötigt. Des weiteren wurde festgestellt, dass der Ressourcenverbrauch nicht proportional zur Busbreite ist. Bei einer Verdopplung der Busbreite werden lediglich 60 % mehr Ressourcen benötigt.
Entwicklung eines miniaturisierten Energieversorgungs-Moduls zur autarken Versorgung von Funkmodulen
(2017)
Diese Abschlussarbeit beschäftigt sich mit der Entwicklung eines miniaturisierten Energieversorgungs-Moduls. Das Modul soll gleichzeitig aus drei Energy-Harvestern Energie sammeln und diese in einem Doppelschichtkondensator zwischenspeichern. Diese Energie kann anschließend von einem Funksensorknoten zum Sammeln und Übermitteln von Daten genutzt werden.
Solch ein aufgebautes System verspricht bei einem geringen Volumen eine hohe Lebensdauer,geringen Wartungsaufwand und eine hohe Leistung, ohne dass eine drahtgebundene Energieversorgung oder große Batterien notwendig sind.
Nach dem Erstellen eins Konzepts und der Auswahl der dafür passenden Komponenten wurde zunächst ein Evaluations-Board aufgebaut. Auf diesem wurden alle in Frage kommenden Komponenten vermessen und die Funktion getestet. Aus den dadurch erworbenen Erkenntnissen wurde das miniaturisierte Energieversorgungs-Modul entwickelt. Das miniaturisierte Modul bietet folgende Möglichkeiten: Aus drei verschiedenen Energy Harvestern wird gleichzeitig die Energie gesammelt und aufbereitet. Durch die Nutzung eines effizienten Wandler-Moduls wird bei der Energieaufbereitung eine Effizienz von über 85 % erreicht. Drei Wandler-Module verbrauchen zusammen lediglich eine Leistung von P = 3, 459 µW. Der Maximum Power Point jedes einzelnen Harvesters kann separat eingestellt werden. Auch alle anderen Komponenten werden stromsparend gewählt. Die Energie wird in einem 1, 5 F Doppelschichtkondensator gespeichert. Zusätzlich wird als Backup-Energieversorgung eine Lithium Knopfzelle eingesetzt.
Dadurch können auch sicherheitskritische Anwendungen realisiert werden. Konnte durch die Energy Harvester nicht genügend Energie gesammelt werden, wird die Batterie dem Funksensorknoten zugeschaltet. Das miniaturisierte Modul hat die Maße 20 mm x 40 mm. Nach abschließenden Messungen mit einem neu implementierten Funksensorknoten, der in einer anderen Bachelorthesis entstanden ist [1], wurde eine Sendewiederholrate von 1, 1 s nachgewiesen. Dies stellt einen sehr guten Wert dar und reicht für die meisten Anwendungen aus.
Zuletzt wird aus allen Komponenten inklusive des Funksensorknotens ein Demonstrationsmuster zusammengebaut. Dieses hat die Maße von 5 cm x 5 cm x 5 cm und kann zur weiterführenden Forschung oder als Anschauungsmaterial genutzt werden.
Der allgegenwärtige Einsatz von numerischen Strömungssimulationen, wie sie in der Industrie oder der Luft- und Raumfahrt vorkommen, führt zu einem deutlichen Anstieg der benötigten Möglichkeiten und erhöhten Ansprüche an die Programme. Dadurch können mittlerweile auch komplexe Szenarien zuverlässig simuliert werden, was durch die stetige Steigerung der Rechenleistung weiter an Bedeutung gewinnt. Da auch das Verhalten von nicht newtonschen Fluiden immer präziser über speziell erstellte rheologische Modelle vorhergesagt werden kann, gilt es nun zu prüfen, ob und wie gut diese Modelle in einer Simulation umgesetzt werden können.
Im Rahmen dieser Arbeit wird eine Simulation anhand eines konkreten Anwendungsfalles erstellt. Dabei wird das Viskositätsverhalten von drei scherverdünnenden Fluiden in einer Rohrleitung mit Querschnittreduzierung untersucht und dabei die Vorgehensweise geschildert. So wird unter anderem gezeigt, wie die Geometrie und deren Vernetzung durchzuführen ist und erklärt, welche Einstellungen für das gewünschte Strömungsverhalten erforderlich sind. Für die Beschreibung der Fluide werden dabei sowohl programmeigene Modelle als auch erweiterte Modelle verwendet, die in der Software implementiert werden müssen.
Bei dem Vergleich der Ergebnisse werden letztlich die Druckverluste, die in der Geometrie entstehen und verschiedene Schubspannungsverläufe mit den Messwerten aus der Literatur verglichen.
3D–Druck hat sich in den letzten Jahren extrem schnell entwickelt und bekommt eine immer größer werdende Bedeutung in der Industrie. Es ist ein Verfahren womit schnell und kostengünstig Modelle, Prototypen, aber auch fertige und einsatzfähige Produkte hergestellt werden können.
Auch Industrieroboter spielen in der Fertigung und Montage eine immer größer werdende Rolle und können flexibel für verschiedene Arbeiten eingesetzt werden.
Im Rahmen dieser Bachelorarbeit werden diese beiden Systeme miteinander kombiniert. Es wird aufgezeigt, wie ein FDM-Druckkopf für die Anwendung an einem Industrieroboter konzipiert, konstruiert und in Betrieb genommen wird, um Drucke am Industrieroboter durchführen zu können.
Die vorliegende Bachelorthesis setzt sich mit dem Einsatz von digitalen Medien in den Bildungseinrichtungen Hochschule und Berufsschule auseinander. Zunächst werden grundlegende Begrifflichkeiten und digitale Medien beschrieben. Anschließend wird der Gerätebesitz Jugendlicher und die Ausstattung der Bildungsinstitute gezeigt. Im Folgenden wird auf den Einfluss der Coronapandemie in Bezug auf die Digitalisierung eingegangen. Anschließend folgen zwei Konzepte, die einen sinnvollen Einsatz von digitalen Medien in der Bildung gewährleisten sollen.
Meer
(2021)
Ein Suchender, zwei schwäbische Kindheitsfreude und eine psychisch Kranke begeben sich auf einen tragischen Roadtrip an die Nordsee.
Der Film beginnt mit einem Standbild von drei Jungs, die ihr Hinterteil in die Kamera zeigen.
Es folgen daraufhin Aufnahmen einer alten Scheune.
Der Sommer ist fast vorbei.
Max, der Protagonist, hat alle Möglichkeiten sein Leben zu gestalten, aber er kann sich für nichts wirklich begeistern. Er besucht seine schwäbischen Kindheitsfreunde Feder und Jorn in seiner Heimat. In einer durchzechten Nacht in ihrer Stammkneipe lernen Sie Eve kennen, die dort ein Bierglas an die Wand wirft. Der neue weibliche Tunichtgut der Gruppe.
Sie beschließen spontan, einen Roadtrip an die Nordsee zu machen.
Gesagt getan, am nächsten Morgen geht es los, doch als Eve eingesammelt wird, steht sie unweit einer Nervenklinik.
Der erste Verdacht ist schnell vergessen und nach anfänglichen Startschwierigkeiten in der neuen Konstellation, begeben sich die vier, in einem alten roten Golf und alten Nokias im Gepäck auf die Reise. Max interessiert sich für Eve und sie scheint dies zu erwidern, wobei Feder misstrauisch wird und mehr über Eves Geschichte erfahren möchte.
Nach ein paar Stunden verfahren sie sich und landen bei einem alten Haus, in dem die blinde, russische Oma Martha haust. Nachdem Martha sie fast mit ihrer Flinte erschießt, geben die vier sich als ihre Enkel aus und dürfen daraufhin bei ihr wohnen.
Sie beschließen, ein paar Tage zu bleiben.
Eve und Max nähern sich weiter an, doch Feders Misstrauen wächst, bis es in einem Streit auf einer Wanderung eskaliert. Eve beichtet, dass sie wegen des Missbrauchs ihres Vaters in der Klinik stationiert ist.
Auf dem Rückweg vertragen sich Feder und Eve wieder, jedoch hat der Streit Spuren bei ihr hinterlassen. Am Haus angekommen, fuchtelt die verwirrte Martha wieder mit ihrer Flinte herum. Nachdem sie die Situation entschärfen, wird Ihnen bewusst, dass Martha kein eigenständiges Leben mehr führen kann.
Ein paar Tage vergehen und es folgt ein Zusammenschnitt mit einer VHS Kamera gedreht, bei der sich die vier Freunde und Martha selbst filmen: beim Einkaufen, bei der Gartenarbeit, beim Tanzen. Sie haben eine gute Zeit.
Eines Morgens sitzt Martha in Trauerkleidung am Küchentisch. Sie erfahren Marthas Familiengeschichte und begeben sich an das Grab ihres Gatten, der unter einem Baum begraben liegt. Da sie aber zwei Sträuße hinlegt, bleibt bei den vier die Frage offen, ob dort noch eine Person beerdigt wurde.
Am selben Mittag bricht Langeweile aus, bis Max auf die Idee kommt, das MDMA zu nehmen, dass er am Anfang der Geschichte in einem Club gekauft hat. Die vier schmeißen sich jeweils eine Plombe ein und der Trip geht los. Sie verbringen einen witzigen Nachmittag miteinander, quasseln einander voll und genießen die gemeinsame Zeit.
Am Abend beschließen sie nachzulegen und fahren mit dem Auto herum, in dem Jorn Max und Eve eifersüchtig durch den Rückspiegel beobachtet.
In der Nacht kann Eve nicht schlafen und Max gesellt sich zu ihr. Auf sein wiederholtes Nachfragen wie es ihr gehe, entsteht ein Streit. Eve ist genervt von Max' Fürsorge und es geht ihr nicht gut, was sie sich jedoch nicht anmerken lässt.
Der Streit schaukelt sich hoch und um sich abzulenken, nehmen sie noch einmal die Droge und die Probleme scheinen gelöst.
Am nächsten Morgen sind alle veraktert. Jorn und Feder beschließen raus zu gehen, Max bleibt mit Eve im Haus, die sich in keiner guten psychischen Verfassung befindet, aber dies wieder vertuscht. Max überredet sie Wein zu trinken, um sich besser zu fühlen. Dies gelingt auch, bis wir später im Badezimmer sehen, wie Eves Fassade bröckelt. Eve reißt sich ein letztes Mal zusammen, sie trinken weiter und kommen sich näher, bis sie miteinander schlafen. Danach redet ihr Max gut zu, doch für Eve ist das nur leeres Gerede und als er eingeschlafen ist, verschwindet sie leise.
Max erwacht und findet einen Zettel und Eves Kette.
Er merkt, dass etwas nicht stimmt und sucht sie. Nach einer kurzen Odyssee findet er Eve erhängt in der Scheune, die wir am Anfang gesehen haben.
Max versucht sie wiederzubeleben, aber vergeblich. In seinem Schock vergräbt er sie und ihre Sachen auf einem naheliegenden Feld, nur den Brief und die Kette behält er.
Als Jorn und Feder zurückkommen behauptet er, dass es Eve nicht gut ging und er sie zur nächstliegenden Straße gebracht hat, von der sie per Anhalter zurück in die Klinik gefahren ist. Die Stimmung ist geknickt und nach einer Diskussion beschließen sie, am nächsten Morgen weiter ans Meer zu fahren und Martha in ein Altenheim bringen zu lassen. Als die Sozialarbeiter kommen, um sie abzuholen, vertreibt Martha die beiden mit Erfolg.
Die Fahrt ans Meer verläuft ereignislos und die beiden Freunde machen sich zunehmend Sorgen um Max, der völlig apathisch wirkt.
An der Nordsee angekommen, konfrontiert Feder Max mit seinem Zustand, woraus ein heftiger Streit entsteht und sie sich prügeln. In die Ecke gedrängt, sagt Max die Wahrheit.
Die beiden glauben es erst nicht, bis er ihnen den Abschiedsbrief und die Kette zeigt. Feder weist alle Schuld von sich, Max bleibt im Schockzustand und Jorn versucht zu vermitteln.
In der Nacht springt Feder über seinen Schatten und verträgt sich wieder mit Max.
Am nächsten Tag fahren sie zurück und besuchen das Grab von Eve. Sie erweisen ihr die letzte Ehre und verbrennen den Brief, aber Max kann sich nicht von der Kette trennen.
Sie fassen den Entschluss, Martha mitzunehmen und sie in einem Altersheim in ihrer Nähe unterzubringen.
Die vier fahren zurück in die Heimat und nachdem sie Martha heimlich in einer Einrichtung abliefern, beschließen sie einen Abstecher in ihre Stammkneipe zu machen.
Die Stimmung wird besser und Feder erklärt, dass sie das Ganze vergessen sollten.
Die beiden anderen stimmen zu, bis Max sieht, dass die Delle von Eves Bierglas nicht mehr da ist. Er rastet aus und nach einer kurzen Rangelei haut er mit Jorns Auto ab.
Aus Verzweiflung heraus und im Affekt wirft er die Kette von Eve aus dem Fenster, jedoch erkennt er, dass das alles ist, was er noch von ihr hat und dreht um.
Im Scheinwerferlicht des Autos sucht er die Kette im Dreck des Feldes und wir entfernen uns von ihm. Er findet sie schließlich.
Ende.
Ziel der vorliegenden Arbeit ist das netzdienliche Betreiben einer Wärmepumpe. Um diese Netzdienlichkeit zu erreichen, wird ein modellprädiktiver Regler entwickelt und implementiert, dessen Ziel es ist die Stromkosten einer Wärmepumpe zu senken. Dazu werden die Variablen Stromkosten und ein simulierter Heizbetrieb betrachtet.
Die Entwicklung eines modellprädiktiven Reglers setzt zunächst eine Modellierung der Komponenten des Heizsystems voraus. Ebenfalls muss eine Kostenfunktion formuliert werden, die es zu minimieren gilt. In einem Optimierungsproblem werden die Modelle als Randbedingungen und die Kostenfunktion als Zielfunktion der Optimierung formuliert. Dazu müssen gewisse Vereinfachungen getroffen werden, um das Optimierungsproblem zuverlässig und ohne enormen Rechenaufwand in einer Regelungsschleife lösen zu können.
Nun wird das Optimierungsproblem mit externen Modulen verknüpft, die eine Kommunikation mit der realen Wärmepumpen, Strompreisprognosen und Wettervorhersagen ermöglichen. Der dabei entwickelte Algorithmus wird auf einem Raspberry Pi Einplatinencomputer gespeichert und dort in einem regelmäßigen Zeitintervall von 15 Minuten ausgeführt, um den Betrieb der Wärmepumpe zu regeln.
Schließlich wird der modellprädiktive Regler in Betrieb genommen. Anschließend kann der modellprädiktive Betrieb mit dem konventionellen Betrieb verglichen werden. Aus dem Vergleich wird deutlich, dass eine modellprädiktive Regelung tatsächlich die Netzdienlichkeit einer Wärmepumpe verbessern kann. Andererseits werden auch die Entwicklungspotentiale identifiziert.
Einseitig transtibiale Amputationen führen häufig zu frühzeitigen degenerativen Erkrankungen wie Arthrose im nicht betroffenen Bein. Die genauen Prozesse, welche zu dieser Erkrankung führen, sind aktuell nicht ausreichend geklärt. Ziel dieser Literaturarbeit war es, ausgewählte biomechanische Parameter auf deren langfristige Auswirkungen auf das Knie- und Hüftgelenk der nicht betroffenen unteren Extremität zu untersuchen. Um die biomechanischen Arthroserisiken zu erfassen, wurden die beiden Maxima der vertikalen Bodenreaktionskraft sowie die externen maximalen Gelenksmomente in der Sagittal- und Frontalebene untersucht. Bestandteil dieser Untersuchung war sowohl der Vergleich dieser Parameter zwischen der nicht betroffenen Extremität der Amputierten mit einer gesunden Kontrollgruppe als auch der Vergleich zwischen der betroffenen und nicht betroffenen Extremität der einseitig amputierten Probanden. Es wurde eine systematische Literatursuche unter Verwendung der Datenbank PubMed durchgeführt, welche ein Suchergebnis von 288 Studien umfasste. Im Rahmen der Arbeit wurden ausschließlich Studien eingeschlossen, die einseitig transtibial amputierte Probanden im ebenerdigen Gehen mit einer passiven Prothese und mit einer selbstgewählten oder einer Gehgeschwindigkeit im Bereich von 0,70-1,40 m/s untersuchten. Ausgeschlossen wurden unter anderem Studien, welche die Nutzung von in den Knochen eingebrachten Prothesen und das Gehen mit zusätzlichem Gewicht untersuchten. Unter Berücksichtigung der zuvor definierten Ein- und Ausschlusskriterien erfolgte die Untersuchung der Fragestellungen anhand von 24 Studien. Die nicht betroffene Extremität der amputierten Probanden wies bis zu 19 % höhere vertikale Bodenreaktionskräfte auf als die Kontrollgruppe. Es wurden ebenfalls erhöhte maximale Adduktionsmomente an dem Knie- und Hüftgelenk der einseitig transtibial Amputierten im Vergleich zu der Kontrollgruppe festgestellt. Der Vergleich der beiden unteren Gliedmaßen der einseitig transtibial Amputierten ergab reduzierte Maxima der vertikalen Bodenreaktionskraft, reduzierte maximale Knieflexions- und Knieadduktionsmomente sowie reduzierte maximale Hüftadduktionsmomente der betroffenen Extremität verglichen zu der nicht betroffenen Seite. Die Ergebnisse dieser Literaturarbeit stimmten weitestgehend mit den Untersuchungsergebnissen weiterer Autoren überein. Die vermutlichen Risikofaktoren für das Auftreten von Arthrose in der allgemeinen Bevölkerung sowie in der untersuchten Population sind das externe maximale Knieadduktionsmoment in Kombination mit asymmetrischen Belastungen der unteren Extremitäten. Speziell für die einseitig transtibial Amputierten könnten Ursachen wie Muskelschwächen, mangelndes Vertrauen in die Prothese und Schmerzen Einfluss auf die Asymmetrie haben. Zukünftig kann eine Verbesserung des Gangbildes und der Symmetrie der Belastungen mit Hilfe von angetrieben Prothesen, welche durch eine aktive Abstoßbewegung der betroffenen Extremität ein physiologischeres Gangbild erzeugen können, erreicht werden. Darüber hinaus eignet sich die Betrachtung von Studien der einseitig transfemoral amputierten Population, um weitere Einblicke in die Kompensationsstrategien und ihre Auswirkungen bei einseitig amputierten Menschen zu erhalten.
Startups sind junge Unternehmen, mit innovativen Produkten oder Dienstleistungen. Mit diesen Produkten oder Dienstleistungen erschließen sie neue Märkte oder fordern in bereits bestehenden Märkten etablierte Unternehmen heraus. Dadurch kurbeln sie den Innovationsprozess in einer Volkswirtschaft stetig an. Für den Aufbau eines neuen Unternehmens und die Entwicklung von Innovationen ist Kreativität gefordert. Im Mittelpunkt dieser Arbeit steht die Kreativität, ihre Bedeutung und ihre Förderung in Startups. In den Grundlagenkapiteln werden die Themen Kreativität, Kreativitätstechniken und Startups umfassend erläutert. Um Erkenntnisse direkt aus der Praxis zu gewinnen, werden in einer empirischen Untersuchung Startup-Gründer*innen befragt. Die daraus gewonnenen Ergebnisse zeigen auf, dass Kreativität eine hohe Bedeutung in Startups hat, allerdings nicht systematisch gefördert wird. Dennoch haben Startups ein kreativitätsförderndes Arbeitsumfeld und es entstehen kreative Ideen, derer sie sich bedienen können.
Die Bachelorarbeit befasst sich mit der SVG-basierten Darstellung von Infografiken auf Webseiten. Ziel ist es die Vorteile der Infografiken im allgemeinen, aber besonders im Web zu vermitteln. Ebenfalls wird der vorteilhafte Nutzen der vektorbasierten Grafikeinbindung auf Webseiten hervorgehoben.
Hierzu werden zunächst alle Bildwahrnehmungs- und wirkungstheorien genauer betrachtet. Anschließend wird ein Blick auf verschiedene Darstellungformen geworfen, für eine grobe Wissensbasis. Mit diesem Wissen kann nun detaillierter auf die Infografiken eingegangen werden. Neben deren Vorteile und Typen, wird auch die Infografikerstellung erläutert. Anschließend folgt eine Betrachtung der Vor- und Nachteile des SVG-Formats sowie dessen Aufbau. SVGs basieren auf einem XML-Code, welcher optimal in den HTML-Code einer Webseite eingebettet werden kann. Das Einpflegen der SVG-Datei wird in der vorliegenden Arbeit genauer behandelt und anschließend in einer praktischen Arbeit umgesetzt. Der praktische Teil besteht aus einer Webseite, welche eine Infografik präsentiert. Die Infografik ist in Form eines Lebenslaufes aufgebaut. Der OnePager besteht aus mehreren Bereichen, welche sich aus SVG-Grafiken zusammensetzen. Das gesamte Konstrukt ergibt eine Flow-Chart, die durch Interaktivität erkundet werden kann. Durch die praktische Arbeit werden die Vorteile der Vektorgrafiken und der Infografiken verknüpft. Ebenfalls wird die gut umsetzbare Integration von XML-Code in HTML-Code hervorgehoben, sodass sich sagen lässt, dass Infografiken und Vektorgrafiken sowohl alleinstehend, als auch in Kombination einen baldigen Aufschwung im Web erfahren werden.
Diese Arbeit beschäftigt sich mit der Entwicklung einer E-Learning Anwendung zum Peer-to-Peer Algorithmus Content Addressable Network (CAN). Ein CAN ist eine verteilte Hashtabelle zur dezentralen Verwaltung von Daten in Form von Schlüssel-Wert Paaren. Zweck der Anwendung ist eine didaktisch sinnvolle Aufbereitung und Darstellung der grundlegenden Abläufe im CAN. Die Anwendung simuliert ein CAN und bietet ein grafisches Interface zur Interaktion. Die Anwendung soll unterstützend im Rahmen des Moduls Advanced Networking im Informatik Master an der Hochschule Offenburg eingesetzt werden.