Refine
Year of publication
Document Type
- Bachelor Thesis (601)
- Master's Thesis (205)
- Conference Proceeding (164)
- Contribution to a Periodical (164)
- Article (reviewed) (157)
- Working Paper (97)
- Periodical Part (50)
- Book (20)
- Report (14)
- Study Thesis (13)
Conference Type
- Konferenzartikel (94)
- Konferenzband (64)
- Konferenz-Abstract (3)
- Sonstiges (2)
- Konferenz-Poster (1)
Has Fulltext
- yes (1512) (remove)
Keywords
- Mikroelektronik (62)
- Marketing (38)
- COVID-19 (24)
- IT-Sicherheit (24)
- Social Media (24)
- E-Learning (22)
- JavaScript (17)
- Künstliche Intelligenz (17)
- Internet der Dinge (16)
- Biomechanik (15)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (386)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (331)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (213)
- Fakultät Medien (M) (ab 22.04.2021) (208)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (173)
- Fakultät Wirtschaft (W) (90)
- INES - Institut für nachhaltige Energiesysteme (67)
- Zentrale Einrichtungen (62)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (28)
- IfTI - Institute for Trade and Innovation (27)
Open Access
- Open Access (826)
- Closed Access (466)
- Closed (218)
- Bronze (155)
- Gold (66)
- Diamond (39)
- Hybrid (38)
- Grün (9)
The primary objective of this thesis is to examine the lean accounting transformation, which involves applying lean management principles to the accounting domain. In recent years, various sectors, including manufacturing, healthcare, and services, have experienced success with lean management practices. Nevertheless, the implementation of lean accounting within financial management has not been as extensively explored. This research aims to bridge that gap by scrutinizing the benefits and potential drawbacks of adopting lean accounting practices in business operations.
This research uses a combination of qualitative techniques and an extensive literature review to better understand the present subject matter. By describing the ideas of lean management and standard accounting and highlighting the fundamental distinctions between the two systems, the literature study lays a theoretical framework. The case studies illustrate the benefits of adopting lean accounting processes with real-world examples of firms that have made the transition effectively.
In the quantitative analysis of lean accounting's impact, both financial and operational factors are examined extensively. The results indicate that companies embracing lean accounting practices experience significant improvements in productivity, cost reduction, and decisionmaking quality. By highlighting the potential gains to be made by incorporating lean techniques into accounting procedures, this study adds to the current body of information on lean management. The findings offer practical implications for accounting professionals, business leaders, and policymakers interested in leveraging lean accounting to drive organizational performance improvement. The thesis finishes with suggestions for further study in this area, lean accounting.
In der heutigen Zeit sind viele Menschen von Rückenschmerzen betroffen. Besonders in der Industrie, beispielsweise im Bereich der Logistik oder der Produktion, kommt es durch die gesundheitlichen Beschwerden zu Arbeits- und Produktionsausfällen. Um den Beschwerden vorzubeugen, werden Exoskelette entwickelt, die das Muskel-Skelett-System unterstützen.
Exoskelette sind am Körper getragene Assistenzsysteme, die mechanisch auf den Körper einwirken. Insbesondere reduzieren sie den Kompressionsdruck im Bereich des unteren Rückens. In diesem Zusammenhang wird mit der vorliegenden Bachelorarbeit die Entlastung der Lendenwirbel durch den Einfluss von Exoskelett-typischen Kräften, die im Bereich des Brustkorbs und der Oberschenkel wirken, untersucht. Dabei beschränkt sich die Untersuchung auf eine Anhebung, wie beispielsweise die Anhebung einer Kiste.
Mithilfe eines markerbasierten und nicht-invasiven 3D-Aufnahmeverfahrens wird eine Hebebewegung ohne Exoskelett aufgenommen. Die experimentelle Aufnahme wird in der Software OpenSim mit einem computerbasierten Skelettmodell verknüpft. Durch das Hinzufügen von Exoskelett-typischen Kräften, die auf das Skelettmodell beim Anheben wirken, wird die Krafteinwirkung während des Tragens eines Exoskeletts simuliert. Dabei entstehen Drehmomente im unteren Rückenbereich, die in dieser Arbeit analysiert werden.
Die Auswertung des nicht-invasiven Verfahrens liefert die Erkenntnis, dass der Einsatz eines Exoskeletts beim Anheben im Bereich der Lendenwirbel zu einer Verringerung der Drehmomente und somit zu einer Verringerung der Belastung des unteren Rückens führt.
Für die flächendeckende Einführung von IP-basierter Infrastruktur benötigt der WDR Werkzeuge zur Bewertung von Qualitätskriterien komplexer Mediennetzwerke. Zu diesem Zweck wurde die Web-Applikation "Netztest" entwickelt.
Die Applikation besitzt eine intuitive Benutzeroberfläche und ermöglicht eine Bedienung ohne Netzwerk-technisches Hintergrundwissen. Sie greift über die Programmierschnittstelle auf die Messfunktionen der Software "Fusion" von VIAVI Solutions zu. "Fusion" bietet umfassende Konfigurationsmöglichkeiten und ist für ein Nutzende ohne technisches Hintergrundwissen schwer einsetzbar. Die Applikation "Netztest" vereinfacht die Schnittstelle zum Nutzenden und begrenzt die Funktionsvielfalt auf für den Anwendungsfall passende Testkonfigurationen.
Zu Beginn dieser Arbeit werden mit Hilfe einer Anforderungsanalyse Optimierungsmöglichkeiten der Applikation aufgezeigt. Anschließend wird die Implementierung eines UDP-basierten Teststandards vorgenommen, da "Netztest" bisher nur einen TCP-basierten Test bot. Das verbindungslose Transportprotokoll UDP eignet sich insbesondere für die Übertragung von Audio- und Videodaten. Für den WDR als Produktionsunternehmen solcher Medien ist ein Durchsatztest, der auf UDP basiert daher unabdingbar.
Der Code der Anwendung wird so angepasst, dass beide Tests weitestgehend dieselben Funktionen verwenden und in Zukunft problemlos weitere Tests implementiert werden könnten. Nach dem Durchlaufen eines Tests werden die Ergebnisdaten graphisch dargestellt. Das Piktogramm einer Ampel zeigt dem oder der Nutzenden an, ob die gemessene Verbindung einsatzbereit, ausreichend oder nicht ausreichend ist.
Die Implementierung des Y.1564-Tests und damit das Ziel dieser Arbeit konnte erreicht werden, doch es gibt noch Schwachstellen und Verbesserungsmöglichkeiten, die vor einer Inbetriebnahme der Anwendung "Netztest" beseitigt werden müssten.
Die Einführung der extrakorporalen Zirkulation unter Verwendung eines medikamentös induzierten Herzstillstands ermöglicht der Herzchirurgie die Herzoperationen, wie sie heute bekannt sind. Eine große Debatte besteht in der optimalen Zusammensetzung und Anwendungsweise der kardioplegischen Lösungen [6]. In der Helios Klinik für Herzchirurgie in Karlsruhe werden die kalte, kristalloide Kardioplegie nach Bretschneider und die modifizierte, kalte Blutkardioplegie nach Calafiore verwendet. Die vorliegende Arbeit beschäftigt sich mit der Frage, ob die Wahl der Kardioplegie Einwirkungen auf den intraoperativen und postoperativen Verlauf einer Bypass-Operation hat.
In der dazu angefertigten Studie wurden die Daten von 135 KHK Patienten retrospektiv erfasst und statistisch analysiert. Darunter wurden 81 Patienten mit der kalten Blutkardioplegie nach Calafiore behandelt und 53 Patienten mit der kristalloiden HTKLösung nach Bretschneider. Die demografischen Daten und Dringlichkeit der Operationen unterscheiden sich nicht signifikant voneinander. Bei den intraoperativen Parametern sind hinsichtlich der Hämoglobin-, Natrium-, und Kaliumkonzentration signifikante Unterschiede erkennbar. Weitere intraoperative Laborwerte zeigen keine Signifikanz. Die intraoperativen Parameter der Myokardprotektionsverfahren unterscheiden sich bezüglich der verabreichten Kardioplegiemenge. Bei postoperativen Parametern sind keine besonderen Signifikanzen notiert.
Die kristalloide Kardioplegie nach Bretschneider wie auch die modifizierte kalte Blutkardioplegie nach Calafiore sind sichere und effektive Verfahren. Einige Unterschiede konnten zugunsten der Blutkardioplegie nach Calafiore gefunden werden, die spezifisch für das jeweilige Verfahren sind. Zwingende Argumente für oder gegen eines dieser Verfahren konnten nicht gefunden werden.
Den Hauptbestandteil des Operationssystems stellt der Zugriff auf SD-Karten mit dem Dateisystem FAT16 von Microsoft dar. Für die Bedienung wurde ein Kommandozeileninterpreter implementiert. Als Ein- und Ausgabegerät dient ein PC mit einem speziellen Terminalprogramm, welcher über USB mit dem Emulationsboard des SIRIUS Softcores verbunden ist. Das System wird über die Eingabe von Befehlen am Terminal gesteuert.
Der SIRIUS Softcore kann nur vom Flash des Emulationsboards booten. Da das Betriebssystem selbst jedoch auf der SD-Karte gespeichert werden soll, ist ein Basis-Betriebssystem erforderlich, welches im Flash abgelegt ist. Das Basis-Betriebssystem lädt gleich nach dem Start das eigentliche Betriebssystem von der SD-Karte. Falls jedoch keine SD-Karte gesteckt ist, ermöglicht das Basis-Betriebssystem mit einem Kommandozeileninterpreter einige Grundfunktionen.
Der Cache-Speicher für den Softprozessor SIRIUS ist ein 4-fach assoziativer Cache-Speicher, der mit einem DDR-Interface auf einen externen Speicher zugreifen kann. Er verwaltet und beschleunigt Zugriffe vom Prozessor auf diesen Speicher. Der Cache-Speicher arbeitet intern mit 32 Bit und der doppelten Prozessortaktfrequenz und ermöglicht Systeme mit größeren Speicheranforderungen ohne signifikante Performanceverluste. Der Cache-Speicher wurde mit der Hardwarebeschreibungssprache VHDL erstellt und mit dem bestehenden Mikrocontrollersystem verbunden.
Das Gesamtsystem wurde zunächst simuliert und anschließend mit dem Cyclone III FPGA Starter Kit von Altera, welches ein 32 MB DDR-RAM-Modul zur Verfügung stellt, durch Ausführen eines Testprogramms erfolgreich verifiziert. Für den kompletten Cache-Speicher werden inklusive der Pins für den externen Oszillator und des Reset-Tasters 3805 Logik-Zellen, 27 M9K-Blöcke, 44 Pins und eine PLL benötigt.
Risk-based Cybermaturity Assessment Model - Protecting the company against ransomware attacks
(2023)
Ransomware has become one of the most catastrophic attacks in the previous decade, hurting businesses of all sorts worldwide. So, no organization is safe, and most companies are reviewing their ransomware defensive solutions to avoid business and operational hazards. IT departments are using cybersecurity maturity assessment frameworks like CMMC, C2M2, CMMI, NIST, CIS, CPP, and others to analyze organization security capabilities. In addition to maturity assessment models for the process layer and human pillar, there are much research on the analysis, identification, and defense of cyber threats in product/software layers that propose state-of-the-art approaches.
This motivates a comprehensive ransomware cyber security solution. Then, a crucial question arises: “How companies can measure the security maturity of controls in a specific danger for example for Ransomware attack?” Several studies and frameworks addressed this subject.
Complexity of understanding the ransomware attack, Lack of comprehensive ransomware defense solutions and Lack of cybermaturity assessment model for ransomware defense solutions are different aspects of problem statement in this study. By considering the most important limitations to developing a ransomware defense cybermaturity assessment method, this study developed a cybermaturity assessment methodology and implemented a Toolkit to conduct cyber security self-assessment specifically for ransomware attack to provide a clearer vision for enterprises to analyze the security maturity of controls regardless of industry or size.
Proteine spielen eine entscheidende Rolle im Stoffwechsel aller Lebewesen. Für die Lebensmittelindustrie sind die Grundbausteine der Proteine, besonders interessant, da sie den Geschmack von Lebensmitteln stark beeinflussen können, oder sich in Form von Supplementen als Nahrungsergänzungsmittel für Sportler eignen. Zur Gewinnung dieser Aminosäuren werden unteranderem Aminopeptidasen verwendet. In dieser Arbeit wurden fünf fungale Aminopeptidasen Pep 1 aus Aspergillus turcosus, Pep 4 aus Aspergillus thermomutatus, Pep 6 aus Coccidioides posadasii C735 delta SOWgp, Pep 7 aus Trichophyton interdigitale H6 und Pep 8 aus Onygena corvina in Pichia pastoris rekombinant exprimiert, mittels Ultrafiltration aufkonzentriert und biochemisch charakterisiert. Die Aminopeptidasen aus Aspergillus turcosus (Pep 1), Aspergillus thermomutatus (Pep 4) und Trichophyton interdigitale H6 (Pep 7) hatten ihr pH-Optimum bei pH 9, während die Aminopeptidasen aus Coccidioides posadasii C735 delta SOWgp (Pep 6) und Onygena corvina (Pep 8) bei pH 8,5 die höchste Aktivität aufwiesen. Die Temperaturoptima lagen bei 60 °C (Pep 1 und Pep 6) und 50 °C (Pep 4, Pep 7 und Pep 8) und alle waren zwischen 45 und 55 °C für 15 Minuten temperaturstabil. Die Aminopeptidasen hatten nach der Deglykosilierung ein Molekulargewicht von 57 (Pep 1), 52 (Pep 4 und Pep 7), 54 (Pep 6) und 53 kDA (Pep 8). Mit Leu-pNA als Substrat zeigten die fungalen Aminopeptidasen maximale spezifische Umsatzgeschwindigkeiten von 357 (Pep 1), 238 (Pep 4), 2000 (Pep 6), 56 (Pep 7) und 476 nkat/g (Pep 8). Pep 1 wurde am stärksten positiv von Bivalenten Ionen wie Mg2+, Co2+, Mn2+ und Ca2+ beeinflusst, in Gegenwart von 0,1 mM Mg2+ konnte eine relative Enzymaktivität von 345 % im Vergleich zum Referenzwert gemessen werden. Bei den anderen Aminopeptidasen konnten inhibitorische Effekte festgestellt werden. Bie allen fungalen Aminopeptidasen bei der Hydrolyse von vorhydrolysiertem Gluten die Freisetzung von Aminogruppen festgestellt werden, somit eignen sich die Aminopeptidasen in Kombination mit Endopeptidasen zur Hydrolyse von Proteingemischen. Bei der Hydrolyse konnte zudem die Freisetzung von Glutamin durch das L-Glutamine/Ammonia Assay Kit (Rapid) von Megazyme nachgewiesen werden.
Für die Implementation in ASIC's wurde ein kompakter Mikroprozessor-Kernel als Standardzellen-Makro entworfen. Durch konsequenten Einsatz von Hochsprachen und CAE-Werkzeugen (VHDL, Synthese) konnte ein vollständiges Design in nur vier Monaten durchgeführt werden. Der Prozessor wird in einem Testchip erprobt.
Die Virtual Reality (VR) ist eine spannende technische Lösung, um virtuelle Welten zu erschaffen. Die dabei simulierten Immersionen faszinieren die Menschen im privaten Leben, in der Forschung und in der Wirtschaft gleichermaßen. Im monatlichen Zyklus präsentieren namhafte Hersteller neue VR‐Geräte und Softwarelösungen, um die virtuelle Welt noch flüssiger und noch hochauflösender darzustellen. Die Einsatzgebiete hierbei zeigen sich unendlich vielseitig und verteilen sich unter anderem auf den privaten Medienkonsum, die innovative Gaming‐Branche und auf unternehmerische Anwendungsmöglichkeiten. Virtuelle Rundgänge durch Hallen und Betriebe schaffen dem Verkäufer und dem Kunden die Möglichkeit, Produkte schon vor ihrer Fertigstellung gemeinsam als visuelles Objekt im Raum zu betrachten. Die Gestaltung virtueller Erlebnistouren oder Rundgänge durch das geplante Eigenheim sind schon seit ein paar Jahren fester Bestandteil in der Marketingkommunikation.
Diese Bachelorarbeit beschäftigt sich mit der Vorstellung und Anwendung von Maßnahmen des Suchmaschinenmarketings, um die Positionierung der Website www.phoenix-biker-tours.de auf den Suchergebnisseiten von Google zu optimieren. Phoenix-Biker-Tours ist ein kleiner Reiseanbieter für geführte Motorradtouren welt-weit. Das Unternehmen verfügt über eine Website, die jedoch bisher für Suchmaschinen nicht optimiert wurde.
Die vorliegende Arbeit „Platform enabled Web - Webanwendungen auf Basis öffentlicher APIs am Beispiel von Facebook und Instagram“ beschäftigt sich mit einer Nische im Bereich der Webanwendungen. Unter Betreuung der Firma „Visual Statements“ wurde eine Webanwendung realisiert, deren Mehrwert ausschließlich auf den öffentlich zugänglichen Schnittstellen der Plattformen Facebook und Instagram basiert. Das Social Media Dashboard erlaubt der Redaktionsabteilung von Visual Statements die exakte Analyse der relevanten Key Perfomance Indikatoren des gesamten Markennetzwerks.
Zu Beginn der Arbeit wurde der Begriff API und die damit in Verbindung stehenden Architekturen des Webs beleuchtet. Es wurde gezeigt, welche wichtigen Konzepte, wie diverse Repräsentationsformate oder Autorisierungsverfahren, eine Basis für zuverlässige und offene Web-APIs bilden. Eigens für diese Arbeit realisierte Minimalbeispiele veranschaulichten die Implementation in der Praxis und machten die aufgezeigten Konzepte zugänglicher.
Anschließend folgte eine Analyse offener Web-APIs und der darauf basierenden Anwendungen im WWW. Eine umfassende Betrachtung der verschiedenen Anwendungsbereiche mit unterschiedlichen Beispielen verdeutlichte die Bedeutung des APIs in einem großen Spektrum diverser Sektoren. Dabei wurde nicht nur der technische Anwendungsbereich untersucht - auch auf Schnittstellen mit dem ökonomischen Sektor und den dortigen Einfluss von APIs wurde eingegangen. Daraufhin wurde erörtert, welchen Nutzen offene APIs in diesen Bereichen haben, welche Hindernisse für eine erfolgreiche Etablierung zu überwinden sind und welche Lösungsansätze hierbei bereits existieren.
Das bekannte Graph API von Facebook, welches die unmittelbare Bezugsquelle aller Informationen darstellt, die für das Social Media Dashboard benötigt wurden, wurde anschließend genau beschrieben. Der Abschnitt zeigte zudem, weshalb Facebook längst nicht mehr nur eine Plattform für den Kommunikationsaustausch ist, sondern vielmehr ein eigenes Ökosystem für Entwickler, Kreative und Unternehmen geschaffen hat. Die immense Menge an zugänglichen Daten, das umfangreiche Angebot an open-source Software und die verschiedenen Initiativen, welche von Facebook als Plattform zur Verfügung gestellt werden, unterstreichen die gemachten Erkenntnisse.
Auf Basis der Möglichkeiten, die dieses Ökosystem zu bieten hat, wurde das Projekt in Zusammenarbeit mit Visual Statemens spezifiziert. So schloss sich die Definition des Anforderungsprofils nahtlos an die Übersicht zu Facebooks Plattform an. Unter Berücksichtigung verschiedener Kriterien wurde hier das Bild des gewünschten Ergebnisses gezeichnet, welches im folgenden und abschließenden Kapitel umgesetzt wurde. Unter Verwendung von Node.js als serverseitiger Software und einer großen Anzahl eingebundener Module wurde eine funktionsfähige und datenbanklose Webanwendung realisiert, welche sämtliche Informationen aus den offenen APIs von Facebook und Instagram bezieht. Visual Statements besitzt nun ein maßgeschneidertes Tool zur Analyse der Social Media Performance und kann unabhängig von kostenpflichtigen Anbietern auf die wertvollen Informationen zugreifen.
In dieser Arbeit wird der Bildbearbeitungsprozess von Dokumenten mithilfe von einem schlicht gehaltenem Neuronalen Netzwerk und Bearbeitungsoperationen optimiert. Ziel ist es, abfotografierte Dokumente zum Drucken aufzubereiten, sodass die Schrift gut lesbar, gerade und nicht verzerrt ist und Störfaktoren herausgefiltert werden. Als API zur Verfügung gestellt, können Bilder von Dokumenten beliebiger Größe und Schriftgröße bearbeitet werden. Während ein unter schlechten Bedingungen schräg aufgenommenes Bild nach Tesseract keine Buchstaben enthält, wird mit dem bearbeiteten Bild davon eine Buchstabenfehlerrate von 0,9% erreicht.
Die Vision vom "Internet der Dinge" prägt seit Jahren Forschung und Entwicklung, wenn es um smarte Technologien und die Vernetzung von Geräten geht. In der Zukunft wird die reale Welt zunehmend mit dem Internet verknüpft, wodurch zahlreiche Gegenstände (Dinge) des normalen Alltags dazu befähigt werden, zu interagieren und sowohl online als auch autark zu kommunizieren. Viele Branchen wie Medizin, Automobilbau, Energieversorgung und Unterhaltungselektronik sind gleichermaßen betroffen, wodurch trotz Risiken auch neues wirtschaftliches Potential entsteht. Im Bereich "Connected Home" sind bereits Lösungen vorhanden, mittels intelligenter Vernetzung von Haushaltsgeräten und Sensoren, die Lebensqualität in den eigenen vier Wänden zu erhöhen. Diese Arbeit beschäftigt sich mit dem Thread Protokoll; einer neuen Technologie zur Integration mehrerer Kommunikationsschnittstellen innerhalb eines Netzwerks. Darüber hinaus wird die Implementierung auf Netzwerkebene (Network Layer) vorgestellt, sowie aufbereitete Informationen bezüglich verwendeter Technologien dargestellt.
Für die Prognose von Zeitreihen sind bezüglich der Qualität der Vorhersagen heutzutage neuronale Netze und Deep Learning das Mittel der Wahl. LSTM-Netzwerke etablierten sich dazu als eine gut funktionierende Herangehensweise. 2017 wurde der auf Attention basierende Transformer für die Übersetzung von Sprache vorgestellt. Aufgrund seiner Fähigkeit mit sequenziellen Daten zu arbeiten, ist er auch für Zeitreihenprobleme interessant. Diese wissenschaftliche Arbeit befasst sich mit der Vorhersage von Zeitreihen mit einem Transformer. Es wird analysiert, inwiefern sich ein Transformer für Zeitreihenvorhersagen von einem Transformer für Sprachübersetzungen unterscheidet und wie gut die Vorhersagen im Vergleich zu denen eines LSTM-Netzwerkes abschneiden. Dazu werden ein LSTM- und ein Transformer-Netzwerk auf Luftqualitäts- und Wetterdaten in Berlin trainiert, um den Feinstaubgehalt (PM25) in der Luft vorherzusagen. Die Ergebnisse werden mit einem Benchmark-Modell anhand von Evaluationsmetriken verglichen. Anschließend wird evaluiert, wie die Fehler des Transformers reduziert werden können und wie gut der Transformer generalisiert.
Diese Bachelor Thesis behandelt das Thema MQTT 5, ein Anwendungsprotokoll im Internet der Dinge, das im Januar 2018 veröffentlicht wurde. MQTT 5 dient zur Kommunikation zwischen Geräten die mit dem Internet verbunden sind.
Innerhalb dieser Thesis werden die Neuerungen und Verbesserungen von MQTT 5 beschrieben.
Es wird untersucht, welche Mikrocontroller, SoC-Computer, Programmier-Frameworks und lattformdienste MQTT 5 unterstützen.
Anschließend wird die Entwicklung eines Smarthome-Szenarios beschrieben, das im "Interaktive Verteilte Systeme Labor" an der Hochschule Offenburg zur Anwendung kommt.
Um die Umgebung während der Durchführung von Laborversuchen zu verbessern,werden die Temperatur, Luftfeuchtigkeit, Luftqualität, Lautstärke und Lichtstärke im Labor gemessen.
Diese Werte werden anhand von Lichtern, die ihre Farbe ändern und einer Steckdose, die sich je ach Wert ein- und ausschaltet, visualisiert.
The cellulase-producing Trichoderma reesei strain RL-P37 exhibits significant potential, yielding 7.3 g/L of cellulase in 241 hours. Microscopic investigations reveal a link between spore formation and enzyme production, suggesting the need for research into the intricate relationship between enzyme production, stress responses, and the nutritional prerequisites of fungi. Comparatively, the use of sodium hydroxide (NaOH) treatment, as opposed to water treatment, results in the reduction of micronutrient content and carbon source extraction as filtrate. Despite these challenges, research by He et al. (2021) highlights NaOH's efficiency in cellulose extraction from plant-based sources. Using NaOH pretreatment can be proven as effective by designing a proper cultivation method. The selection of inducers for enzyme induction gains importance, with soluble inducers, as emphasized by Zhang et al. (2022), exhibiting superior effectiveness. Hence, adopting soluble inducers in designing cultivation methods for improved enzyme production in shaking flasks is recommended. Enzymatic treatment of bio-waste, as outlined by Hu et al. (2021), shows promise in augmenting essential component content by breaking down plant cell walls and intercellular compartments. However, the feasibility of using an artificial bio-waste medium for cultivating Trichoderma reesei is questioned. Investigating the impact of micronutrient levels, particularly the inhibitory role of zinc, on fungal growth becomes essential. These findings underscore the necessity for ongoing research and optimization in cellulase production, emphasizing both strain productivity and cultivation methodologies.
Das Projekt PHOTOPUR soll die Reduzierung von Pestiziden in Oberflächengewässern ermöglichen. In dieser Arbeit wird eine Automatisierung eines ersten Demosystems entwickelt, welches den gesamten Reinigungsprozess abbildet. Eine Projektierung der Automatisierung des Systems wird mit den dafür vorgesehenen Fließschemas und Gerätelisten durchgeführt. Darauf aufbauend wird die Ablaufsteuerung des Demosystems durch einen Ablauf-Funktionsplan umgesetzt. Um eine Systemüberwachung der Anlage zu gewährleisten wurde dazu eine Visualisierung ausgearbeitet. Zusätzlich wurden die Regelstrecken der Durchflussregelungen in den zwei Teilprozessen des Reinigungsprozesses bestimmt und durch unterschiedliche Einstellregeln der optimale Regler der Regelkreise ermittelt.
Die in dieser Arbeit entwickelte Software, beinhaltet die drei folgenden Umsetzungen: Realisierung der Ablaufsteuerung, Implementierung der Reglerparameter durch einen vorhandenen Regelalgorithmus und die Visualisierung des Demosystems.
Vertriebspolitik hat in den letzten Jahren, verstärkt etwa durch Trends zur Optimierung logistischer Ketten, aber auch zum Online-Handel, als Marketing-Instrument enorm an Bedeutung gewonnen. Gleichzeitig und fast in gleichem Maße wuchs aber auch die Anzahl diesbezüglicher rechtlicher Regulierungen zu den vertrieblichen Aktivitäten von Unternehmen kontinuierlich an. Die nachstehende Übersicht zeigt beispielhaft die Vielfalt an zu beachtenden Regelungen auf. Um eine effizient begründete und so durchaus zwingend notwendige Reduktion der Komplexität derart umfassender Regelwerke zu erreichen, die davon betroffenen Funktions- und Entscheidungsträger eines Unternehmens also „den Wald vor lauter Bäumen“ noch erkennen zu lassen, vor allem aber um diese wirkungsvoll zu unterstützen, lehnt sich das vorliegende Arbeitspapier bei der Vor- und Darstellung der betreffenden Rechtsnormen an die, in der Betriebswirtschaftslehre, speziell im Marketing, üblichen Strukturen der vertriebspolitischen Aktivitäten eines Unternehmens an. Dementsprechend wird der Rechtsrahmen der Vertriebspolitik nach Rechtsnormen, die zum einen die akquisitorische, zum anderen die logistische Distribution betreffen, gegliedert. Weiterhin wird bei der akquisitorischen Distribution unterschieden in direkten und indirekten Vertrieb mit einer weiteren Unterteilung des indirekten Vertriebes nach Absatzmittlern und Absatzhelfern. Ein derartiger Aufbau vermag die Behandlung der zumeist komplizierten juristischen Sachverhalte zu einem durchaus nicht nur praxisrelevanten, sondern auch praxisgeeigneten Forschungsbeitrag werden zu lassen.
Ziel des vorliegenden Leitfadens für den Mittelstand ist es, zu einer Lösung der im Spannungsfeld zwischen Marketing und Recht zu bewältigenden Aufgaben, die von vielen heute als die wichtigsten der Unternehmensführung überhaupt angesehen werden, beizutragen. In diesem Sinne liefert der Leitfaden Ihnen einen umfassenden Überblick über den, das Marketing beeinflussenden Rechtsrahmen und zeigt gleichzeitig Gestaltungsoptionen eines präaktiven Handelns auf. Der Leitfaden lehnt sich, dieses Ziel unterstützend, dem klassischen Kanon der Marketinginstrumente an.
Ziel dieses Ratgebers ist es, die für Unternehmensgründer relevanten juristischen Aspekte aufzuzeigen und diese hierfür zu sensibilisieren. Während Ratgeber zur Ideengewinnung, zur Vermarktung oder auch zu Finanzierungsfragen relativ häufig zu finden sind, werden die rechtlichen Rahmenbedingungen kaum beleuchtet. Dabei weisen die Komponenten eines Start-up-Marketing unterschiedliche Schwerpunkte und Vertiefungsgrade zum traditionellen Marketingauf. Dieses wird im vorliegenden Ratgeber auch im Hinblick auf die rechtlichen Rahmenbedingungen berücksichtigt.
Zu Beginn steht die Innovation oder die Geschäftsidee im Mittelpunkt. Diese sowie eine damit verbundene Marke gilt es zu schützen. Weitere zentrale Anfangsüberlegungen betreffen die zu wählende Rechtsform. Wichtige Aspekte sind zudem aus rechtlicher Sicht die Verträge mit den Investoren und diejenigen Rechtsfragen, die mit dem Internet verbunden sind, vor allem der Onlinevertrieb oder die Social-Media-Nutzung. Bei der Vermarktung seiner Leistungen muss ein Start-up-Verantwortlicher rechtliche Fragen möglichst proaktiv berücksichtigen sowie darauf achten, dass sein Verhalten im Wettbewerb nicht durch unlauteres Handeln geprägt wird.
Dieser Ratgeber orientiert sich bei der Vorstellung der rechtlichen Rahmenbedingungen am Ablauf des Gründungsprozesses eines Start-ups:
➢ Anmeldung,
➢ Schutz der Geschäftsidee,
➢ Wahl der Rechtsform und
➢ Marketingaktivitäten.
Die Digitalisierung der Gesellschaft betrifft nicht nur einzelne Lebensbereiche, sondern beeinflusst und verändert enorm die Arbeitswelt. In diesem Sinne wird oft im Rahmen des Zukunftsprojekts Industrie 4.0 von Arbeiten 4.0, Arbeitswelt 4.0 und Arbeitsrecht 4.0 berichtet. Komplexe Produktionsprozesse lassen sich durch die Vernetzung von Systemen zu unterschiedlichen Zeiten und an nahezu jedem Ort steuern. Diese neuen Freiheiten können wiederum von den Arbeitnehmern positiv genutzt werden, um die persönliche Arbeitsgestaltung weiter zu individualisieren. Somit können beispielsweise die Arbeitszeiten und der Arbeitsort an die eigenen Bedürfnisse angepasst werden. Außerdem können diese sich neu ergebenden Möglichkeiten die Beschäftigten in ihrer Arbeitstätigkeit entlasten. Durch die Einführung neuer Technologien ergeben sich somit neue Chancen, aber auch Herausforderungen für das Arbeitsrecht. Infolgedessen sind diverse Handlungsfelder beziehungsweise Problemfelder betroffen, die es in diesem neuen Arbeitspapier darzustellen gilt. Es bezieht sich dabei speziell auf die Arbeitszeit, den Arbeitsort, die Arbeitnehmerqualifikation und die Datensicherheit. In diesem Zusammenhang werden die derzeit bestehenden Gesetze und Richtlinien aufgezeigt, die im Rahmen der Industrie 4.0 eine Rolle spielen. Auch die Herausforderungen, die durch die Interaktion der Digitalisierung in der Arbeitswelt aufkommen, gilt es, in diesem Arbeitspapier hervorzuheben.
Die Unternehmenslandschaft, nicht nur in Deutschland, sondern weltweit, wird aktuell gerade in all ihren Bereichen vor allem von der stetig wachsenden Welle der Digitalisierung nachhaltig geprägt. Die ganzen Auswirkungen davon in der Zukunft lassen sich im Augenblick oft noch nicht einmal ansatzweise erahnen. Das hier zu beobachtende Collingridge-Dilemma besteht darin, dass Wirkungen nicht leicht prognostiziert werden können, solange die betreffenden Technologien noch nicht ausreichend entwickelt und in Folge entsprechend weit verbreitet sind. Deren Gestalten beziehungsweise gewünschtes Ändern und Anpassen werden jedoch umso schwieriger, je intensiver die Technologien bereits verwurzelt sind. Die Digitalisierung stellt dabei nur einen, wenn auch wohl gravierendsten Aspekt derartiger Veränderungserscheinungen beziehungsweise -herausforderungen dar. Der Wandel des wirtschaftlichen und politischen Umfeldes auf globaler Ebene ist unumstritten. Zugleich ist eine zunehmende Komplexität festzustellen, die es erschwert, im Sinne einer verlässlichen Planung heute solide fundierte Entscheidungen für die zukünftige Entwicklung zu treffen.
Extended Reality (XR) durchläuft aktuell einen rasanten Entwicklungsprozess. Die Einsatzmöglichkeiten für die Wirtschaft sind vielfältig und die Bedeutung der neuartigen Technologie steigt kontinuierlich. Insbesondere der rapide Preisverfall der benötigten Hardware führt zu einer zunehmenden Markdurchdringung, wodurch sich XR-Systeme auf dem Massenmarkt etabliert haben.
Die Veröffentlichung richtet sich an Unternehmer, die sich einen Überblick über XR verschaffen möchten und abwägen, ob die Technologie in ihre Unternehmensprozesse eingebunden werden soll. Um die Entscheidung zu erleichtern, gibt die Publikation Auskunft über zentrale Aspekte wie Entwicklungsstand, Projektablauf und Einsatzmöglichkeiten. Aufgrund des enormen Potenzials der Technologien empfehlen die Autoren, dass Unternehmen frühzeitig Einsatzmöglichkeiten dieser Technologien evaluieren. Die Planung und Umsetzung setzen allerdings immer ein durchdachtes und systematisches Vorgehen voraus.
Auf Grund der hohen Bedeutung des Internets als Informations-, Kommunikations- und Absatzkanal werden Online-Marketing Maßnahmen immer wichtiger. Dies gilt auch für kleine und mittelständische Unternehmen (KMU). Vielfach haben diese allerdings Schwierigkeiten mit der Nutzung von Online-Marketing Maßnahmen, unter anderem fehlt es häufig am nötigen Know-How. Im Mittelpunkt der Studie stehen Online-Marketing Maßnahmen und deren Nutzung bei kleinen und mittelständischen Unternehmen in der Region Ortenau. Hierzu wurde im Dezember 2015 eine Online-Befragung mit 2.138 Unternehmen durchgeführt. Daneben wurden 2.138 Webseiten im Hinblick auf Suchmaschinenoptimierungsmaßnahmen mit dem Google Online-Tool PageSpeed Insights analysiert. In der Studie werden zunächst die untersuchten Online-Marketing Maßnahmen vorstellt. Im Mittelpunkt dieses Ergebnisberichtes stehen die Ergebnisse der Online-Befragung zur aktuellen Nutzung von Online-Marketing Maßnahmen in der Region Ortenau. Darüber hinaus werden die Resultate einer Analyse zur Suchmaschinenoptimierung präsentiert. Durch die Verknüpfung der Ergebnisse aus der Online-Befragung sowie der SEO-Analyse werden abschließend Handlungsempfehlungen vorgestellt, wie kleine und mittelständische Unternehmen von Online-Marketing Maßnahmen profitieren können.
Im Rahmen der weiter voranschreitenden Globalisierung des internationalen Waren- und Handelsverkehrs wächst auch der weltweit virtuelle Zahlungsverkehr. Die Entwicklung eines derartigen Waren- und Zahlungsverkehrs wurde durch den Stand der jeweils vorliegenden Möglichkeiten des Zahlungsverkehrs fundiert, oftmals auch gefördert. Dabei hat gleichzeitig das interregional und international tätige Handelsmanagement selbst nützliche Formen eines Zahlungsverkehrs geschaffen und initiiert. Dieses gilt vor allem auch für das 19. Jahrhundert. Der Beitrag1 verfolgt insbesondere das Ziel, die Entwicklung, Organisation und Technik des vor allem von privaten Bankhäusern getragenen interregionalen und internationalen Zahlungsverkehrs im 19. Jahrhundert zu analysieren.
Vorgestellt wird ein Konzept zur biologischen Methanisierung von Wasserstoff direkt in Biogasreaktoren, mit dem durch Membranbegasung der Methangehalt des Biogases auf > 96 % erhöht werden kann. Essentiell zum Erreichen solch hoher Methanwerte sind die Einhaltung eines optimalen pH-Bereichs und die Vermeidung von H2-Akkumulation. Im Falle einer Limitierung der Methanbildungsrate durch den eigentlichen anaeroben Abbauprozess der Biomasse ist auch eine externe Zufuhr von CO2 zur weiteren Methanbildung denkbar. Das Verfahren soll weiter optimiert und in einem von der Deutschen Bundesstiftung Umwelt geförderten Projekt in der Biogasanlage einer regionalen Käserei in der Praxis getestet werden. Die hier angestrebte Kombination aus dezentraler Abfallverwertung und Eigenenergieerzeugung eines lebensmittelverarbeitenden Betriebs unter Einbindung in ein intelligentes Erneuerbare Energien - Konzept soll einen zusätzlichen Mehrwert liefern.
Die optimale Zusammensetzung und Aktivität der Mikroorganismengemeinschaft ist für den stabilen und effizienten Betrieb einer Biogasanlage essentiell. Moderne kultivierungsunabhängige Nachweismethoden können erstmals die Basis für eine rationale mikroorganismenfokussierte Verfahrensoptimierung liefern. Als erster Schritt für den Aufbau eines aussagekräftigen Monitoringsystems für die Biogasmikrobiologie wurde ein nucleinsäurebasiertes Verfahren (TaqMan Real-time PCR) zum Nachweis der methanbildenden Mikroorganismen (Archaeen) sowie von vier Untergruppen etabliert und auf Proben aus zwei unterschiedlich betriebenen Biogasanlagen in Neuried und Oberried angewandt. Bei der Anlage in Oberried in der Nähe von Freiburg, betrieben von örtlichen Landwirten (Substrat: Gülle, Grassilage, Maissilage, Mist, Anlage mit Güllevorgrube, Fermenter und Gärrestlager) konnten insgesamt höhere absolute Konzentrationen an Archaeen nachgewiesen werden als in der Anlage in Neuried in der Nähe von Offenburg, betrieben durch die Fa. badenova AG & Co. KG, Freiburg (thermophil betrieben, Substrat: Maissilage, Anlage mit Hauptfermenter, Nachfermenter und Gärrestlager). Auch hinsichtlich der vier untersuchten Untergruppen zeigten sich deutliche Unterschiede, die auf die unterschiedlichen an der Methanbildung beteiligten Abläufe hinweisen.
Die vorliegende Masterarbeit hatte zum Ziel, die Effektivität des Influencer Marketings auf der Livestreaming-Plattform Twitch.tv zu untersuchen, da diesbezüglich zum einen bisher kaum geforscht wurde und zum anderen die Influencer Marketing Industrie weiterhin von Jahr zu Jahr wächst. Mittels eines Experiments basierend auf einem Forschungsmodell zweier norwegischer Masterstudentinnen wurde ein randomisiertes Zwei-Gruppen-Experiment durchgeführt, um die Effektivität des Influencer Marketings zu messen, sowie den Einfluss von Parasozialen Interaktionen auf die Effektivität des Influencer Marketings zu analysieren. Außerdem wurde ein Vergleich zwischen dem Influencer Marketing und einer regulären Online-Werbung gezogen. Für die Durchführung des Experiments konnten 184 Probanden gewonnen werden, welche randomisiert einem Treatment in Form eines gesponserten Twitch-Streams oder einem Videospieltrailer ausgesetzt waren. Trotz dieser Anzahl konnten im Laufe der Analyse keine signifikanten Ergebnisse erzielt werden. Jedoch konnten diverse Erkenntnisse gewonnen und Empfehlungen für zukünftige Forschung mit dem Fokus Influencer Marketing auf Twitch.tv ausgesprochen werden.
Die Bachelor-Thesis beschäftigt sich mit den Aspekten des Empfehlungsmarketing im Web 2.0. Dazu werden die Grundlagen zum Empfehlungsmarketing mit einer Definition, der Bedeutung und den verschiedenen Formen näher erläutert und im Anschluss die konkreten Umsetzungsmöglichkeiten für Unternehmen im Web 2.0 näher dargestellt. Hierbei zeigt die Verfasserin die grundlegenden Eigenschaften des Web 2.0 und der einzelnen Social Media Instrumente auf und geht auf die relevanten Plattformen mit ihren Chancen für das Empfehlungsmarketing ein. Zudem behandelt die Arbeit auch kritische Aspekte und Risiken des Social Webs und wie diese den Zielen des Empfehlungsmarketing entgegenwirken.
Digital, virtual environments and the metaverse are rapidly taking shape and will generate disruptive changes in the areas of ethics, privacy, safety, and how the relationships between human beings will be developed. To uncover some of some of the implications that will impact those areas, this study investigates the perceptions of 101 younger people from the generations Y and Z. We present a first exploratory analysis of the findings, focusing on knowledge and self-perception. Results show that these young generations are seriously doubting their knowledge on the metaverse and virtual worlds – regarding both the definition and the usage. It is interesting to see only a medium confidence level, considering that the participants are young and from an academic environment, which should increase their interest in and the affinity towards virtual worlds. Males from both generations perceive themselves as significantly more knowledgeable than females. Regarding a fitting definition, almost 40% agreed on the metaverse as a “universal and immersive virtual world that is made accessible using virtual reality and augmented reality technologies”. Regarding the topic in general, several participants (almost 40%) considered themselves sceptics or “just” users (38%). Interestingly, generation Y participants were more likely than the younger generation Z participants to identify themselves as early adopters or innovators. In result, the considerable amount of “mixed feelings” regarding digital, virtual environments and the metaverse shows that in-depth studies on the perception of the metaverse as well as its ethical and integrity implications are required to create more accessible, inclusive, safe, and inclusive digital, virtual environments.
Planung und Umsetzung einer Medieninstallation mit dem Schwerpunkt: Steuerung über DMX und RS232
(2015)
Die vorliegende Arbeit stellt zunächst das Konzept und die Idee der Zeitmaschine als Installation vor. Anschließend werden die eingesetzte Technik und das verwendete Protokoll erklärt. Daraufhin nennt die Autorin die einzelnen Bauelemente und Geräte, erklärt wie diese für die Zeitmaschine zum Einsatz gebracht werden und stellt die technische Planung vor. Abschließend beschäftigt sich die Ausarbeitung mit der Software und dem Programmcode zur Steuerung der einzelnen Elemente.
Angepasste Hybridantriebe in mobilen Arbeitsmaschinen (off-highway Anwendungen) versprechen wegen der typischerweise auftretenden Lastzyklen mit ausgeprägten, häufigen und schnellen Laständerungen folgende Vorteile: geringerer Kraftstoffverbrauch, Einsatz eines Dieselmotors kleinerer Leistung, dadurch Erfüllung strikter werdender Emissionsvorschriften (TIER 4, EURO 5) ohne oder mit reduzierter Abgasnachbehandlung, Lärmreduktion, weitere Einsparpotenziale durch Elektrifizierung der Fahrzeugfunktionen möglich (Erhöhung des Hybridisierungsgrads), höhere Produktivität durch höhere Antriebsdynamik.
Auxiliary power units (APUs) are used in mobile applications to supply electrical power in the range of 3 to 10 kW. The state of the art generators are driven by a diesel engine at constant speed. They have a low efficiency (high fuel consumption) as they operate mostly in partial load conditions. A higher efficiency for partial loads is feasible by adjusting the speed of the diesel engine to its optimum efficiency. A frequency converter provides a constant electric frequency at variable speed of the generator. The resulting higher investments for such a variable speed generator (VSG) need a proof of economics, which is demonstrated by this investigation.
Hybrid drives for automotive application are extensively discussed. In contrast, the company HEINZMANN, the University of Karlsruhe and the University of Applied Sciences Offenburg concentrate on hybrid drives for industrial, offroad purposes in a joint project. These applications promise a much higher fuel saving potential, particularly if highly frequent load cycles are present. Hybrid drive systems offer additional advantages including reduced exhaust aftertreatment requirements due to engine downsizing, better engine dynamics, emissions and noise reduction.
Die vorliegende Bachelor-Arbeit entstand bei der Robert Bosch GmbH und befasst sich mit der Untersuchung elektrischer Antriebe, dessen Leistungsverhalten mithilfe des Rotormagnetfeldes bestimmt werden. Sie ist Bestandteil des Projektes „MagCam - Examination“ und beinhaltet als Hauptaufgabe die Rastmoment (engl. cogging torque) -Messung an elektrischen Antrieben mithilfe des intelligenten Messsystems „MagCam“. Anhand der Messung des Rotormagnetfeldes wurde das Rastmoment des elektrischen Motors quantifiziert und dessen Ursachen auf der Bauteilebene identifiziert.
Mit der Corona-Krise ist die digitale Bildung sehr stark in den Vordergrund gerückt. damit einhergehend wurde verstärkt E-Learning eingesetzt. Meistens wurde allerdings das volle Potenzial von E-Learning Plattformen nicht genutzt. Häufig wurden solche Systeme als Dateiablagen, Wissensdatenbanken oder nur für die Kollaboration Fähigkeiten benutzt. Aber darüber hinaus besitzen E-Learning Plattformen die Fähigkeit, eine Learning-Experience für die Lernenden zu erzeugen.
Diese Thesis beschäftigt sich mit KI-basierten Empfehlungssystemen im E-Learning Bereich. Dabei werden wissenschaftliche Arbeiten anhand der Methodik analysiert, welche Programmiersprachen, Algorithmen und Bibliotheken verwendet werden. Abhängig davon werden verschiedene prototypische Empfehlungsprogramme erstellt, wobei verschiedene Algorithmen ausprobiert werden. Diese Algorithmen werden bereinigte Tabellendateien verarbeiten, welche zuvor aus Moodle generiert werden. Dadurch sollen dann konkrete Empfehlungen erzeugt werden, die anschließend evaluiert und bewertet werden. Anschließend wird ein Fazit gezogen, worauf unter anderem auf die Probleme der verschiedenen Algorithmen hingewiesen wird und in welcher Hinsicht man das Empfehlungssystem verbessern könnte.
The significant market growth of stationary electrical energy storage systems both for private and commercial applications has raised the question of battery lifetime under practical operation conditions. Here, we present a study of two 8 kWh lithium-ion battery (LIB) systems, each equipped with 14 lithium iron phosphate/graphite (LFP) single cells in different cell configurations. One system was based on a standard configuration with cells connected in series, including a cell-balancing system and a 48 V inverter. The other system featured a novel configuration of two stacks with a parallel connection of seven cells each, no cell-balancing system, and a 4 V inverter. The two systems were operated as part of a microgrid both in continuous cycling mode between 30% and 100% state of charge, and in solar-storage mode with day–night cycling. The aging characteristics in terms of capacity loss and internal resistance change in the cells were determined by disassembling the systems for regular checkups and characterizing the individual cells under well-defined laboratory conditions. As a main result, the two systems showed cell-averaged capacity losses of 18.6% and 21.4% for the serial and parallel configurations, respectively, after 2.5 years of operation with 810 (serial operation) and 881 (parallel operation) cumulated equivalent full cycles. This is significantly higher than the aging of a reference single cell cycled under laboratory conditions at 20 °C, which showed a capacity loss of only 10% after 1000 continuous full cycles.
This article presents a comparative experimental study of the electrical, structural and chemical properties of large‐format, 180 Ah prismatic lithium iron phosphate (LFP)/graphite lithium‐ion battery cells from two different manufacturers. These cells are particularly used in the field of stationary energy storage such as home‐storage systems. The investigations include (1) cell‐to‐cell performance assessment, for which a total of 28 cells was tested from each manufacturer, (2) electrical charge/discharge characteristics at different currents and ambient temperatures, (3) internal cell geometries, components, and weight analysis after cell opening, (4) microstructural analysis of the electrodes via light microscopy and scanning electron microscopy, (5) chemical analysis of the electrode materials using energy‐dispersive X‐ray spectroscopy, and (6) mathematical analysis of the electrode balances. The combined results give a detailed and comparative insight into the cell characteristics, providing essential information needed for system integration. The study also provides complete and self‐consistent parameter sets for the use in cells models needed for performance prediction or state diagnosis.
Increasing global energy demand and the need to transition to sustainable energy sources to mitigate climate change, highlights the need for innovative approaches to improve the resilience and sustainability of power grids. This study focuses on addressing these challenges in the context of Morocco's evolving energy landscape, where increasing energy demand and efforts to integrate renewable energy require grid reinforcement strategies. Using renewable energy sources such as photovoltaic systems and energy storage technologies, this study aims to develop a methodology for strengthening rural community grids in Morocco.
Traditional reinforcement measures such as line and transformer upgrades will be investigated as well as the integration of power generation from photovoltaic systems, which offer a promising way to utilise Morocco's abundant solar resources. In addition, energy storage systems will be analysed as potential solutions to the challenges of grid stability and resilience. Using comprehensive data analysis, scenario planning and simulation methods with the open-source simulation software Panda Power, this study aims to assess the impact of different grid reinforcement measures, including conventional methods, photovoltaic integration, and the use of energy storage, on grid performance and sustainability. The results of this study provide valuable insights into the challenges and opportunities of transitioning to a more resilient and sustainable energy future in Morocco.
Based on a rural medium-voltage grid in Souihla, Morocco, three scenarios were carried out to assess the impact of demand growth in 2030 and 2040. The first scenario focuses on conventional grid reinforcement measures, while the second scenario incorporates energy from residential photovoltaic systems. The third scenario analyses the integration of storage systems and their impact on grid reinforcement in 2030.
The simulations with energy from photovoltaic systems show a reduction in grid reinforcement measures compared to the scenario without solar energy. In addition, the introduction of a storage system in 2030 led to a significant reduction in the required installed transformer capacity and fewer congested lines. Furthermore, the results emphasized the role of storage in stabilizing grid voltage levels.
In summary, the results highlighted the potential benefits of integrating energy from photovoltaics and storage into the grid. This integration not only reduces the need for transformers and overall grid infrastructure but also promotes a more efficient and sustainable energy system.
Die vorliegende Ausarbeitung thematisiert die Entwicklung im Eventmarketing und behandelt mitunter die Bedeutung von Events aus Sicht des Veranstalters, der austragenden Destination und der Eventteilnehmenden als beteiligte Akteure. Zunächst erfolgt ein theoretischer Teil, in dem unter anderem essentiell wichtige Begriffe definiert und eingeordnet sowie Aufgaben im Rahmen des Arbeitsprozesses eines Marketing-Events erläutert werden. Um einen Bezug zur Praxis herzustellen wird eine empirische Vorgehensweise verfolgt, anhand der die Arbeitsfelder rund um die Erstellung der Veranstaltung „Snow Bike Festival 2017 in Gstaad“ veranschaulicht werden, wofür Experteninterviews mit Personen aus der Eventmarketingpraxis durchgeführt wurden. Ziel ist es zudem, die Bedeutsamkeit von Events in praktischer Sichtweise festzuhalten, Trends im Bereich Events zu erkennen und den zukünftigen Einsatz der Kommunikationsinstrumente auf wissenschaftlicher Basis zu analysieren.
Analyse der Anwendbarkeit des Dynamische Fähigkeiten-Konzepts am Beispiel von Großhandelsunternehmen
(2019)
Eine Anpassung aufgrund sich schnell verändernder Geschäftsumgebungen an aktuelle Gegebenheiten ist für alle Unternehmen sowohl in der freien Wirtschaft als auch staatlichen Ursprungs relevant. Diese kann durch starke dynamische Fähigkeiten der involvierten Unternehmen erfolgen. Zur Validierung des theoretischen Konzepts der dynamischen Fähigkeiten werden Großhandelsunternehmen herangezogen und deren Unternehmensaktivitäten im Hinblick auf die erste dynamische Fähigkeit in Gesprächen ermittelt. Die Ausführungen der vier Großhändler zielen in einem ersten Teil darauf ab, die grundsätzliche Anwendbarkeit des Konzepts in der Praxis zu bestätigen. In einem zweiten Teil wird analysiert in welchem Umfang sie für die betrachtete Branche beschrieben werden kann. Es zeigt sich, dass das Dynamische Fähigkeiten-Konzept nicht ohne Einschränkungen auf die Praxis übertragen werden kann, wenngleich die Ausprägungen dem Konzept zugrundeliegender Elemente bei allen Firmen ähnlich sind. Trotz dieser Ähnlichkeit konnten keine festen Muster bzw. Interdependenzen erkannt werden, die die Integration, den Aufbau und/oder die Neukonfiguration von Fähigkeiten zuverlässig fördern. Die Resultate ermöglichen es dennoch in einem letzten Teil zu beurteilen, welche Indikatoren eine Basis zur strategischen Anpassung an den Strukturwandel schaffen. Sie sind Teil der formulierten Hypothesen zu den einzelnen Elementen der ersten dynamischen Fähigkeit. Mit der Summe der Erkenntnisse konnte in gewisser Hinsicht eine Transparenz des Konzepts erreicht werden – mit Hilfe des entwickelten Interviewleitfadens kann analog zum Vorgehen in dieser Arbeit für die zweite und dritte dynamische Fähigkeit verfahren werden, sodass in einem breiteren Kontext erneut eine Aussage über die Anwendbarkeit des Konzepts getroffen werden kann.
Im Rahmen eines von der Deutschen Forschungsgemeinschaft geförderten Projekts des Instituts für Rechtsmedizin der Universität Freiburg und des Freiburger Materialforschungszentrums entwickelt die Robotikgruppe der Hochschule Offenburg ein robotergestütztes mobiles Messsystem zur spektroskopischen Vermessung von Leichenflecken. Ziel des Gesamtprojekts ist die Charakterisierung von intravitalen und postmortalen Hautveränderungen auf der Basis reflektionsspektrometrischer Messungen an menschlicher Haut durch ein physikalisches Hautmodell. Projektleiter ist Prof. Dr. Michael Bohnert, Institut für Rechtsmedizin Freiburg, der den grundlegenden Anstoß zum Einsatz spektroskopisch aufgelöster Messungen der Färbung von Leichenflecken gab [1]. In Zusammenarbeit mit dem Freiburger Materialforschungszentrum wurde dazu ein Modell für das optische Verhalten der Haut entwickelt [2]. Im Anschluss wurde insbesondere die Reoxygenierung der Leichenflecken bei gekühlter Lagerung untersucht [3]. Der Dokumentation der Messreihen liegt ein elektronisches Laborbuch zugrunde, das von der Servicegruppe Wissenschaftliche Informationsverarbeitung des Materialforschungszentrums entwickelt wurde [4]. Als problematisch erwies es sich, dass sich eine Messreihe über 50 bis 60 Stunden erstreckt und in der Regel nur zweimal täglich Handmessungen durchgeführt werden konnten, die zudem bei Raumtemperatur erfolgen mussten.
Die spektroskopische Beobachtung von postmortalen Hautveränderungen und insbesondere von Totenflecken ermöglicht potenziell eine genauere Bestimmung des Todeszeitpunkts oder der Todesursache (z. B. im Fall von CO-Vergiftungen). Für die grundlegende Charakterisierung dieser Veränderungen sind Langzeitbeobachtungen von Stunden oder gar Tagen wünschenswert.
Das Berliner Unternehmen Student Services International Ltd. will im Jahr 2017 in das EU-Ausland Frankreich expandieren.
Daraufhin entwickelte ich im Rahmen meiner Bachelor-Thesis einen Marketingplan, um einen erfolgreichen Start in die Französische Republik zu ermöglichen. Anschließend ist ein Leitfaden für weitere EU-Expansionen zu finden, der als Hilfestellung und Vereinfachung der Unternehmensaus¬weitung dienen soll.
Anhand verschiedener Analysemethoden untersucht die Arbeit die Unternehmensumwelt, die Wettbewerber und die Branchen. Aus den erarbeiteten Stärken, Schwächen, Risiken und Chancen wurde ein Konzept entwickelt, das alle internen und externen Einflüsse berücksichtigt und dabei mit Hilfe der aufgeführten Forschungsansätze passende Marketinginstrumente kombiniert.
Das Ziel dieser Arbeit ist es, zwei unterschiedliche Bewegungserfassungssysteme zu vergleichen. Dabei wird die neue Technologie der markerlosen Bewegungserfassung mit der gängigen markerbasierten Methode verglichen. Es sollen Aspekte wie Aufbau, Vorbereitung, Durchführung, Nachbearbeitung und Messergebnisse analysiert und gegenübergestellt werden.
Im Rahmen einer Querschnittsstudie wurden insgesamt 27 Probanden bei Richtungswechsel mit unterschiedlichen Winkeln in drei verschiedenen Geschwindigkeiten gemessen. Dabei nahmen beide Systeme gleichzeitig in Verbindung mit zwei Kraftmessplatten die Bewegung auf. Von jeder Geschwindigkeit wurden drei gültige Durchläufe aufgezeichnet und anschließend das Knieabduktionsmoment betrachtet. Über das maximale und minimale Knieabduktionsmoment hat für jeden Winkel und Geschwindigkeit ein Vergleich der beiden Systeme stattgefunden.
Aufbau, Vorbereitung und Durchführung des markerlosen Systems erwiesen sich als deutlich einfacher und reibungsloser. Bei dem markerbasierten System ging viel Zeit für die Systemkalibrierung, das Aufkleben von Markern oder das Wiederholen der Messung durch abfallende Marker verloren. Auch die Datennachbearbeitung ist bei dem markerbasierten System deutlich zeitaufwendiger. Die markerlosen Daten werden allerdings fix ausgegeben und können bei auftretenden Fehlern nicht bearbeitet werden.
Die beiden Systeme wurden zum Schluss anhand des gemessenen Maximums und Minimums des Knieabduktionsmoments verglichen. Insgesamt messen die beiden Systeme durchschnittlich ein unterschiedliches Maximum von 0,2 +- 0,33, bei dem Minimum lag die gesamte durchschnittliche Differenz der beiden Systeme bei -0,34 +- 0,65. Das markerlose System zeigte durchschnittlich höhere Maxima und niedrigere Minima als das markerbasierte System auf. Durch die teilweise starken Messunterschiede und auftretenden Messfehler des markerlosen Systems, sollten die Messergebnisse des Knieabduktionsmoments zur Beurteilung von Rupturen des vorderen Kreuzbandes kritisch hinterfragt werden.
Seit 2011 beschäftigt sich die visionsbox GmbH mit der Erstellung von AR-Anwendungen. Momentan werden diese Apps auf Basis von Unity 3D und dem AR SDK Vuforia von Qualcomm erstellt. Der plattformunabhängige Ansatz von Unity 3D erlaubt es, sehr schnell Anwendungen für iOS als auch für Android zu kompilieren. Ein großer Nachteil des bestehenden Entwicklungskonzepts ist das Fehlen der Möglichkeit Inhalte zur Laufzeit aus dem Internet herunterzuladen. Eine Änderung oder Erweiterung der Anwendung ist nur über ein erneutes Kompilieren und erneutes Installieren der Applikation möglich. Dieser Updateprozess ist langwierig und wenig flexibel. Das Vorhandensein einer Anbindung ans Internet, ermöglicht jedoch prinzipiell das Herunterladen von neuen oder zusätzlichen Inhalten zur Laufzeit der Anwendung. Ziel dieser Master Thesis ist es, die Möglichkeiten des Nachladens von Anwendungsinhalten von einem eigenen Webserver zu evaluieren. Eine beispielhaft implementierte Anwendung soll die Machbarkeit für Android und iOS demonstrieren und gleichzeitig als Vorlage für bestehende und zukünftige AR-Anwendungen auf Basis von Unity3D und Vuforia dienen.
In dieser Arbeit werden Untersuchungen an einem neuartigen Sensorkonzept zur Erfassung von Winkelbeschleunigungen durchgeführt. Ziel dieser Arbeit war es, die Möglichkeit, eine Miniaturisierung des Prototyps zu untersuchen. Hierfür wurde eine analytische und experimentelle Untersuchung durchgeführt. Für die analytische Betrachtung erfolgte eine Fehlerfortpflanzung nach Gauß, welche die Fertigungstoleranzen, Dimensionsfehler des Accelerometers, Rauschen und Messabweichungen von Accelerometer und Gyroskop berücksichtigt. Die Ergebnisse zeigen, dass bei Verwendung der hochwertigen Inertial Measurment Units (IMUs) eine theoretische Verkleinerung bis auf 21mm eine höhere Genauigkeit bietet als die numerischen Differentiationen der Winkelgeschwindigkeit.
Für die Verifizierung unter realen Bedingungen wurden verschiedene Prüfkonzepte verglichen.
Dabei erwies sich ein Pendelprüfstand als vielversprechender Ansatz. Durch die Verwendung von Kugellagern kann ein breites Spektrum an Winkelbeschleunigungen abgebildet werden. Die kontinuierliche Erfassung reflektierender Marker auf der Pendelstange ermöglicht die Ermittlung der Winkel, die als Grundlage für ein Modell dienen, wodurch sich reale Winkelbeschleunigungen mit den Messdaten des Sensors vergleichen lassen. Dabei stellt die Modellierung der Verlustterme eine zukünftige Herausforderung dar.
Die Ergebnisse zeigen, dass eine Miniaturisierung des Sensorprototyps möglich ist und das der Pendelprüfstand eine Methode zur Verifizierung darstellt. Dies trägt dazu bei, die Anwendungsmöglichkeiten des Sensorkonzepts in der Praxis zu erweitern.
Die vorliegende Bachelorarbeit erstellt ein Konzept für eine Sozialmarketingkampagne zur Senkung des Fleischkonsums anhand einer Sekundärforschung. Damit verfolgt die Arbeit das Ziel, Handlungsempfehlungen für die Praxis abzuleiten.
Im Teil der Literaturarbeit werden relevante Einflussfaktoren auf den Fleischkonsum und mögliche Ansätze für eine Verhaltensänderung analysiert. Die Ergebnisse der Recherche deuten auf eine teilweise fehlerhafte Umsetzung von Kampagnen zur Reduktion des Fleischkonsums hin.
Die Kampagne der Fifty/Fifty Challenge setzt die Erkenntnisse beispielhaft um. Als Ansatzpunkt dient ein Segment, in dem die größte Offenheit gegenüber einem reduzierten Fleischkonsum besteht. Als Zielgruppe sind expeditiv und sozialökologisch eingestellte Studierende ausgewählt worden. Die Kampagne verfolgt das Ziel, eine Halbierung des Fleischkonsums bei der Zielgruppe zu erreichen. Die Kommunikationsmaßnahmen sind rund um eine Aktionswoche in den Mensen von 20 Studierenden- werken geplant. Die strategische Umsetzung wird exemplarisch anhand der Albert Schweitzer Stiftung aufgezeigt. Die Laufzeit der Kampagne beträgt ein Jahr und benötigt ein Budget von 220.000 €, um rund 780.000 Studierende zu erreichen.
Die Ergebnisse der Arbeit bieten eine Grundlage für die Umsetzung des Themas in der Kampagnenarbeit von Nichtregierungsorganisationen.
In dieser Bachelor Thesis geht es um das Internet Protokoll Version 6, insbesondere um die Stateless Address Autoconfiguration (SLAAC). Hierfür wurde ein Netzwerk aufgebaut und entsprechend konfiguriert. Zur Veranschaulichung wurde daraufhin ein Laborversuch über eine Webschnittstelle realisiert, der den Ablauf von SLAAC und die Adressauflösung durchläuft. Schritt für Schritt kann so die Adressvergabe und die einzelnen Vorgänge verfolgt und die jeweiligen Aufgaben bearbeitet werden.
Vergleich eines iOS-basierten zu einem markerbasierten System zur dreidimensionalen Bewegungsanalyse
(2023)
Die iOS-basierte Methode zur dreidimensionalen Bewegungsanalyse wird mithilfe von OpenCap durchgeführt. OpenCap ist eine Open-Source-Software, die laut Hersteller eine gute Alternative zu herkömmlichen Methoden der Bewegungsanalyse sein soll. Durch eine verständliche Menüführung, geringe Anschaffungskosten und ohne Notwendigkeit von Fachpersonal, soll hiermit eine großflächigere Anwendung von dreidimensionalen Bewegungsanalyse gegeben werden. (Uhlrich et al., 2022) Um diese Hypothese zu belegen wurde im Rahmen dieser Bachelorthesis eine kleine Studie mit 12 Probanden durchgeführt. Diese waren hauptsächlich Freiwillige der Hochschule Offenburg und sowohl männlich (7/12 Probanden) als auch weiblich (5/12 Probanden). Das Alter lag bei 25,76 ±5,08 Jahre, die Größe betrug 1,73 ±0,08 Meter und das Gewicht 69,38 ±7,12 Kilogramm. Die Probanden wurden zum Vergleich mit zwei verschiedenen Methoden zur dreidimensionalen Bewegungsanalyse (OpenCap und markerbasierter) und bei zwei verschiedenen Sprungformen, aufgenommen.
Anschließend wurden die Ergebnisse der Gelenkwinkel für Hüfte und Knie der rechten Körperhälfte der Probanden betrachtet. Dabei fiel auf, dass die gemessenen Werte von OpenCap, für Hüfte und Knie verschieden stark von den markerbasierten Werten abwichen. Die Differenz der Hüftflexionswinkel, zwischen den beiden Messmethoden, war um einiges größer als die ermittelte Differenz der Knieflexionswinkel. Diese lag beim Counter Movement Jump (CMJ) für die Hüfte bei 8,01° ±10,89° und für das Knie bei -0,9° ±3,22°. Beim Drop Jump (DJ) ergaben die Differenzen für die Hüfte 15,91° ±12,35° und für das Knie 3,03° ±2,59°. Außerdem wichen die Ergebnisse auch von der Studie der OpenCap Erfinder ab, die mit einem mittleren absoluten Fehler von 4,5°, die App anpriesen. (Uhlrich et al., 2022)
Der Vergleich zeigte somit das OpenCap eine gute Alternative zur Messung offensichtlicher Körpersegmente oder Bewegungen, wie beispielsweise dem Knie, sein kann. Für Messungen der Hüftpartie eignet es sich derzeitig, aufgrund seiner Ungenauigkeit, weniger.
In Deutschland wird aktuell ein Gesetzesentwurf äußerst kontrovers diskutiert, in dem es um Zeitpunkt und vor allem Art einer verbindlichen Einführung von Smart Meter geht. Da viele Nutzer wohl noch eher skeptisch sind, stellt sich für die betroffenen Energieversorgungsunternehmen die Frage, welche Differenzierungsansätze sich hier im Wettbewerb, etwa auch über die Leistungskombinationen, ableiten lassen? Ausgangspunkt des vorliegenden Arbeitspapiers ist dabei eine unzureichende Auseinandersetzung der Energieversorgungsunternehmen mit einem ganzheitlichen Marketingkonzept, das sich zum einen am Kundennutzen orientiert und sich zum anderen gleichzeitig in das Leistungssystem des jeweiligen Unternehmens integrieren lässt. Dieses soll anhand der Leistungspolitik, und hier im Besonderen anhand von Mehrwertleistungen im Kontext von Smart Meter, untersucht werden.
Die vorliegende Abschlussarbeit wurde intern an der Hochschule Offenburg angefertigt. Gegenstand der Untersuchung ist der Einsatz von cloudbasierten Business-Intelligence-Systemen in der Lehre.
Die Arbeit befasst sich zu Beginn mit der Anbindung einer externen Datenquelle in SAP Data Warehouse Cloud (DWC). Diese basiert auf einer relationalen Datenbank. Hierfür wer- den drei unterschiedliche Lösungen untersucht und miteinander verglichen. Außerdem werden Lernszenarien für die Arbeit mit der SAP Analytics Cloud (SAC) entworfen. Die Lernszenarien beinhalten jeweils ein Vertriebsdashboard, welches zuvor konzipiert und in SAP Analytics Cloud (SAC) implementiert wird. Die Dashboards sollen durch das Absolvieren von Lernszenarien durch Studierende an der Hochschule Offenburg unter Einhaltung von Prinzipien guter Visualisierung nachgebaut werden. Beide Produkte von SAP sind momentan Teil von Laboren an der Hochschule Offenburg, um Prinzipien von Business Intelligence (BI) praktisch anzuwenden. Mit Hilfe von SAP Data Warehouse Cloud (DWC) wird ein Datenmodell entworfen. Dieses wird in SAP Analytics Cloud (SAC) verwendet, um die Daten zu visualisieren. Die Grundlage für die Arbeiten bilden die Daten der Global Bike Group. Hierbei handelt es sich um eine Referenzfirma von SAP, die es ermöglicht, anhand von geschäftlichen Testdaten einen Eindruck von den Funktionen der SAP-Produkte zu erlan- gen.
Die Arbeit orientiert sich an zwei Forschungsfragen. Die erste Forschungsfrage behandelt die Anbindung einer Datenquelle in SAP Data Warehouse Cloud (DWC). Die zweite Forschungsfrage betrifft den Entwurf von Lernszenarien mit unterschiedlichem Umfang und unterschiedlicher Zielgruppe in SAP Analytics Cloud (SAC). Beide Fragen konnten erfolg- reich beantwortet werden. Die Ziele der Arbeit wurden erreicht
Zu Beginn dieser Arbeit wurde das Problem beschrieben, dass das Ersetzen von einzelnen Modulen innerhalb TYPO3s durch React bisher nicht möglich war. Dadurch ergab sich die Aufgabe eine Lösung zu finden, mit der die Vorteile von React in TYPO3 eingebracht werden können, möglichst ohne große Veränderungen und Aufwände zu betreiben. Als zusätzliche Anforderung wurde definiert, dass React in TypeScript geschrieben werden soll.
Um dem Leser dieser Arbeit die Möglichkeit zu geben, den angefertigten Code verstehen und interpretieren zu können, wurden zunächst Grundlagen in TypeScript, React und TYPO3 geschaffen. Daraufhin wurde der Ist-Stand beschrieben, welcher ein simples TYPO3-Plugin beschreibt. Dies wurde für die grundsätzliche Umwandlung in React möglichst simpel gehalten, war dennoch mit einigen Grundsätzen wie AJAX und Rerendering ausgestattet, um gewisse Vorteile und Problematiken bei der Umsetzung aufzeigen zu können. Daraus ergab sich ein Soll-Stand, welcher zugleich weitere Anforderungen an die spätere Lösung definierte.
Um ein mögliches Lösungskonzept erarbeiten zu können wurden im Kapitel „Stand der Technik“ 2 verwandte Arbeiten und Möglichkeiten vorgestellt. Daraufhin wurden die beiden zu entwickelnden Plugins beschrieben, zunächst das Dummy-TYPO3-Plugin, gefolgt vom in React entwickelten Äquivalent.
In Kapitel 8 wurde ein Konzept erstellt und daraufhin die Umsetzung Schritt für Schritt durchgeführt. Dabei konnte erfolgreich React in TYPO3 aufgesetzt und zur Entwicklung genutzt werden. Das Dummy-Plugin konnte ohne größere Probleme umgesetzt werden und zeigte somit eine mögliche Lösung für die Umwandlung von TYPO3 zu React auf. Um diese Lösung zu validieren, wurde im Folgekapitel das ProofOfConcept entwickelt. Dabei handelte es sich um ein produktiv eingesetztes Projekt, welches auf einer älteren Version basiert und verschiedene Anforderungen mitbrachte. Dies wurde nach Vorstellung des Projektes und Lösungskonzept Schritt für Schritt umgesetzt.
In dieser Arbeit wird die Entwicklung einer Methode zur Messung von Bodenreaktionskräften bei menschlicher Lokomotion auf variablen Untergründen behandelt. Das Ziel dieser Arbeit ist es, unter realistischen Bedingungen eine Ganganalyse in einem Biomechaniklabor durchführen zu können.
Bisher ist es nicht möglich in einem Biomechaniklabor verschiedene Untergründe nach einer bestimmten Methode auszutauschen, womit Szenarien im Alltag besser simuliert werden können.
Um dieses Ziel zu erreichen wurde ein geeignetes Konzept für die Fertigung der benötigten Bodenplatten und Bodenbeläge erstellt. Darauffolgend wurden die Komponenten angefertigt oder schon vorhandene modelliert. Die Anwendung der entwickelten Methode wurde unter realen Bedingungen einer Ganganalyse erfolgreich untersucht. Hierbei konnten exemplarisch die durchschnittlichen Bodenreaktionskräfte in z-Richtung für die Untergründe Kunstrasen, Kunststoffbahn (Tartanboden) und Steinboden untersucht werden. Das größte Optimierungspotential bei diesem Funktionstest zeigte sich bei der Anpassung der geeigneten An- und Ablaufstrecken mit den jeweiligen Untergründen.
Mit dieser entwickelten Methode können in einem Biomechaniklabor besser die Bedingungen die alltäglich benötigten Ganganpassungen an verschiedene Untergründe simuliert werden. In Kombination mit weiteren Messmethoden, wie die Messung der Muskelaktivität (EMG) und der Gangkinematik, kann so ein tieferes Verständnis des menschlichen Gangbildes gewonnen werden.
Durch den demografischen Wandel und dem daraus resultierenden Fachkräftemangel brauchen Unternehmen eine Strategie, um in Zukunft genügend Fachkräfte zu gewinnen und die aktuellen Mitarbeitenden halten zu können. Dabei können mit dem Employer Branding Maßnahmen zur Stärkung der Arbeitgebermarke erarbeitet werden.
Ziel dieser Arbeit ist eine vergleichende Analyse von Selbst- und Fremdbild zwei großer Arbeitgebermarken. Dabei sollen zwei Unternehmen aus der Region Offenburg/Ortenau in Hinblick auf ihr Employer Branding und ihre Kommunikation auf der unternehmenseigenen Karriere-Webseite untersucht werden. Dafür wurden die beiden Arbeitgebermarken „Hubert Burda Media“ und „Hansgrohe Group“ ausgewählt. Durch den Einsatz von qualitativen Experteninterviews wird das Selbstbild der Unternehmen ermittelt. Für die externe Beurteilung wurde die Zielgruppe „Studierende der Generation Z“ ausgewählt. Diese können mithilfe eines Fragebogens das Fremdbild beider Unternehmen beschreiben und die Karriere-Webseiten beurteilen.
Das Ergebnis der Forschung war unter anderem die Beschreibung des Arbeitgeber-images. Durch die Annäherung von Fremd- und Selbstbild nach Ansicht der Karriere-Webseite konnte die Kommunikation bewertet werden. Dabei konnten Optimierungs-ansätze für beide Unternehmen identifiziert werden. Die erarbeiteten Erkenntnisse wurden zusammengefasst und es wurden jeweils Handlungsempfehlungen für die Kommunikation und das Employer Branding formuliert.
Durch die Auswertungen der qualitativen Forschungen konnte die Wichtigkeit der Karriere-Webseite für die junge Generation bestätigt werden. Dabei fiel bei beiden Unternehmen auf, dass die Authentizität und die Kommunikation der eigenen Arbeitgebermarke in einigen Punkten optimiert werden sollten.
Treadmills are essential to the study of human and animal locomotion as well as for applied diagnostics in both sports and medicine. The quantification of relevant biomechanical and physiological variables requires a precise regulation of treadmill belt velocity (TBV). Here, we present a novel method for time-efficient tracking of TBV using standard 3D motion capture technology. Further, we analyzed TBV fluctuations of four different treadmills as seven participants walked and ran at target speeds ranging from 1.0 to 4.5 m/s. Using the novel method, we show that TBV regulation differs between treadmill types, and that certain features of TBV regulation are affected by the subjects’ body mass and their locomotion speed. With higher body mass, the TBV reductions in the braking phase of stance became higher, even though this relationship differed between locomotion speeds and treadmill type (significant body mass × speed × treadmill type interaction). Average belt speeds varied between about 98 and 103% of the target speed. For three of the four treadmills, TBV reduction during the stance phase of running was more intense (> 5% target speed) and occurred earlier (before 50% of stance phase) unlike the typical overground center of mass velocity patterns reported in the literature. Overall, the results of this study emphasize the importance of monitoring TBV during locomotor research and applied diagnostics. We provide a novel method that is freely accessible on Matlab’s file exchange server (“getBeltVelocity.m”) allowing TBV tracking to become standard practice in locomotion research.
Background: Running overuse injuries (ROIs) occur within a complex, partly injury-specific interplay between training loads and extrinsic and intrinsic risk factors. Biomechanical risk factors (BRFs) are related to the individual running style. While BRFs have been reviewed regarding general ROI risk, no systematic review has addressed BRFs for specific ROIs using a standardized methodology.
Objective: To identify and evaluate the evidence for the most relevant BRFs for ROIs determined during running and to
suggest future research directions.
Design: Systematic review considering prospective and retrospective studies. (PROSPERO_ID: 236,832).
Data Sources: PubMed. Connected Papers. The search was performed in February 2021.
Eligibility Criteria: English language. Studies on participants whose primary sport is running addressing the risk for the seven most common ROIs and at least one kinematic, kinetic (including pressure measurements), or electromyographic BRF. A BRF needed to be identified in at least one prospective or two independent retrospective studies. BRFs needed to be determined during running.
Results: Sixty-six articles fulfilled our eligibility criteria. Levels of evidence for specific ROIs ranged from conflicting to moderate evidence. Running populations and methods applied varied considerably between studies. While some BRFs appeared for several ROIs, most BRFs were specific for a particular ROI. Most BRFs derived from lower-extremity joint kinematics and kinetics were located in the frontal and transverse planes of motion. Further, plantar pressure, vertical ground reaction force loading rate and free moment-related parameters were identified as kinetic BRFs.
Conclusion: This study offers a comprehensive overview of BRFs for the most common ROIs, which might serve as a starting point to develop ROI-specific risk profiles of individual runners. We identified limited evidence for most ROI-specific risk factors, highlighting the need for performing further high-quality studies in the future. However, consensus on data collection standards (including the quantification of workload and stress tolerance variables and the reporting of injuries) is warranted.
Activities for rehabilitation and prevention are often lengthy and associated with pain and frustration. Their playful enrichment (hereafter: gamification) can counteract this, resulting in so-called “exergames”. However, in contrast to games designed solely for entertainment, the increased motivation and immersion in gamified training can lead to a reduced perception of pain and thus to health deterioration. Therefore, it is necessary to monitor activities continuously. However, only an AI-based system able to generate autonomous interventions could vacate the therapists’ costly time and allow better training at home. An automated adjustment of the movement training’s difficulty as well as individualized goal setting and control are essential to achieve such autonomy. This article’s contribution is two-fold: (1) We portray the potentials of gamification in the health area. (2) We present a framework for smart rehabilitation and prevention training allowing autonomous, dynamic, and gamified interactions.
Background:
Ankle braces aim to reduce lateral ankle sprains. Next to protection, factors influencing user compliance, such as sports performance, motion restriction, and users’ perceptions, are relevant for user compliance and thus injury prevention. Novel adaptive protection systems claim to change their mechanical behavior based on the intensity of motion (eg, the inversion velocity), unlike traditional passive concepts of ankle bracing.
Purpose:
To compare the performance of a novel adaptive brace with 2 passive ankle braces while considering protection, sports performance, freedom of motion, and subjective perception.
Study Design:
Controlled laboratory study.
Methods:
The authors analyzed 1 adaptive and 2 passive (one lace-up and one rigid brace) ankle braces, worn in a low-cut, indoor sports shoe, which was also the no-brace reference condition. We performed material testing using an artificial ankle joint system at high and low inversion velocities. Further, 20 male, young, healthy team sports athletes were analyzed using 3-dimensional motion analysis in sports-related movements to address protection, sports performance, and active range of motion dimensions. Participants rated subjective comfort, stability, and restriction experienced when using the products.
Results:
Subjective stability rating was not different between the adaptive and passive systems. The rigid brace was superior in restricting peak inversion during the biomechanical testing compared with the passive braces. However, in the material test, the adaptive brace increased its stiffness by approximately 400% during the fast compared with the slow inversion velocities, demonstrating its adaptive behavior and similar stiffness values to passive braces. We identified minor differences in sports performance tasks. The adaptive brace improved active ankle range of motion and subjective comfort and restriction ratings.
Conclusion:
The adaptive brace offered similar protective effects in high-velocity inversion situations to those of the passive braces while improving range of motion, comfort, and restriction rating during noninjurious motions.
Clinical Relevance:
Protection systems are only effective when used. Compared with traditional passive ankle brace technologies, the novel adaptive brace might increase user compliance by improving comfort and freedom of movement while offering similar protection in injurious situations.
Extensible Authentication Protocol (EAP) bietet eine flexible Möglichkeit zur Authentifizierung von Endgeräten und kann in Kombination mit TLS für eine zertifikatsbasierte Authentifizierung verwendet werden. Motiviert wird diese Arbeit von einer potenziellen Erweiterung für PROFINET, die diese Protokolle einsetzen soll.
Dabei soll eine sicherer EAP-TLS-Protokollstacks für eingebettete Systeme in der Programmiersprache Rust entwickelt werden. Durch das Ownership-System von Rust können Speicherfehler eliminiert werden, ohne dabei auf die positiven Eigenschaften von nativen Sprachen zu verzichten. Es wird ein besonderes Augenmerk auf wie die Verwendung klassischer Rust-Bibliotheken im Umfeld von eingebetteten Systemen, den Einfluss des Speichermodells auf das Design, sowie die Integration von C-Bibliotheken für automatisierte Interoperabilitätstests gelegt.
Hintergrund der Studie ist die Annahme, dass das Tragen von Barfußschuhen einen positiven Effekt auf die Gleichgewichtsfähigkeit eines Menschen hat und somit präventiv das Sturzrisiko vermindern kann. Ziel der Studie ist daher, einen Zusammenhang zwischen der Zehenfreiheit und der Gangsicherheit festzustellen. Zu diesem Zweck werden anhand einer Ganganalyse mit dem GRAIL-System, der Firma Motek Medical, das Laufverhalten von 23 Probanden in drei verschiedenen Schuhkonditionen (schmale Barfußschuhe, breite Barfußschuhe und getapte Zehen in Barfußschuhen) untersucht. Pro Perturbationsdurchgang werden jeweils fünf Gangzyklen vor und nach der Perturbation aufgenommen. Betrachtet werden die Kokontraktionswerte ausgewählter antagonistischer Muskelpaare des Ober- und Unterschenkels. Diese werden während der fünf Gangzyklen vor den einzelnen Perturbationen mittels EMG (Elektromyographie )-Sensoren gemessen. Die Ergebnisse zeigen, dass das einmalige Tragen von Barfußschuhen und somit die kurzfristige Veränderung der Zehenfreiheit keinen signifikanten Einfluss auf die Kokontraktionswerte und somit auf die Gleichgewichtsfähigkeit hat. Lediglich beim langfristigen Tragen von Barfußschuhen wiesen die Ergebnisse leichte Tendenzen in Richtung einer Erhöhung der Gleichgewichtsfähigkeit auf. Daraus lässt sich ein Trainingseffekt der Barfußschuhe auf den menschlichen Körper ableiten, der langfristig zu einer Verbesserung der Gangsicherheit führt. Da diese Ergebnisse jedoch nicht signifikant sind, muss diese Annahme erst durch weitere Studien geprüft werden. Einen tatsächlich signifikanten Einfluss hatte hingegen der Lerneffekt, der sich während des Versuchsablaufs bei den Testpersonen einstellte, auf die Kokontraktionswerte. Hierbei zeichnet sich eine annähernd exponentiell fallende Kurve im Verlauf der Messungen ab. Interessant ist dabei, dass dies auch für die Baseline zutraf, also auf die Referenzmessung ohne Perturbationen. Dies deutet darauf hin, dass die Probanden nicht primär wegen der Perturbationen in einer angespannten bzw. vorbereiteten Haltung waren, sondern aufgrund des ihnen unbekannten Untergrunds, dem perturbationsfähigen Laufband. Bei zukünftigen Studien sollte daher für aussagekräftige Ergebnisse eine stärkere Eliminierung des Lerneffekts geachtet werden.
Background: Many countries have restricted public life in order to contain the spread of the novel coronavirus (SARS-CoV2). As a side effect of related measures, physical activity (PA) levels may have decreased.
Objective: We aimed (1) to quantify changes in PA and (2) to identify variables potentially predicting PA reductions.
Methods: A systematic review with random-effects multilevel meta-analysis was performed, pooling the standardized mean differences in PA measures before and during public life restrictions.
Results: A total of 173 trials with moderate methodological quality (modified Downs and Black checklist) were identified. Compared to pre-pandemic, total PA (SMD − 0.65, 95% CI − 1.10 to − 0.21) and walking (SMD − 0.52, 95% CI − 0.29 to − 0.76) decreased while sedentary behavior increased (SMD 0.91, 95% CI: 0.17 to 1.65). Reductions in PA affected all intensities (light: SMD − 0.35, 95% CI − 0.09 to − 0.61, p = .013; moderate: SMD − 0.33, 95% CI − 0.02 to − 0.6; vigorous: SMD − 0.33, − 0.08 to − 0.58, 95% CI − 0.08 to − 0.58) to a similar degree. Moderator analyses revealed no influence of variables such as sex, age, body mass index, or health status. However, the only continent without a PA reduction was Australia and cross-sectional trials yielded higher effect sizes (p < .05).
Conclusion: Public life restrictions associated with the COVID-19 pandemic resulted in moderate reductions in PA levels and large increases in sedentary behavior. Health professionals and policy makers should therefore join forces to develop strategies counteracting the adverse effects of inactivity.
Governments have restricted public life during the COVID-19 pandemic, inter alia closing sports facilities and gyms. As regular exercise is essential for health, this study examined the effect of pandemic-related confinements on physical activity (PA) levels. A multinational survey was performed in 14 countries. Times spent in moderate-to-vigorous physical activity (MVPA) as well as in vigorous physical activity only (VPA) were assessed using the Nordic Physical Activity Questionnaire (short form). Data were obtained for leisure and occupational PA pre- and during restrictions. Compliance with PA guidelines was calculated based on the recommendations of the World Health Organization (WHO). In total, n = 13,503 respondents (39 ± 15 years, 59% females) were surveyed. Compared to pre-restrictions, overall self-reported PA declined by 41% (MVPA) and 42.2% (VPA). Reductions were higher for occupational vs. leisure time, young and old vs. middle-aged persons, previously more active vs. less active individuals, but similar between men and women. Compared to pre-pandemic, compliance with WHO guidelines decreased from 80.9% (95% CI: 80.3–81.7) to 62.5% (95% CI: 61.6–63.3). Results suggest PA levels have substantially decreased globally during the COVID-19 pandemic. Key stakeholders should consider strategies to mitigate loss in PA in order to preserve health during the pandemic.
Das Ziel dieses Projekts ist die Entwicklung und Charakterisierung einer mikrobiellen Brennstoffzelle (MBZ). Die MBZ unterscheidet sich von einer herkömmlichen Brennstoffzelle darin, dass die an der Anode erzeugten Elektronen nicht vom molekularen Wasserstoff, sondern direkt von der im Anodenkompartiment wachsenden Biomasse aus organischen Verbindungen stammen. Die Funktionsweise einer solchen Zelle ist in Abbildung 3.4-1 dargestellt. Im Gegensatz zur herkömmlichen Brennstoffzelle können in einer MBZ auch Abwasserteilströme z. B. aus der Lebensmittelindustrie als Substrat eingesetzt werden. Der große Vorteil der MBZ besteht somit darin, dass Abwässer biologisch abgebaut und gleichzeitig elektrischer Strom erzeugt werden kann.
Die angestrebten Klimaschutzziele erfordern, dass Erneuerbare Energien längerfristig zur Hauptenergiequelle der Energieversorgung werden. Um dieses ehrgeizige Ziel zu erreichen, ist es angebracht konventionelle und erneuerbare Energie oder noch besser nachhaltige Einzelprozesse intelligent miteinander zu verknüpfen.
Das Projekt EBIPREP wird von einer interdisziplinären Forschergruppe bestehend aus Chemikern, Prozessingenieuren und Bioprozessingenieuren sowie Physikern, die auf Sensoren und Prozesssteuerung spezialisiert sind durchgeführt. Das Ziel ist es, neue Lösungen für die Nutzungswege von Holzhackschnitzeln und den bei der mechanischen Trocknung anfallenden Holzpresssaft zu entwickeln. Neben der Hackschnitzelvergasung und der katalytischen Reinigung des Holzgases steht die Nutzung des Holzpresssafts in Biogasanlagen und bei der biotechnologischen Wertstofferzeugung, z.B. bei der Enzymherstellung, im Vordergrund.
Was wir tun?
Das EBIPREP-Projekt wird von einer interdisziplinären Forschungsgruppe durchgeführt, die sich aus Chemikern, Prozessingenieuren, Bioprozessingenieuren und Physikern zusammensetzt. Ziel ist es, neue Lösungen für den Einsatz von Hackschnitzeln und Holzpresssaft zu entwickeln, die durch ein innovatives mechanisches Trocknungsverfahren gewonnen werden. Neben der Holzvergasung und katalytischen Reinigung des Holzgases ist der Einsatz von Holzpresssaft in Biogasanlagen und in biotechnologischen Produktionsprozessen von Wertstoffen vorgesehen. Holzhackschnitzel werden thermisch vergast. Es werden Online-Sensoren entwickelt, um die relevanten Parameter der stabilisierten und optimierten Einzelprozesse auszuwerten. Die Verknüpfung von thermischen und biotechnologischer Konversionsprozessen könnte dazu beitragen, die Dimension von Biogasreaktoren erheblich zu reduzieren. Diese Tatsache wird folglich zu einer spürbaren Kostensenkung führen.
Ziele des EBIPREP-Projekts
• die Vorteile der thermischen und biologischen Umwandlung von Biomasse zu kombinieren;
• Entwicklung eines Verfahrens zur Reduzierung von Schadstoffemissionen mit innovativen Sensoren und katalytische Behandlung von Synthesegasen;
• nachhaltige Produktion biotechnologischer wertvoller Produkte
• wirtschaftliche und ökologische Analyse des Gesamtprozesses im Vergleich zu den Einzelprozessen
• Einsatz von Prozessabwässern zur Erzeugung regenerativer Energie oder biotechnologischer Wertstoffe
• Erwerb neuer Kenntnisse auf dem Gebiet der Rückgewinnungstechnik von Rückständen
• und Energieerzeugung;
• Erweiterung neuer Anwendungsfelder für innovative Sensoren und Keramik
• Schäume für Katalysatoren;
• Senkung der Kosten für die Biogasproduktion
Im geplanten Übersichtsvortrag werden die vernetzten Strukturen des Projekts EBIPREP und deren zentralen Ergebnisse vorgestellt.
In contrast to a conventional fuel cell the electrons in a microbial fuel cell (MFC) originate from the metabolic conversion of organic substrates by special bacteria instead of using molecular hydrogen. Recent research in our group has shown that the maximum electrical power density in a MFC correlates with the biomass concentration in batch MFC experiments. In continuous MFC systems additionally the dilution rate D could have an effect on the specific power density. Therefore two steady state conditions are adjusted and the resulting specific power densities, and the biomass and substrate concentrations were measured. These results were implemented in a mathematical description of the continuous MFC-process and the visualization of the model is presented.
Die biologische Verwertung von cellulose-/ hemicellulose- und lignocellulosereichen organischen Substraten zur Erzeugung von Energieträgern gewinnt zunehmend an Bedeutung. Im Gegensatz zu Biokraftstoffen der ersten Generation, bei denen nur ein kleiner Teil des pflanzlichen Materials eingesetzt worden ist (Öl, Zucker, Stärke), wird bei Biokraftstoffen der zweiten Generation fast die vollständige Pflanze einschließlich der schwer zugänglichen Cellulose verwendet. In Biogasanlagen führt diese Zielstellung jedoch häufig zu Problemen. Lignocellulose-reiches Material ist für viele Mikroorganismen schwer oder gar nicht abbaubar. Um die schwer abbaubaren Pflanzenteile wie Cellulose, Hemicellulose oder Lignin den Mikroorganismen in einer Biogasanlage besser zugänglich zu machen, können Biogassubstrate vorbehandelt werden.
Es werden die aktuellen Studien über Fußformen auf signifikante Unterschiede zwischen Männer und Frauen, Einflussfaktoren wie das Alter, die Körpergröße, das Gewicht und den BMI untersucht. Weiter werden die Unterschiede zwischen verschiedenen Ethnien, Belastungen und dem Aufwachsen mit oder ohne Schuhe analysiert. Die Studien werden über PubMed und ConnectedPapers gesucht und die Daten mit Excel ausgewertet und graphisch dargestellt. Folgendes hat sich ergeben: das Alter hat im Wachstum des Fußes einen Einfluss auf die Fußlänge und die Fußbreite. Außerhalb des Wachstums hat das Alter Einfluss auf die fibulare Bogenlänge und die Bogenhöhe. Die Körpergröße hat Einfluss auf die Fußlänge, die fibulare Bogenhöhe, die distale Knöchelhöhe und den Ballenumfang. Das Gewicht hat im Fußwachstum einen Einfluss auf die Fußlänge. Außerhalb des Wachstums hat das Gewicht einen Einfluss auf die fibulare Bogenhöhe, die Höhe des distalen Knöchels, die Zehenhöhe und den Ballenumfang. Der BMI hat einen Einfluss auf die fibulare Bogenlänge, die mediale und distale Knöchelhöhe und die Zehenhöhe. Für die Fersenbreite und die Risthöhe wurden keine Einflussfaktoren gefunden.
Der True-Crime-Podcast erfreut sich in Deutschland einer großen Hörerschaft, die ganz unterschiedliche Nutzungsmotivationen mitbringt. Die Faszination für wahre Kriminalfälle kommt nicht von ungefähr – das Phänomen, welches dieser zugrunde liegt, ist die Morbid Curiosity. Da bislang noch nicht allzu viel Forschung in diesem Gebiet betrieben wurde, gibt diese Arbeit durch einen Vergleich verschiedener Untersuchungen Aufschluss darüber, wo diese Neugier für morbide Ereignisse herkommt. Gleichzeitig soll ein Überblick über das Genre True Crime und das Medium Podcast gegeben werden. Das Ziel ist es, eine Verbindung zwischen dem Phänomen Morbid Curiosity und dem Format True-Crime-Podcast herzustellen. Die Forschungsfrage lautet: Welche Rolle spielt Morbid Curiosity bei der Nutzungsmotivation der Konsumenten von True-Crime-Podcasts? Die Ergebnisse zeigen, dass Frauen andere Nutzungsmotivationen mitbringen als Männer und gleichzeitig die primären Konsumentinnen sind. Die Neugier für morbide Ereignisse spielt dabei durchaus eine Rolle, wenn auch scheinbar eine untergeordnete. Es werden Ansätze für weitere Forschung gegeben.
In einer Welt, in der Heterogenität bezüglich Produkte und Dienstleistungen vorherrscht, ist es allerhöchste Zeit sich mit dem Thema der Reputation zu beschäftigen. Denn bei zunehmender Vergleichbarkeit von Produkten, ist es in erster Linie, das unternehmerische Bild welches verspricht, weiterhin erfolgreich wirtschaften zu können. Der Ruf einer Organisation kann durch seine Einmaligkeit, die Austauschbarkeit von Waren und Dienstleistungen aufheben und schafft Präferenzen. Wird man heute also gefragt; „Was hat sie zu diesem Kauf verleitet?“ Sind die häufigsten Antworten „ Ich kenne das Produkt und vertraue dem Unternehmen.“ Umstritten bleibt beim Reputation Management oftmals, inwieweit das Ansehen der Unternehmensführung das wahrgenommene Unternehmensbild prägt. Klar ist, dass leitende Personen immer öfters als reputationstreibende Kraft angesehen werden, in dessen Verantwortung das wahrgenommene Bild des Unternehmens liegt. Dennoch ist diese Erkenntnis nicht flächendeckend in den Firmen angekommen. Im hektischen Alltag bleibt selten Zeit sich damit zu beschäftigen, wie Bezugsgruppen das Verhalten der Führungskräfte wahrnehmen. Doch genau diese Interessensgruppen sind es später, die sich für oder gegen den Chefs und damit oftmals auch für oder gegen das Unternehmen aussprechen.
In den letzten Jahren haben Recommender Systeme zunehmend an Bedeutung gewonnen. Diese Systeme sind meist für Bereiche des E-Commerce konzipiert und berücksichtigen oftmals nicht den aktuellen Kontext der nutzenden Person. Recommender Systeme können allerdings nicht nur im E-Commerce zum Einsatz kommen, sondern finden ihren Anwendungszweck auch im Gesundheitswesen. Ziel dieser Bachelorarbeit ist es, ein Recommender System zu entwickeln, das den aktuellen Kontext der nutzenden Person (Chatverlauf, demografische Daten) besser berücksichtigen kann. Dazu befasst sich diese Arbeit mit der Konzeption und prototypischen Umsetzung eines kontextsensitiven Recommender Systems für einen bereits existierenden Chatbot aus dem Gesundheitswesen. Das in dieser Arbeit konzipierte und entwickelte Recommender System soll Mitarbeitende aus dem Gesundheits- und Sozialwesen entlasten und ihnen hilfreiche sowie thematisch sinnvolle Informationen zur Verfügung stellen. Basierend auf festgelegten Anforderungen wurde ein Konzept für das Recommender System entwickelt und zu Teilen als Prototyp umgesetzt. Abschließend wurde der Prototyp im Hinblick auf die Anforderungen evaluiert. Zudem fand eine technische Evaluation und eine Evaluation mithilfe von Anwendenden statt, welche den implementierten Prototypen bereits existierenden Systemen gegenüberstellte. Die von dem Prototyp empfohlenen Textausschnitte erzielten in der Evaluation mit nutzenden Personen eine thematisch signifikant höhere Übereinstimmung mit den Chatdaten.
Evaluation des In-Memory Datenbanksystems SAP HANA als Cloudlösung für Business Intelligence Systeme
(2013)
Global agierende Unternehmen sind mit einem stetig ansteigenden Datenaufkommen konfrontiert. Zur Analyse werden diese Daten in Business Intelligence Systeme geladen. Aufbereitete Daten werden heutzutage in der Regel in zeilenbasierten (relationalen) Datenbanksystemen vorgehalten. Ein großer Nachteil dieses Datenbanksystems für diesen Anwendungsfall ist, dass es auf eine hohe Anzahl einfacher Transaktionen mit wenigen Datensätzen ausgelegt ist. Im Kontext eines analysebasierten Modells, wie hier beim Business Intelligence, fallen dagegen hauptsächlich komplexe Abfragen auf einer Vielzahl von Datensätze an [BaGü2009]. Die SAP AG stellt mit dem Produkt SAP HANA eine Lösung zur Verfügung, welche auf die Datenanalyse für Business Intelligence ausgelegt ist und zugleich auch transaktionalen Anforderungen genügen soll. Das System ist als Appliance aus Soft- und Hardware konzipiert, das auf einem spaltenorientierten, In-Memory Datenbanksystem aufbaut. Diese Arbeit geht zunächst auf die Grundlagen des Business Intelligence, die allgemeinen Prinzipien von spaltenorientieren In-Memory Datenbankensystemen sowie deren Abgrenzung zu klassischen relationalen Systemen ein. Weiterhin wird auf die Architektur von SAP HANA und deren Besonderheiten eingegangen. Hauptgegenstand dieser Arbeit ist die Umsetzung einer Demoanwendung basierend auf SAP HANA in einer Cloud Umgebung (SAP HANA ONE). Hierbei wird insbesondere auf die Realisierbarkeit der Anwendung mittels der Entwicklungsumgebung SAP HANA Studio in einer Cloudumgebung eingegangen. Weiterhin steht zur Diskussion inwiefern SAP HANA in bestehende Business Intelligence Umgebungen integriert werden kann.
In dieser Forschungsarbeit wird die Datensicherheit von Microsoft Azure analysiert und bewertet. Die Bewertung findet dabei aus der Sicht von Unternehmen statt. Im ersten Abschnitt wird zunächst der grundlegende Aufbau und die unterschiedlichen Formen des Cloud Computing beschrieben. Im zweiten Teil wird ein Vergleich der drei größten Cloud Anbieter vollzogen. Der letzte Teil besteht aus der Evaluation der Datensicherheit von Azure, wobei auf Aspekte wie Datenschutz, Bedrohungen und Schutzmaßnahmen eingegangen wird. Abschließend wird eine Empfehlung für das Unternehmen Bechtle GmbH Offenburg IT-Systemhaus abgegeben.
Im Verlauf der Arbeit stellt sich heraus, dass Azure eine ausreichende Datensicherheit bieten kann. Allerdings wird deutlich, dass durch die Kombination von mehreren Nebenfaktoren wie das Patch-Verhalten oder die Antwortzeit auf Sicherheitsschwachstellen seitens Microsofts, eine große Gefahr für die Daten von Unternehmen entstehen kann. Demnach ist Microsoft als Anbieter ein größeres Problem für die Sicherheit von Daten in Azure als der Cloud-Dienst selbst.
Evaluierung neuer HTML5- und JavaScript-Technologien bei der Nutzung in heterogenen Umgebungen
(2012)
Die 1&1 Internet AG in Karlsruhe betreibt einen Onlinespeicher, der von Kunden der diversen Tochter- und Schwestergesellschaften hauptsächlich über ein Browserfrontend bedient wird. Dieses kommuniziert mittels einer definierten JSON-Schnittstelle mit der auf Java basierenden Middleware. Da der Client schon vor einigen Jahren entwickelt wurde, nutzt er noch nicht alle Möglichkeiten die HTML5 in aktuellen Browsern bietet. Die Beschreibung und Bewertung dieser Möglichkeiten stellt die Kernaufgabe der Thesis dar. Einer der Schwerpunkt soll dabei auf der Offlinefähigkeit und intelligenten Benutzung von Caching- & Sync-Strategien zwischen Onlineanwendung und Offlineclient bestehen. Desweiteren sollen die Möglichkeiten von aktuellen Browsern ohne Beachtung der Rückwärtskompatibilität zu älteren Browsern genutzt werden. Zu Demonstrationszwecken sollen Beispielanwendungen den Einsatz der neuen Technologien erstellt werden, damit deren praktische Nutzung leichter zu erfassen ist. Das Hauptaugenmerk bei den Beispielanwendungen liegt indes nicht auf der Funktionalität, sondern auf dem Einsatz der jeweiligen Technologie, so dass deren Möglichkeiten getestet werden können. Ebenfalls Teil der Arbeit soll die Erarbeitung von theoretischen Aspekten sowie die Erstellung einer Übersicht über den aktuellen Stand der Fachliteratur darstellen. Dies soll bei weiterer Nutzung der Ergebnisse die Erarbeitung von erweitertem Fachwissen erleichtern. Basis sollen hier die aktuell Erschienenen Fachbücher auf deutsch und englisch sowie - naturgemäß nochmals aktueller - die regelmäßigen Veröffentlichungen im Internet und in Fachzeitschriften bilden. Die zu besprechenden Themen umfassen die grundsätzliche Beschreibung von HTML5 und dem Standardisierungsprozess, die neuen HTML-Element in Bezug auf Formulare, Multimedia-Darstellung, die Möglichkeiten der Offline-Anwendung (Application Cache, Cache Manifest, DOM Storage), die Drag & Drop API zur Nutzung beim Dateiupload sowie die File API. Mögliche Themen für den theoretischen Teil sind gängige Architekturmuster (beispielsweise MVC, MVP, MVVM, PAC), Caching- und Sync-Strategien sowie die Potentiale aktueller Skriptsprachen (ECMAScript 5, Coffeescript, DART).
Das Unternehmen Coca-Cola mit ihrem Slogan „Mach dir Freude auf“ oder der Automobilkonzern Audi mit ihrem Leitspruch „Vorsprung durch Technik“ sind Marken mit weltweitem Bekanntheitsgrad. Der Begriff Marke wird durch diese und noch weitere bekannte Unternehmungen in erster Linie mit dem Konkurrenzmarkt von Konsumgütern verknüpft und weniger mit Einrichtungen aus dem Bildungsbereich, wie beispielsweise einer Hochschule. Die beiden Begrifflichkeiten Marke und Hochschule wachsen jedoch nach der Strukturreform der Hochschulen mehr und mehr zusammen. Die Hochschulen befinden sich in einer Reform, die Veränderungen in ihrer Organisation und in ihrem Gesamtauftritt, mit sich bringt. Anlässlich des 50. Jubiläums der Hochschule Offenburg im Mai 2014, soll im Rahmen dieser Arbeit ein Blick auf die Außenwirkung und das Erscheinungsbild der Hochschule geworfen werden. Dabei wird die Hochschule als Marke sowie eine Logoentwicklung im Fokus stehen.
Das Messstellenbetriebsgesetz sieht bis 2032 einen Pflichteinbau von modernen Messeinrichtungen bzw. intelligenten Messsystemen bei allen Verbrauchern und Erzeugern vor. Des Weiteren ist die Anbindung von regenerativen Erzeugungsanlagen und steuerbaren Verbrauchern sowie die netzdienliche Steuerung dieser Einrichtungen über das Smart Meter Gateway durch das Messstellenbetriebsgesetz vorgeschrieben. Diese netzdienliche Steuerung wird unter dem Begriff CLS-Management zusammengefasst und muss von allen Netzbetreibern und Messstellenbetreibern künftig umgesetzt werden. Im Rahmen der Bachelorarbeit wurde ein Testaufbau mit einem intelligenten Messsystem inklusive entsprechender Steuereinrichtung aufgebaut, um das CLS-Management an einfachen Schalthandlungen zu erproben. Die daraus gewonnenen Erfahrungen sollen dem Messstellenbetreiber dabei helfen, das Thema in der Wirkumgebung platzieren zu können. Ziel dieses Aufbaus ist es, über die Kommunikationsart LTE eine Schalthandlung an einer Steuerbox in der Rolle des externen Marktteilnehmers vornehmen zu können. Für die Umsetzung wird eine entsprechende Software des Gateway Herstellers zur Verfügung gestellt, um die Versuche außerhalb des zertifizierten Bereiches durch-führen zu können.
Als konkreten Anwendungsfall wird im Rahmen der Thesis die Ablösung der Funkrundsteuertechnik durch das CLS-Management betrachtet. Mit dem Rollout der intelligenten Messsystemen müssen künftig die steuerbaren Verbrauchseinrichtungen und regenerativen Erzeugungsanlagen über das Smart Meter Gateway gesteuert werden können. Dies hat gegenüber der Funkrundsteuertechnik den entscheidenden Vorteil, dass die Informationen über eine gesicherte TLS-Verbindungen übertragen werden und durch einen Rückkanal auch Informationen über das korrekte Ausführung der Schalthandlung beim externen Marktteilnehmer ankommen.
Als weiteren Anwendungsfall wird untersucht, wie über ein Smart Meter Gateway außer Steuersignale auch Energiedaten und Sollwerte von externen Marktteilnehmer an Smart Grid Infrastrukturen übertragen werden können, um diese optimal betreiben zu können. Als Grundlage dient hierfür das Micro Grid am INES der Hochschule Offenburg
Durch die Digitalisierung erschlossen sich in den letzten 15 Jahren nicht nur viele Möglichkeiten neues Bildmaterial oder Videomaterial aufzunehmen und zu verwahren, sondern auch die Zugänglichkeit der breiten Masse zu solcher Technologie. Abseits der Datenmengen wie sie Social Media Plattformen tagtäglich verarbeiten, existieren die Sende- und Rundfunkanstalten mit gigantischen Archiven von Videomaterial. Der Großteil davon ist von dokumentarischer oder szenischer Natur sowie verschiedenste Interviews aus allen Bereichen des öffentlichen Lebens.
Nach dem aktuellen Stand wird das Videomaterial von Hand kategorisiert und zur Indizierung verschlagwortet. Die Aufgabe war es nun, diesen Prozess zumindest teilweise zu automatisieren. Dazu sollten auf dem Markt verfügbare Technologien in Bereich der Gesichtserkennung und Texterkennung auf ihre Nutzbarkeit zu diesem Zweck hin evaluiert werden. Dabei soll mit Hilfe der in Interviews verwendeten Bauchbinden das momentan gezeigte Gesicht "gelernt" werden, um es später ohne solche Hilfe wiederzuerkennen.
Die freie Achillessehne wird bis heute meist als homogene Struktur betrachtet. Jedoch gibt es viele anatomische Studien, die einen verdrehten Aufbau der Achillessehne aufzeigen. Des Weiteren gibt es Studien der Achillessehne in vivo (hier nur in der Sagittalebene), als auch in vitro, bei denen heterogene Verschiebungen nachgewiesen wurden. So stellt sich die Frage, ob die Achillessehne wirklich als homogene Struktur betrachtet werden kann oder ob der besondere Aufbau einen maßgeblichen Einfluss auf die Physiologie hat. In dieser Studie sollen nun mit Hilfe von Ultraschalluntersuchungen Bewegungen in der Transversalebene der Achillessehne aufgenommen werden. Eine solche Studie gab es bisher noch nicht und könnte deswegen weitere wichtige Informationen über die Achillessehne liefern. Durch lokale, isolierte Stimulationen des musculus gastrocnemius medialis (GM) und musculus gastrocnemius lateralis (GL), soll gezeigt werden, ob es zu heterogenen Bewegungsmustern in der Achillessehne kommt. Analysiert werden die Ultraschallaufnahmen mittels einem 2D Speckle Tracking Verfahren, das auch in anderen Studien in der Sagittalebene verwendet wurde, seinen Ursprung jedoch in der Kardiologie findet. In dieser Pilotstudie wurden fünf Proband:innen (29,2 ± 8,5 Jahre) untersucht. Als Ergebnis wurden bei fast allen Proband:innen lokal unterschiedliche Bewegungsmuster in der Achillessehne bei isolierter Stimulation des GM und GL erfasst. In den drei Stimulationen, die pro Muskel durchgeführt wurden, waren die Ergebnisse innerhalb eines Probanden jeweils sehr ähnlich. Um die Funktionsweise und deren Einfluss nun noch genauer zu analysieren, gilt es in der Zukunft weitere Parameter in das Grundkonzept dieser Studie hinzuzufügen und mehr Proband:innen zu testen.
Der Bankensektor vollzieht eine digitale Transformation. Welche exakten Auswir-kungen diese Transformation auf den Bankensektor und die einzelnen Banken haben wird ist noch nicht abzusehen. Doch schon jetzt zeichnet sich ab, dass Banken sich von ihren starren Öffnungszeiten lösen und flexibler auf die Kunden zugehen müssen. Servicequalität durch maßgeschneiderte Angebote und permanente Verfügbarkeit sind zu kritischen Erfolgsfaktoren im Rennen um die Gunst des Kunden geworden.
Um in diesem Wettstreit einen Wettbewerbsvorteil zu erhalten muss die Verfügbarkeit kritischer Geschäftsprozesse und Ressourcen stets gewährleistet sein. An dieser Stelle setzt Business Continuity Management (BCM) an. In der vorliegen-den Arbeit wird anhand eines Modells einer bereits vollständig digitalisierten Bank, ein Geschäftsprozess ausgewählt um anhand dessen die Auswirkungen des Ausfalls von digitalen Vertriebswegen und Abhängigkeit von IT-Ressourcen aufzuzeigen.
Hinsichtlich des Informationsaustauschs ist die Bewerbungssituation oft durch eine Asymmetrie gekennzeichnet. Arbeitgeber erwarten umfassende und detaillierte Informationen, liefern aber häufig ihrerseits, insbesondere in der Anfangsphase des Auswahlprozesses, nur wenige Informationen. Eine kleine Feldstudie in einem deutschen Unternehmen ergab, dass sich von 34 Bewerbern über die auszuübende Tätigkeit nur vier gut informiert, aber vierzehn nur mäßig und neun schlecht informiert fühlten sowie sieben sich in dieser Hinsicht unbestimmt äußerten. Eine telefonische Befragung von 100 ehemaligen Mitarbeitern und von 50 aktiven Mitarbeitern eines großen Informatik-Unternehmens ergab, dass unrealistische Tätigkeitsschilderungen eine bedeutsame Frühfluktuationsursache sind. Die Frage, ob die Tätigkeit in der Bewerbungsphase realistisch geschildert worden sei, wurde nur von 35,9 % der aktiven Mitarbeiter und nur von 7,1 % der ehemaligen Mitarbeiter bejaht.
Eine Feldforschung in der Art, dass Entscheidungsträger und Bewerber ohne ihre Kenntnis beobachtet und die Beobachtungsergebnisse ausgewertet wurden, existiert nicht. Hier gibt es neben praktischen Schwierigkeiten auch rechtliche und moralisch-ethische Forschungsgrenzen. Ethische Bedenken bestehen ebenso gegen eine experimentell unterschiedliche Behandlung realer Bewerber. Auch eine begleitende Feldforschung zu realen Auswahlverfahren in der Praxis, zum Beispiel durch den intensiven Einbezug von Forschern, durch offensichtliche Tonbandaufnahmen oder Videoaufnahmen von Live- Gesprächen oder durch die stumme oder teilnehmende Beobachtung der Akteure durch Forscher kommt, außer bei Campusinterviews, nicht oft vor.
Das situative Interview (SI) ist eine Form des strukturierten Interviews. Es wird nach der Zielsetzungstheorie von der Annahme ausgegangen, dass ein enger Zusammenhang zwischen geäußerten Verhaltensabsichten und dem späteren realen Verhalten besteht. Bewerber werden gefragt, wie sie in bestimmten Situationen handeln würden: „Was würden Sie tun, wenn ...?“ Man kann von einer mentalen Arbeitsprobe sprechen. Die Antworten der Bewerber werden mit vorher entwickelten Antwortalternativen verglichen und so bewertet.
Diese Bachelor-Thesis beschreibt die Entwicklung eines Informationssystems, das abteilungsintern für verschiedene Report- und Controllingaufgaben in der Abteilung Organisation/IT genutzt wird. Grundlage bilden Daten über Hard- und Software aller Client-Computer, die von der in der PWO AG eingesetzten Anwendung zur Installation / Softwareverteilung (Microsoft SCCM) wöchentlich gesammelt werden. Zunächst wird die Funktionalität der Inventarisierung auf Korrektheit überprüft und die daraus entstehenden Daten analysiert. Benötigte Daten werden gefiltert, sortiert und teilweise mit bestehenden Datenbanken verknüpft. Daraus entsteht ein Webportal, welches es den zuständigen Mitarbeitern/innen ermöglicht, ohne manuellen Aufwand Clients, Software und Lizenzen zu verwalten und entsprechende Berichte zu erstellen. Zudem wird die bestehende CMDB durch bisher fehlende Daten ergänzt. Ziel ist es, die Aufgaben der IT-Abteilung an die ITIL Vorgaben innerhalb der PWO AG auszurichten, um so effektives und effizientes IT Service Management betreiben zu können. Gleichzeitig wird somit ein Standard für die Tochterwerke entwickelt.
Praxisorientierung und angewandte Wissenschaften sind an unseren Hochschulen erprobte Denkweisen, traditionsreich gewachsen aus Technik und Wirtschaft. Mit der interdisziplinären Medienfakultät M+I kommt der gestalterische Blick dazu auf Grafik, Bewegtbild, Sound, Multimedia und Interaktivität. Im Master-Studium ergänzen sich intermediales Gestalten und Reflexion mit audiovisueller Komposition als Performance. Solche experimentell-künstlerischen Projekte verbinden sich durch Hochschul- und Mediendidaktik mit forschendem Lernen, als integrierende Methode, die noch wachsen soll. Ein wichtiger Impuls dafür könnte Practice-Based Research sein. Das ist eine Forschung in Kunst und Gestaltung, aber auch in Medizin und Sozialwissenschaft, die sich in den letzten drei Jahrzehnten im Angelsächsischen von Nordamerika über England bis nach Australasia intenstiv entwickelt hat.
M+I = Mediologie + Interdisziplinarität – Skizzen angewandter und anwendbarer Medienwissenschaft
(2011)
Im Handlungsfeld Medien + Informationswesen (M+I) der Hochschule Offenburg steht die didaktische Produktion in der Lehre und für professionelle Tätigkeiten im Zentrum. In Laboren, Studios, Projekten, Abschluss- und Forschungsarbeiten werden mediale Lösungen für die Praxis erarbeitet und auch neue Formate entworfen. Die Fachwissenschaften umgeben solche Workflows als paralleles Bezugssystem. Darin ist die Zusammenarbeit zwischen Gestaltungslehrern und Informatikern, von Medientechnik und Medienmanagement ein gut entwickelter Prozess für Medien in der Bildung (oder „Bildung im Neuen Medium“) [1]. Die Herstellung selbst aber ist nicht immer primär theoriegeleitet, sondern mehr konzentriert auf Ideen, Akteure, Werkzeuge, Abläufe und Strukturen. Lehr-Lern-Konzepte, theoretische Reflexion und forschendes Lernen treffen so zwar zusammen und an Übergängen wachsen theoriefähige Gestalten, noch ohne sich intermedial zu vollenden [2]. Aus dem Blickwinkel der Ilmenauer Angewandten Medienwissenschaft lässt sich ein Workflowkonzept übertragen zwischen praktischem Handeln und wissenschaftlichen Einzelfächern. Auch durch Mediologie, eine schlanke „Medientheorie der Kulturwissenschaften“ gerät solches Übertragen und Vermitteln bewusster von der technologischen und materialen Basis der Medien her in die Diskussion. Als Mediation verbindet sie Inhalt, Organisation und Ästhetik, so der technikversierte Medienphilosoph Frank Hartmann [3].
Bioakustik, ein interdisziplinäres Gebiet der Biologie zwischen Klang und Umwelt, erfährt durch die Kunstkopf-Hörbilder des Naturforschers und Tonmeisters Walter Tilgner eine plastische, wissenschaftliche Erweiterung. Mit dem binauralen Kunstkopfverfahren zeichnet er nicht nur einzelne tier- und vogelkundliche Laute auf, sondern die gesamte Umgebung und ihr typisches Klangbild. Während die Tierstimmenanalyse etwa der Ornithologie einzelne Formen des Vogelgesangs untersucht, geht es ihm und Hörkünstlern wie Gordon Hempton, dem ‚Soundtracker‘, um das Wechselspiel zwischen den Arten in Zeit und Raum. Auch die pädagogische Seite spielt eine Rolle, um den Rezipienten Naturklang als wertvolle Ressource nahezubringen. 1985 hat der Pionier Tilgner die ersten Naturlandschaften vollständig digital aufgenommen und bei WERGO mit dem Label ‚Natural Sound‘ als CD publiziert. Für den Komponisten und Wissenschaftler Dr. Bernie Krause aus Kalifornien repräsentieren solche Aufnahmen ökologische Nischen in der Landschaft, von typischen Klangverläufen geprägt. In seinem eigenen Vergleich dichter Naturräume in Südamerika, Afrika und Asien werden sie unverwechselbar als akustischer Fingerabdruck nachweisbar. Der Künstler- Forscher hat mit der Spektralanalyse so nicht nur seine ‚Nischen-Hypothese‘ entwickelt und empirisch bestätigt, sondern auch den Begriff der Biophonie geprägt: Naturklänge entfalten sich wie in einem musikalischen Stück, sie sind der Komposition einer (Bio-)Symphonie vergleichbar. Die Stimmen der Spezies bilden arin den ‚materialen Klang‘ (den Ausdruck verdanken wir dem Komponisten Johannes Wallmann in Berlin). Darauf wirken die zeitlichen Prozesse und räumlichen Faktoren der Umwelt, als ‚Geophony‘ aus Klima und Flora, durch Sonne, Wind, Erde und Wasser. Schließlich verändert auch der Mensch die Naturlandschaft durch technische Geräte, wie in der Tonaufnahme, und durch extensives Wirtschaften hin zur ‚Anthrophony‘. Der Klang der Natur ist also menschgemacht, und die Aufnahmen bedeuten nicht nur wertvollen Rohstoff für die Medien. Bioakustik und Biophonie fordern den Dialog von und über Natur und Kultur immer wieder neu heraus, wie hier im Spektrogramm einer Waldcollage, mit einer starken Motorsäge als Mittelpunkt [2].
Intermediales Gestalten bildet in der Fakultät M+I ein dichtes Produktionsnetz. Es umfasst ein großes Spektrum von Schrift, Bild und Fotografie zu zeitbasierten Formen, audiovisueller Komposition und Medienkunst. Experimentelles Screen- und Webdesign tragen mit interaktiven Momenten dazu bei, als Werkstattberichte und DVD-Arrangements. Dazwischen entfalten sich Sound und Design als eigene Klangsprache – Klanguage‘ – wie auch quer-synergetisch zu allen Medien und deren Bezugsdisziplinen. Zwar ist der Acoustic Turn der Kulturwissenschaft im Vergleich zu Texten und Bildern noch recht verhalten. [1] Aber Interdisziplinarität und wieder neu zu entdeckende (Poly-)Ästhetik [2] verbinden die unterschiedlichen Medien über ihre parallelen Workflows und Produktionsstrukturen wie auch in wissenschaftlichen Diskursen zur Konzeption und Produktion. [3] Doch auch der theoretische Ausdruck Intermedialität ist ein reicher Schirmbegriff zwischen Gattungen und Genres. [4] Das zeigt sich als Längsschnitt, in dem Medien historisch aus- und miteinander entstehen und vergehen. Andererseits verfügen wir heute über einen frei konfigurierbaren Querschnitt an neuen Formaten, etwa von der noch wenig erprobten Akustischen Fotografie zur visuellen Virtualität und Simulation. Modelle wachsen aus Arbeitsprojekten und auch in der teilnehmenden, teilseienden Doppelrolle von Praxisforschern. Gestalter sind Beobachter und Akteure zugleich, wie bei Ihnkens Studio als ‚Labor der Emotionen‘ [5]. Intermediales Gestalten ist also immer ein doppelter Prozess: in den Medien selbst als Transfer der Gestaltungskraft von einer Schicht zur anderen und als Mitte zwischen Produktions- und Wissenskultur.
Implementierung von Softcore-Prozessoren und/oder weiteren IPs (Intellectual Property) in FPGAs
(2018)
Die zunehmende Integration von kompletten Systemen auf einem Chip (System-on-Chip, SoC) erfordert auch immer die Integration einer Recheneinheit bzw. eines Prozessorkerns. Möchte man insbesondere Low-Power-SoC-Systeme entwickeln, z.B. drahtlose Sensor-SoC-Systeme für Anwendungen im Rahmen von Industrie 4.0, ist die Implementierung eines solchen Prozessorkerns mit hohen Herausforderungen verbunden. Prinzipiell können hierfür verschiedene Ansätze verfolgt werden, nämlich die Implementierung einer Hardcore Prozessor-IP (IP = Intellectual Property) oder einer Softcore-Prozessor-IP. Im vorliegenden Beitrag wird zunächst auf den derzeitigen Stand der Technik verfügbarer Hardcore- oder Softcore-Prozessoren unter den Randbedingungen der Low-Power-Anforderungen und der weiten Verbreitung des Cores in industriellen Anwendungen eingegangen. Schließlich werden die Ergebnisse der Implementierung und Evaluierung eines derzeit frei verfügbaren 16-bit MSP430-kompatiblen Softcore Prozessors auf einem Altera-Cyclon-FPGA vorgestellt. Aus den Ergebnissen wird ein entsprechendes Fazit für die Implementierung von Low-Power-SoC-Systeme gegeben.