Refine
Year of publication
- 2022 (433) (remove)
Document Type
- Conference Proceeding (106)
- Article (reviewed) (72)
- Bachelor Thesis (63)
- Part of a Book (63)
- Master's Thesis (27)
- Article (unreviewed) (23)
- Book (20)
- Other (20)
- Contribution to a Periodical (11)
- Working Paper (8)
Conference Type
- Konferenzartikel (87)
- Konferenz-Abstract (13)
- Konferenz-Poster (3)
- Sonstiges (3)
Keywords
- Digitalisierung (12)
- COVID-19 (10)
- injury (10)
- biomechanics (7)
- running (7)
- 3D printing (6)
- Machine Learning (6)
- Webentwicklung (6)
- Entrepreneurship (5)
- JavaScript (5)
Institute
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (138)
- Fakultät Medien (M) (ab 22.04.2021) (137)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (96)
- Fakultät Wirtschaft (W) (67)
- INES - Institut für nachhaltige Energiesysteme (34)
- POIM - Peter Osypka Institute of Medical Engineering (21)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (16)
- IMLA - Institute for Machine Learning and Analytics (14)
- ACI - Affective and Cognitive Institute (7)
- CRT - Campus Research & Transfer (4)
Open Access
- Closed (206)
- Open Access (150)
- Closed Access (77)
- Bronze (51)
- Diamond (34)
- Gold (23)
- Hybrid (15)
- Grün (7)
Für die Prognose von Zeitreihen sind bezüglich der Qualität der Vorhersagen heutzutage neuronale Netze und Deep Learning das Mittel der Wahl. LSTM-Netzwerke etablierten sich dazu als eine gut funktionierende Herangehensweise. 2017 wurde der auf Attention basierende Transformer für die Übersetzung von Sprache vorgestellt. Aufgrund seiner Fähigkeit mit sequenziellen Daten zu arbeiten, ist er auch für Zeitreihenprobleme interessant. Diese wissenschaftliche Arbeit befasst sich mit der Vorhersage von Zeitreihen mit einem Transformer. Es wird analysiert, inwiefern sich ein Transformer für Zeitreihenvorhersagen von einem Transformer für Sprachübersetzungen unterscheidet und wie gut die Vorhersagen im Vergleich zu denen eines LSTM-Netzwerkes abschneiden. Dazu werden ein LSTM- und ein Transformer-Netzwerk auf Luftqualitäts- und Wetterdaten in Berlin trainiert, um den Feinstaubgehalt (PM25) in der Luft vorherzusagen. Die Ergebnisse werden mit einem Benchmark-Modell anhand von Evaluationsmetriken verglichen. Anschließend wird evaluiert, wie die Fehler des Transformers reduziert werden können und wie gut der Transformer generalisiert.
This mature textbook brings the fundamentals of fluid mechanics in a concise and mathematically understandable presentation. In the current edition, a section on dissipation and viscous potential flows has been added. Exercises with solutions help to apply the material correctly and promote understanding.
Die Eigenschaften von Fluiden sind zur Beschreibung von Strömungsvorgängen mit den Erhaltungssätzen für Masse, Impuls und Energie notwendig. Für inkompressible Fluide wird die Grenze der Dichteänderung in Abhängigkeit der Machzahl angegeben. Die Rheologie behandelt die Fließeigenschaften der Fluide bei Deformationen in Strömungen. Die Viskosität tritt beim newtonschen Schubspannungsansatz auf. Das Verhalten von Druck und Dichte in der Hydro- und Aerostatik wird beschrieben.
Ausgehend von eindimensionalen reibungsfreien Strömungen wird die Bernoulli-Gleichung und die Energiebilanz hergeleitet. Mit der Eulerschen Betrachtungsweise wird der Unterschied zwischen stationären und zeitabhängigen Strömungen verdeutlicht und an zahlreichen Beispielen angewandt. Die zweidimensionalen reibungsfreien und inkompressiblen Strömungen werden mit der Potenzialtheorie behandelt. Die Lösungseigenschaften werden am Beispiel der Zylinderumströmung ohne und mit Zirkulation aufgezeigt.
Die Navier-Stokes Gleichungen bilden mit der Energiegleichung die Basis zur Beschreibung reibungsbehafteter Strömungen. Kennzahlen bilden die Grundlage der Ähnlichkeitsbetrachtungen und Modellgesetze. Lösungen werden für laminare und turbulente Strömungen ermittelt. Der Impulssatz dient zur Berechnung von Kraftwirkungen. Druckverluste bei Durchströmungen und Strömungswiderstände bei Umströmungen werden an Beispielen ermittelt. Die Grenzschichttheorie findet bei hohen Reynoldszahlen Anwendung.
Gasdynamik
(2022)
Für kompressible Strömungen werden die Erhaltungssätze für Masse, Impuls und Energie hergeleitet. Die Eigenschaften der Stoßgleichungen wie Rankine-Hugoniot-Relation und Rayleigh-Gerade werden betrachtet. Zur Berechnung der Kräfte auf umströmte Körper werden die Auftriebs- und Widerstandsbeiwerte ermittelt. Auf der Basis der Stromfadentheorie wird die Auslegung von Lavaldüsen behandelt. Das physikalische Verhalten linearer Unter- und Überschallströmungen und transsonischer Profilumströmungen wird analysiert.
Die Kombination von Reibung und Kompressibilität wird bei der Rohrströmung, der Kugelumströmung und der laminaren und turbulenten Plattengrenzschicht untersucht. Das Auftreten von Verdichtungsstößen führt zur Stoß-Grenzschicht-Interferenz und auf den Tsien-Parameter. Die Mach-Reynoldszahl Ähnlichkeit in der Gasdynamik führt zur Abgrenzung der verschiedenen Strömungsbereiche. Resultate von Windkanaluntersuchungen sowie analytischen und numerischen Berechnungen werden für das Rhombusprofil und das NACA 0012 Profil analysiert.
Pandemie und Moral
(2022)
In der Corona-Pandemie wandelte sich die Moral der Menschen. Während auf der einen Seite Solidaritätsbestrebungen verstärkt zu verzeichnen waren, war andererseits aber auch, oft aus Angst und Unsicherheit erwachsen, ein Extremverhalten zu beobachten. Soll moralischer Fortschritt zum Bestehen der großen Herausforderungen der Zukunft beitragen, sind eine Bildungsoffensive, vor allem aber auch Gerechtigkeit, die Voraussetzungen.
Narrowband Internet-of-Things (NB-IoT) is a 3rd generation partnership project (3GPP) standardized cellular technology, adopted for 5G and optimized for massive Machine Type Communication (mMTC). Applications are anticipated around infrastructure monitoring, asset management, smart city and smart energy applications. In this paper, we evaluate the suitability of NB-IoT for private (campus) networks in industrial environments, including complex cloud-based applications around process automation. An end-to-end system has been developed, comprising of a sensor unit connected to a NB-IoT modem, a base station (gNodeB) equipped with a beamforming array and a local (private) network architecture comprising a sensor management system in the edge cloud. The experimental study includes field tests in realistic industrial environments with latency, reliability and coverage measurements. The results show a good suitability of NB-IoT for process automation with high scalability, low-power requirements and moderate latency requirements.
Die vorliegende Masterarbeit hatte zum Ziel, die Effektivität des Influencer Marketings auf der Livestreaming-Plattform Twitch.tv zu untersuchen, da diesbezüglich zum einen bisher kaum geforscht wurde und zum anderen die Influencer Marketing Industrie weiterhin von Jahr zu Jahr wächst. Mittels eines Experiments basierend auf einem Forschungsmodell zweier norwegischer Masterstudentinnen wurde ein randomisiertes Zwei-Gruppen-Experiment durchgeführt, um die Effektivität des Influencer Marketings zu messen, sowie den Einfluss von Parasozialen Interaktionen auf die Effektivität des Influencer Marketings zu analysieren. Außerdem wurde ein Vergleich zwischen dem Influencer Marketing und einer regulären Online-Werbung gezogen. Für die Durchführung des Experiments konnten 184 Probanden gewonnen werden, welche randomisiert einem Treatment in Form eines gesponserten Twitch-Streams oder einem Videospieltrailer ausgesetzt waren. Trotz dieser Anzahl konnten im Laufe der Analyse keine signifikanten Ergebnisse erzielt werden. Jedoch konnten diverse Erkenntnisse gewonnen und Empfehlungen für zukünftige Forschung mit dem Fokus Influencer Marketing auf Twitch.tv ausgesprochen werden.
Die thermischen Wirkungsgrade von Kraftwerken zur Stromerzeugung sind relativ gering. Beispielsweise erreichen moderne Kohlekraftwerke heute bis etwa 45 %, Gasturbinen maximal 40 % sowie Diesel-und Gas-Motoren bis ca. 50 %. Kombinations-Kraftwerke, d. h. Gas- und Dampfturbinen-Prozesse, können über 60 % thermischen Wirkungsgrad bei der Umwandlung der zugeführten Wärme in mechanische bzw. elektrische Energie erzielen. Ein ähnlich hoher Wert wird in Zukunft von den Brennstoffzellen erwartet. Der nicht in Arbeit umgewandelte Anteil der zugeführten Wärme fällt als Abwärme an und geht ungenutzt in die Umgebung. Ein Teil dieser Abwärme lässt sich durch entsprechende Installationen bei allen Kraftwerksprozessen zur Wassererwärmung oder zur Dampferzeugung für industrielle Zwecke nutzen. Für Heiz- und Prozesswärme genügt eine Temperatur der Abwärme von 60 bis 80 °C, während die Erzeugung von Industriedampf deutlich höhere Temperaturen voraussetzt.
Energiespeicherung
(2022)
Der Endverbraucher erwartet die Energielieferung direkt an den Verbrauchsort. Er unterhält für die elektrische Energie und das Erdgas keine Vorratshaltung, weshalb diese bedarfsgleich geliefert werden müssen. Energiespeicher entkoppeln die Primärenergiegewinnung, z. B. im Bergbau, und die Energieumwandlung beim Versorger einerseits und den Energieverbrauch mit seinen zeitlichen Variationen andererseits.
Unter fossilen Energieträgern verstehen sich energie- und kohlenstoffhaltige Stoffe, die in mehreren Millionen Jahren aus Biomassen unter dafür günstigen Bedingungen (Sauerstoffausschluss) gebildet wurden. Das geologische Alter von Steinkohle beträgt über 250 Millionen Jahre, das von Braunkohle ca. 50 Millionen. Derzeit werden deutlich mehr fossile Energieträger verbraucht als nachgebildet. Während in Deutschland die Stilllegung von Dampfkraftwerken, die mit Steinkohle befeuert werden, begonnen hat, steigt global der Verbrauch dieser Brennstoffe weiterhin an. Die Steinkohleförderung erreichte im Jahr 2019 weltweit den Wert von 7,3 Milliarden Tonnen, mit einer Steigerung von immerhin fast 3 % gegenüber dem Vorjahr 2018 nach [1]. Dieser Anstieg erfolgte hauptsächlich in China und Indonesien – in Deutschland ging der Kohleverbrauch in diesem Zeitraum zurück.
In den letzten 100 Jahren hat sich die mittlere Temperatur der Erdoberfläche um etwa 0,6 bis 0,8 °C erhöht. Diese Temperatur korreliert mit der Zunahme der CO2-Konzentration in der Erdatmosphäre. CO2 sowie verschiedene andere Gase erzeugen eine Erwärmung der Atmosphäre, da diese das sichtbare Licht (kurzwellige elektromagnetische Wellen) in Wärme umwandeln (längerwellige elektromagnetische Wellen, Infrarot-Strahlung), die weniger gut in das Weltall abgestrahlt wird und somit die Atmosphäre langfristig erwärmt. Dieser Effekt wird für die solare Erwärmung der Gewächshäuser bzw. Treibhäuser (Greenhouses) genutzt.
Gasturbinen-Kraftwerke
(2022)
Das Wort Gasturbine rührt nicht vom Brennstoff her, der gasförmig, flüssig oder sogar fest sein kann, sondern vom gasförmigen Arbeitsmedium, das bei üblichen offenen Gasturbinen Luft und nach der inneren Verbrennung Luft-Rauchgas ist. Der Brennstoff wird dem angesaugten Arbeitsmedium Luft zugeführt, so dass eine innere Verbrennung stattfindet. Das Abgas wird bei den üblichen offenen Gasturbinen in die Atmosphäre abgegeben.
Kombinationskraftwerke
(2022)
Wasserkraftwerke
(2022)
Die Wasserkraft ist global die bedeutendste erneuerbare Energiequelle zur Stromerzeugung. Sie hat in Deutschland allerdings einen stagnierenden Anteil von nur ca. 3,5 % der gesamten Stromerzeugung. In Deutschland wurde die Wasserkraft bei der Stromerzeugung durch die Windkraft, Photovoltaik und sogar von der Biomassevergasung überholt. Die Wasserkraft ist allerdings eine gut berechenbare Energiequelle und unterliegt nicht den nur kurzfristig vorhersehbaren Schwankungen der Wind- und Solarenergien.
Energetische Müllverwertung
(2022)
In den 1970er-Jahren entstand in der Bundesrepublik Deutschland das Bewusstsein für die Problematik von Mülldeponien mit ihren Sickerwässern und entweichenden Gasen. Die lokalen Müllkippen wurden zugunsten weniger zentraler, überwachter Anlagen geschlossen (Faustregel: Eine Zentraldeponie pro Landkreis).
The significant market growth of stationary electrical energy storage systems both for private and commercial applications has raised the question of battery lifetime under practical operation conditions. Here, we present a study of two 8 kWh lithium-ion battery (LIB) systems, each equipped with 14 lithium iron phosphate/graphite (LFP) single cells in different cell configurations. One system was based on a standard configuration with cells connected in series, including a cell-balancing system and a 48 V inverter. The other system featured a novel configuration of two stacks with a parallel connection of seven cells each, no cell-balancing system, and a 4 V inverter. The two systems were operated as part of a microgrid both in continuous cycling mode between 30% and 100% state of charge, and in solar-storage mode with day–night cycling. The aging characteristics in terms of capacity loss and internal resistance change in the cells were determined by disassembling the systems for regular checkups and characterizing the individual cells under well-defined laboratory conditions. As a main result, the two systems showed cell-averaged capacity losses of 18.6% and 21.4% for the serial and parallel configurations, respectively, after 2.5 years of operation with 810 (serial operation) and 881 (parallel operation) cumulated equivalent full cycles. This is significantly higher than the aging of a reference single cell cycled under laboratory conditions at 20 °C, which showed a capacity loss of only 10% after 1000 continuous full cycles.
Die vorliegende Abschlussarbeit wurde intern an der Hochschule Offenburg angefertigt. Gegenstand der Untersuchung ist der Einsatz von cloudbasierten Business-Intelligence-Systemen in der Lehre.
Die Arbeit befasst sich zu Beginn mit der Anbindung einer externen Datenquelle in SAP Data Warehouse Cloud (DWC). Diese basiert auf einer relationalen Datenbank. Hierfür wer- den drei unterschiedliche Lösungen untersucht und miteinander verglichen. Außerdem werden Lernszenarien für die Arbeit mit der SAP Analytics Cloud (SAC) entworfen. Die Lernszenarien beinhalten jeweils ein Vertriebsdashboard, welches zuvor konzipiert und in SAP Analytics Cloud (SAC) implementiert wird. Die Dashboards sollen durch das Absolvieren von Lernszenarien durch Studierende an der Hochschule Offenburg unter Einhaltung von Prinzipien guter Visualisierung nachgebaut werden. Beide Produkte von SAP sind momentan Teil von Laboren an der Hochschule Offenburg, um Prinzipien von Business Intelligence (BI) praktisch anzuwenden. Mit Hilfe von SAP Data Warehouse Cloud (DWC) wird ein Datenmodell entworfen. Dieses wird in SAP Analytics Cloud (SAC) verwendet, um die Daten zu visualisieren. Die Grundlage für die Arbeiten bilden die Daten der Global Bike Group. Hierbei handelt es sich um eine Referenzfirma von SAP, die es ermöglicht, anhand von geschäftlichen Testdaten einen Eindruck von den Funktionen der SAP-Produkte zu erlan- gen.
Die Arbeit orientiert sich an zwei Forschungsfragen. Die erste Forschungsfrage behandelt die Anbindung einer Datenquelle in SAP Data Warehouse Cloud (DWC). Die zweite Forschungsfrage betrifft den Entwurf von Lernszenarien mit unterschiedlichem Umfang und unterschiedlicher Zielgruppe in SAP Analytics Cloud (SAC). Beide Fragen konnten erfolg- reich beantwortet werden. Die Ziele der Arbeit wurden erreicht
Zu Beginn dieser Arbeit wurde das Problem beschrieben, dass das Ersetzen von einzelnen Modulen innerhalb TYPO3s durch React bisher nicht möglich war. Dadurch ergab sich die Aufgabe eine Lösung zu finden, mit der die Vorteile von React in TYPO3 eingebracht werden können, möglichst ohne große Veränderungen und Aufwände zu betreiben. Als zusätzliche Anforderung wurde definiert, dass React in TypeScript geschrieben werden soll.
Um dem Leser dieser Arbeit die Möglichkeit zu geben, den angefertigten Code verstehen und interpretieren zu können, wurden zunächst Grundlagen in TypeScript, React und TYPO3 geschaffen. Daraufhin wurde der Ist-Stand beschrieben, welcher ein simples TYPO3-Plugin beschreibt. Dies wurde für die grundsätzliche Umwandlung in React möglichst simpel gehalten, war dennoch mit einigen Grundsätzen wie AJAX und Rerendering ausgestattet, um gewisse Vorteile und Problematiken bei der Umsetzung aufzeigen zu können. Daraus ergab sich ein Soll-Stand, welcher zugleich weitere Anforderungen an die spätere Lösung definierte.
Um ein mögliches Lösungskonzept erarbeiten zu können wurden im Kapitel „Stand der Technik“ 2 verwandte Arbeiten und Möglichkeiten vorgestellt. Daraufhin wurden die beiden zu entwickelnden Plugins beschrieben, zunächst das Dummy-TYPO3-Plugin, gefolgt vom in React entwickelten Äquivalent.
In Kapitel 8 wurde ein Konzept erstellt und daraufhin die Umsetzung Schritt für Schritt durchgeführt. Dabei konnte erfolgreich React in TYPO3 aufgesetzt und zur Entwicklung genutzt werden. Das Dummy-Plugin konnte ohne größere Probleme umgesetzt werden und zeigte somit eine mögliche Lösung für die Umwandlung von TYPO3 zu React auf. Um diese Lösung zu validieren, wurde im Folgekapitel das ProofOfConcept entwickelt. Dabei handelte es sich um ein produktiv eingesetztes Projekt, welches auf einer älteren Version basiert und verschiedene Anforderungen mitbrachte. Dies wurde nach Vorstellung des Projektes und Lösungskonzept Schritt für Schritt umgesetzt.
Background: Running overuse injuries (ROIs) occur within a complex, partly injury-specific interplay between training loads and extrinsic and intrinsic risk factors. Biomechanical risk factors (BRFs) are related to the individual running style. While BRFs have been reviewed regarding general ROI risk, no systematic review has addressed BRFs for specific ROIs using a standardized methodology.
Objective: To identify and evaluate the evidence for the most relevant BRFs for ROIs determined during running and to
suggest future research directions.
Design: Systematic review considering prospective and retrospective studies. (PROSPERO_ID: 236,832).
Data Sources: PubMed. Connected Papers. The search was performed in February 2021.
Eligibility Criteria: English language. Studies on participants whose primary sport is running addressing the risk for the seven most common ROIs and at least one kinematic, kinetic (including pressure measurements), or electromyographic BRF. A BRF needed to be identified in at least one prospective or two independent retrospective studies. BRFs needed to be determined during running.
Results: Sixty-six articles fulfilled our eligibility criteria. Levels of evidence for specific ROIs ranged from conflicting to moderate evidence. Running populations and methods applied varied considerably between studies. While some BRFs appeared for several ROIs, most BRFs were specific for a particular ROI. Most BRFs derived from lower-extremity joint kinematics and kinetics were located in the frontal and transverse planes of motion. Further, plantar pressure, vertical ground reaction force loading rate and free moment-related parameters were identified as kinetic BRFs.
Conclusion: This study offers a comprehensive overview of BRFs for the most common ROIs, which might serve as a starting point to develop ROI-specific risk profiles of individual runners. We identified limited evidence for most ROI-specific risk factors, highlighting the need for performing further high-quality studies in the future. However, consensus on data collection standards (including the quantification of workload and stress tolerance variables and the reporting of injuries) is warranted.
The purpose of this study was to describe the effects of running speed and slope on metatarsophalangeal (MTP) joint kinematics. 22 male and female runners underwent 3D motion analysis on an instrumented treadmill at three different speeds (2.5 m/s, 3.0 m/s, 3.5 m/s). At each speed, participants ran at seven slope conditions (downhill: -15%, -10%, -5%, level, and uphill: +5%, +10%, +15%). We found a significant main effect (p < 0.001) of running speed and slope on peak MTP dorsiflexion and a running speed by slope interaction effect (p < 0.001) for peak MTP dorsiflexion velocity. These findings highlight the need to consider running intensity and environmental factors like running surface inclination when considering MTP joint mechanics and technological aids to support runners.
Kenntnisse im internationalen Steuerrecht werden in der steuerlichen Ausbildung immer wichtiger. Mit dem „Wilke“ sichern Sie sich einen umfassenden und fundierten Einstieg in diese komplexe Materie. Leicht verständlich und anschaulich vermittelt dieses Standardlehrbuch Ihnen alle relevanten Grundlagen des internationalen Steuerrechts. Der Aufbau des Buchs orientiert sich dabei sowohl an den Bedürfnissen der Ausbildung als auch denen der Praxis. Als idealer Begleiter unterstützt es Sie in jeder Phase Ihrer beruflichen Entwicklung – von den ersten Schritten in der Steuerberater-Ausbildung bis hin zur erfolgreich abgeschlossenen Weiterbildung zum Fachberater für Internationales Steuerrecht. Die 16. Auflage berücksichtigt die Entwicklung auf dem Gebiet des internationalen Steuerrechts in Gesetzgebung, Rechtsprechung, Literatur und Verwaltung bis Ende Februar 2022.
Rechtsstand: 28.2.2022
Background: Many countries have restricted public life in order to contain the spread of the novel coronavirus (SARS-CoV2). As a side effect of related measures, physical activity (PA) levels may have decreased.
Objective: We aimed (1) to quantify changes in PA and (2) to identify variables potentially predicting PA reductions.
Methods: A systematic review with random-effects multilevel meta-analysis was performed, pooling the standardized mean differences in PA measures before and during public life restrictions.
Results: A total of 173 trials with moderate methodological quality (modified Downs and Black checklist) were identified. Compared to pre-pandemic, total PA (SMD − 0.65, 95% CI − 1.10 to − 0.21) and walking (SMD − 0.52, 95% CI − 0.29 to − 0.76) decreased while sedentary behavior increased (SMD 0.91, 95% CI: 0.17 to 1.65). Reductions in PA affected all intensities (light: SMD − 0.35, 95% CI − 0.09 to − 0.61, p = .013; moderate: SMD − 0.33, 95% CI − 0.02 to − 0.6; vigorous: SMD − 0.33, − 0.08 to − 0.58, 95% CI − 0.08 to − 0.58) to a similar degree. Moderator analyses revealed no influence of variables such as sex, age, body mass index, or health status. However, the only continent without a PA reduction was Australia and cross-sectional trials yielded higher effect sizes (p < .05).
Conclusion: Public life restrictions associated with the COVID-19 pandemic resulted in moderate reductions in PA levels and large increases in sedentary behavior. Health professionals and policy makers should therefore join forces to develop strategies counteracting the adverse effects of inactivity.
Es werden die aktuellen Studien über Fußformen auf signifikante Unterschiede zwischen Männer und Frauen, Einflussfaktoren wie das Alter, die Körpergröße, das Gewicht und den BMI untersucht. Weiter werden die Unterschiede zwischen verschiedenen Ethnien, Belastungen und dem Aufwachsen mit oder ohne Schuhe analysiert. Die Studien werden über PubMed und ConnectedPapers gesucht und die Daten mit Excel ausgewertet und graphisch dargestellt. Folgendes hat sich ergeben: das Alter hat im Wachstum des Fußes einen Einfluss auf die Fußlänge und die Fußbreite. Außerhalb des Wachstums hat das Alter Einfluss auf die fibulare Bogenlänge und die Bogenhöhe. Die Körpergröße hat Einfluss auf die Fußlänge, die fibulare Bogenhöhe, die distale Knöchelhöhe und den Ballenumfang. Das Gewicht hat im Fußwachstum einen Einfluss auf die Fußlänge. Außerhalb des Wachstums hat das Gewicht einen Einfluss auf die fibulare Bogenhöhe, die Höhe des distalen Knöchels, die Zehenhöhe und den Ballenumfang. Der BMI hat einen Einfluss auf die fibulare Bogenlänge, die mediale und distale Knöchelhöhe und die Zehenhöhe. Für die Fersenbreite und die Risthöhe wurden keine Einflussfaktoren gefunden.
In den letzten Jahren haben Recommender Systeme zunehmend an Bedeutung gewonnen. Diese Systeme sind meist für Bereiche des E-Commerce konzipiert und berücksichtigen oftmals nicht den aktuellen Kontext der nutzenden Person. Recommender Systeme können allerdings nicht nur im E-Commerce zum Einsatz kommen, sondern finden ihren Anwendungszweck auch im Gesundheitswesen. Ziel dieser Bachelorarbeit ist es, ein Recommender System zu entwickeln, das den aktuellen Kontext der nutzenden Person (Chatverlauf, demografische Daten) besser berücksichtigen kann. Dazu befasst sich diese Arbeit mit der Konzeption und prototypischen Umsetzung eines kontextsensitiven Recommender Systems für einen bereits existierenden Chatbot aus dem Gesundheitswesen. Das in dieser Arbeit konzipierte und entwickelte Recommender System soll Mitarbeitende aus dem Gesundheits- und Sozialwesen entlasten und ihnen hilfreiche sowie thematisch sinnvolle Informationen zur Verfügung stellen. Basierend auf festgelegten Anforderungen wurde ein Konzept für das Recommender System entwickelt und zu Teilen als Prototyp umgesetzt. Abschließend wurde der Prototyp im Hinblick auf die Anforderungen evaluiert. Zudem fand eine technische Evaluation und eine Evaluation mithilfe von Anwendenden statt, welche den implementierten Prototypen bereits existierenden Systemen gegenüberstellte. Die von dem Prototyp empfohlenen Textausschnitte erzielten in der Evaluation mit nutzenden Personen eine thematisch signifikant höhere Übereinstimmung mit den Chatdaten.
Die Kernfunktionen von Währungen sind daraufhin zu untersuchen, wie sie im Kontext der Digitalisierung bestmöglich erbracht werden können, und das schließt die Möglichkeit einer Entkoppelung der Funktionen mit ein. Die Instrumente, welche die Wertaufbewahrungsfunktion, die Abwicklung von Bezahlvorgängen und die Funktion als Rechen- und Bilanzierungseinheit optimal realisieren, könnten also in einer digitalisierten Wirtschaft auseinanderfallen und sich neu verknüpfen. Private und staatliche Digitalwährungen sind Konzepte, die solche Rekombinationen beinhalten.
Diese Arbeit befasst sich mit der Entwicklung von Full-Stack-Anwendungen im Bereich des Internets der Dinge mit JavaScript. Grundlegende Wissensbereiche, die für diese Entwicklung notwendig sind, werden vorgestellt und erklärt. Es werden ausgewählte JavaScript-Frameworks und -Interpreter im Bereich des Internets der Dinge vorgestellt, bewertet und miteinander verglichen. Mikrocontroller und Einplatinencomputer, welche von den vorgestellten JavaScript-Frameworks und -Interpretern unterstützt werden, werden vorgestellt.
Um die Entwicklung von Full-Stack-Anwendungen im Bereich des Internets der Dinge mit JavaScript bewerten zu können wird eine Anwendung zur Erfassung, Speicherung und Darstellung von Umgebungsvariablen mit Moddable SDK und dem MERN-Stack entwickelt. Vor der Entwicklung werden Anforderungen über eine Anforderungsanalyse definiert und die Anwendung konzipiert. Im Anschluss wird die Anwendung anhand der Anforderungen bewertet. Probleme, die während der Entwicklung der Anwendung auftreten, werden zusammen mit möglichen Lösungen vorgestellt und Full-Stack-Anwendungen im Bereich des Internets der Dinge mit JavaScript werden in diesem Schritt evaluiert.
JavaScript ist für die Entwicklung von Mikrocontrollern zum aktuellen Stand noch nicht ausgereift genug, jedoch bestehen aktuelle Anstrengungen die Entwicklung von JavaScript APIs für Embedded Systems zu vereinheitlichen und voranzutreiben. Dadurch hat die Entwicklung von Full-Stack-Anwendungen im Bereich des Internets der Dinge mit JavaScript Zukunftspotenzial.
Laut einer Studie der AZT Automotive GmbH sind etwa 75% aller Verkehrsteilnehmer im deutschsprachigen Raum durch fahrzeugseitige Technik abgelenkt. Dies stellt eine der größten Unfallgefahren dar: Bei ca. 11% der Verkehrsunfälle 2002-2012 in Deutschland ist die Ursache auf die Ablenkung des Fahrers zurückzuführen. Mittels Sperrkonzepten, welche den Zugriff auf Bereiche und Funktionen des Infotainmentsystems während der Fahrt limitieren, soll die Fahrerablenkung bei den immer größer werdenden Displays, komplexeren Einstellungsmöglichkeiten und längeren Interaktionspfaden minimiert und die Sicherheit im Straßenverkehr gewährleistet werden.
Diese Masterarbeit befasst sich mit dem Thema Fahrerablenkung im Kontext von automatisierten Fahrfunktionen. Durch die zunehmende Automatisierung des Fahrzeugs können wichtige Fahraufgaben und -funktionen durch Fahrassistenzsysteme übernommen und somit der Fahrer bei der Fahraufgabe und der Überwachung des Verkehrsgeschehens unterstützt bzw. entlastet werden. Dadurch ergeben sich für den Fahrer neue Freiheiten, die es ihm erlauben, seine Aufmerksamkeit (teilweise) von der Fahraufgabe abzuwenden und für andere, fahrfremde Tätigkeiten, wie der Interaktion mit dem Infotainmentsystem, zu nutzen. Ziel der Arbeit ist die Spezifikation und prototypische Umsetzung eines dynamischen Sperrkonzeptes für Infotainmentsysteme in Abhängigkeit des Automatisierungsgrades des Fahrzeugs. Risiken durch Fahrerablenkung sollen mittels Sperrungen von Infotainment-Bereichen und -Funktionen minimiert werden, zeitgleich soll der Zugriff auf Informationen und Unterhaltung für den Fahrer möglichst uneingeschränkt gewährleistet werden. Dabei wird der Fokus auf die Automatisierungsgrade Level eins bis drei (nach SAE) gelegt, wo es immer noch zu einem Wechsel zwischen automatisierten und manuellen Fahrabschnitten kommt.
Als Basis für das dynamische Sperrkonzept dient der Stand der Technik bisheriger wissenschaftlicher Erkenntnisse sowie Studien zu automatisierten Fahrfunktionen, Fahrerablenkung, Arbeitsbelastung, Reaktionszeit und Situationsbewusstsein. Außerdem soll ein Überblick über aktuelle Gesetzes- und Normenlagen sowie Gestaltungsrichtlinien in Bezug auf automatisierte Fahrzeuge bzw. Fahrfunktionen geschaffen werden, welche bei der Entwicklung von Sperrkonzepten eine essenzielle Rolle spielen.
Objective: Dickkopf 3 (DKK3) has been identified as a urinary biomarker. Values above 4000 pg/mg creatinine (Cr) were linked with a higher risk of short-term decline of kidney function (J Am Soc Nephrol 29: 2722–2733). However, as of today, there is little experience with DKK3 as a risk marker in everyday clinical practice. We used algorithm-based data analysis to evaluate the potential dependence of DKK3 in a cohort from a large single center in Germany.
Method: DKK3 was measured in all CKD patients in our center October 1 st 2018 till Dec. 31 2019, together with calculated GFR (eGFR) and urinary albumin/creatinine ratio (UACR). Kidney transplant patients were excluded. Until the end of follow-up Dec 31 st 2021, repeated measurements were performed for all parameters. Data analysis was performed using MD-Explorer (BioArtProducts, Rostock, Germany) and Python with multiple libraries. Linear regression models were applied in patients for DKK3, eGFR and UACR. Comparison of the models was performed with a twosided Kolmogorov-Smirnov test.
Results: 1206 DKK3 measurements were performed in 1103 patients (621 male, age 70yrs, eGFR 29,41 ml/min/1.73qm, UACR 800 mg/g). 134 patients died during follow-up. DKK3 mean was 2905 pg/mg Cr (max. 20000, 75 % percentile 3800). 121 pts had DKK3 > 4000. At the end of follow-up 7 % of patients with DKK3 < 4000 (initial eGFR 17.6) versus 39.6 % of patients with DDK3 > 4000 (initial eGFR 15.7) underwent dialysis. Compared to eGFR and UACR at baseline, DKK3 > 4000 performed best to predict eGFR loss over the next 12 months.
Conclusion: In this cohort of CKD patients, DKK3 > 4000 at baseline predicted the eGFR slope better than eGFR or UACR at baseline. DKK3 > 4000 reflected a higher risk of progression towards ESRD in patients with similar baseline eGFR levels.
Der "Return to run" (RTR) ist in der Rehabilitationsphase nach der Ruptur des vorderen Kreuzbandes ein entscheidender Moment für den Patienten. Die Kriterien von RTR sind aktuell jedoch noch vielfältig. Die Evaluierungsmöglichkeiten, die den Physiotherapeuten zur Verfügung stehen, sind nicht immer bekannt.
Das Ziel dieser Arbeit ist Messmethoden und -geräte vorzustellen, die für den Alltag einer physiotherapeutischen Praxis einfach anwendbar sind. Diese Messgeräte sollen die drei Gütekriterien (Validität, Reliabilität und Objektivität) der wissenschaftlichen Forschung erfüllen.
In diesem Sinne wurde eine Literaturrecherche durchgeführt. In diesem Systematic Review wurden Querschnittsstudien, Kohortenstudien und Literaturübersichten berücksichtigt. Insgesamt wurden 33 Studien (18 über die Kraftuntersuchung, 5 über die sensomotorische Untersuchung, 3 über die Laufanalyse und 7 über die Sprunganalyse) in der Studie eingeschlossen. Die Messgeräte, die in der Studie gefunden wurden, haben eine Validität mit einem Evidenzgrad von Moderat bis sehr gut. Sowohl die Inter- als auch die Intrareliabilität besitzen einen Evidenzgrad von gut bis sehr gut.
Alternativen zu den Gold Standards existieren. Sie stellen jedoch noch nicht eine perfekte Validität im Vergleich zu den Gold Standards dar. Allerdings ist sich die Mehrheit der Wissenschaftler darüber einig, dass diese Alternativen im Alltag gut anwendbar sind. In der zukünftigen Entwicklung dieser Messgeräte soll noch mehr Wert auf die absolute Validität gelegt werden.
This thesis evaluates and compares current Full-Stack JavaScript Technologies. Through extensive research on the state of the art of JavaScript and its related frameworks, different aspects of FullStack Development are analysed to judge the popularity of technologies.
The language JavaScript and the idea of Full-Stack Development are presented with the functionality of different frameworks. The JavaScript runtime Node.js was examined and marked as the most influential JavaScript technology, which opened up many opportunities.
As technology stacks MERN, MEAN and MEVN were investigated, featuring the base technologies Node.js, MongoDB and Express.js. It was discovered that front-end frameworks have the most influence on which variant of Full-Stack can be chosen. Comparison criteria between the technology stacks were the learning curve, the maintainability, modularity and media integration. These criteria were extracted from research and a questionnaire conducted with students of the University of Applied Sciences Offenburg.
For the purposes of testing and experiencing a Full-Stack JavaScript application, the game RemArrow, based on the 1979s game Simon, was designed and implemented. The comparison with predefined criteria shows the result that the MERN stack with React.js is the best to learn and promises the most potential. Arising JavaScript technologies and their popularity are very dependent on the industry and skill set of the developer.
In conclusion, it can be established that the concept of Full-Stack Development is currently very interesting and more than just a trend. It has potential of becoming a new kind of web development, and part of the curriculum taught at universities. Expert knowledge is needed but there is a high demand and much potential for Full-Stack JavaScript Developers.
The conversion of space heating for private households to climate-neutral energy sources is an essential component of the energy transition, as this sector as of 2018 was responsible for 9.4 % of Germany’s carbon dioxide emissions. In addition to reducing demand through better insulation, the use of heat pumps fed with electricity from renewable energy sources, such as on-site photovoltaics (PV) systems, is an important solution approach.
Advanced energy management and control can help to make optimal use of such heating systems. Optimal here can e.g. refer to maximizing self-consumption of self-generated PV power, extended component lifetime or a grid-friendly behavior that avoids load peaks. A powerful method for this is model predictive control (MPC), which calculates optimal schedules for the controllable influence variables based on models of the system dynamics, current measurements of system states and predictions of future external influence parameters.
In this paper, we will discuss three different use cases that show how artificial intelligence can contribute to the realization of such an MPC-based energy management and control system. This will be done using the example of a real inhabited single family home that has provided the necessary data for this purpose and where the methods are implemented and tested. The heating system consists of an air-water heat pump with direct condensation, a thermal stratified storage tank, a pellet burner and a heating rod and provides both heating and hot water. The house generates a significant portion of its electricity needs through a rooftop PV system.
VR-based implementation of interactive laboratory experiments in optics and photonics education
(2022)
Within the framework of a developed blended learning concept, a lot of experience has already been gained with a mixture of theoretical lectures and hands-on activities, combined with the advantages of modern digital media. Here, visualizations using videos, animations and augmented reality have proven to be effective tools to convey learning content in a sustainable way. In the next step, ideas and concepts were developed to implement hands-on laboratory experiments in a virtual environment. The main focus is on the realization of virtual experiments and environments that give the students a deep insight into selected subfields of optics and photonics.
Die vorliegende Bachelorthesis setzt sich mit dem Einsatz von digitalen Medien in den Bildungseinrichtungen Hochschule und Berufsschule auseinander. Zunächst werden grundlegende Begrifflichkeiten und digitale Medien beschrieben. Anschließend wird der Gerätebesitz Jugendlicher und die Ausstattung der Bildungsinstitute gezeigt. Im Folgenden wird auf den Einfluss der Coronapandemie in Bezug auf die Digitalisierung eingegangen. Anschließend folgen zwei Konzepte, die einen sinnvollen Einsatz von digitalen Medien in der Bildung gewährleisten sollen.
During the coronavirus crisis, labs had to be offered in digital form in mechanical engineering at short notice. For this purpose, digital twins of more complex test benches in the field of fluid energy machines were used in the mechanical engineering course, with which the students were able to interact remotely to obtain measurement data. The concept of the respective lab was revised with regard to its implementation as a remote laboratory. Fortunately, real-world labs were able to be fully replaced by remote labs. Student perceptions of remote labs were mostly positive. This paper explains the concept and design of the digital twins and the lab as well as the layout, procedure, and finally the results of the accompanying evaluation. However, the implementation of the digital twins to date does not yet include features which address the tactile experience of working in real-world labs.
During the coronavirus crisis, labs had to be offered in digital form in mechanical engineering at short notice. For this purpose, digital twins of more complex test benches in the field of fluid energy machines were used in the mechanical engineering course, with which the students were able to interact remotely to obtain measurement data. The concept of the respective lab was revised with regard to its implementation as a remote laboratory. Fortunately, real-world labs were able to be fully replaced by remote labs. Student perceptions of remote labs were mostly positive. This paper explains the concept and design of the digital twins and the lab as well as the layout, procedure, and finally the results of the accompanying evaluation. However, the implementation of the digital twins to date does not yet include features that address the tactile experience of working in real-world labs.
Titanium and stainless steel are commonly known as osteosynthesis materials with high strength and good biocompatibility. However, they have the big disadvantage that a second operation for hardware removal is necessary. Although resorbable systems made of polymers or magnesium are increasingly used, they show some severe adverse foreign body reactions or unsatisfying degradation behavior. Therefore, we started to investigate molybdenum as a potential new biodegradable material for osteosynthesis in craniomaxillofacial surgery. To characterize molybdenum as a biocompatible material, we performed in vitro assays in accordance with ISO Norm 10993-5. In four different experimental setups, we showed that pure molybdenum and molybdenum rhenium alloys do not lead to cytotoxicity in human and mouse fibroblasts. We also examined the degradation behavior of molybdenum by carrying out long-term immersion tests (up to 6 months) with molybdenum sheet metal. We showed that molybdenum has sufficient mechanical stability over at least 6 months for implants on the one hand and is subject to very uniform degradation on the other. The results of our experiments are very promising for the development of new resorbable osteosynthesis materials for craniomaxillofacial surgery based on molybdenum.
In the railway technical centers, scheduling the maintenance activities is a very complex task, it consists in ordering, in the time, all the maintenance operations on the workstations, while respecting the number of resources, precedence constraints, and the workstations' availabilities. Currently, this process is not completely automatic. For improving this situation, this paper presents a mathematical model for the maintenance activities scheduling in the case of railway remanufacturing systems. The studied problem is modeled as a flexible job-shop, with the possibility for a job to be executed several times on a stage. MILP formulation is implemented with the Makespan as an objective, representing the time for remanufacturing the train. The aim is to create a generic model for optimizing the planning of the maintenance activities and improving the performance of the railway technical centers. At last, numerical results are presented, discussing the impact of the instances size on the computing time to solve the described problem.
Purpose: Participation and accessibility issues faced by gamers with multi-sensory disabilities are themes yet to be fully understood by accessible technology researchers. In this work, we examine the personal experiences and perceptions of individuals with deafblindness who play games despite their disability, as well as the reasons that lead some of them to stop playing games.
Materials and methods: We conducted 60 semi-structured interviews with individuals living with deafblindness in five European countries: United Kingdom, Germany, Netherlands, Greece and Sweden.
Results: Participants stated that reasons for playing games included them being a fun and entertaining hobby, for socialization and meeting others, or for occupying the mind. Reasons for stop playing games included essentially accessibility issues, followed by high cognitive demand, changes in gaming experience due their disability, financial reasons, or because the accessible version of a specific game was not considered as fun as the original one.
Conclusions: We identified that a considerable number of individuals with deafblindness enjoy playing casual mobile games such as Wordfeud and Sudoku as a pastime activity. Despite challenging accessibility issues, games provide meaningful social interactions to players with deafblindness. Finally, we introduce a set of user-driven recommendations for making digital games more accessible to players with a diverse combination of sensory abilities.
IMPLICATIONS FOR REHABILITATION
- Digital games were considered a fun and entertaining hobby by participants with deafblindness. Furthermore, participants play games for socialization and meeting others, or for occupying the mind.
- Digital games provide meaningful social interactions and past time to persons with deafblindness.
- On top of accessibility implications, our findings draw attention to the importance of the social element of gaming for persons with deafblindness.
- Based on interviews, we introduce a set of user-driven recommendations for making digital games more accessible to players with a diverse combination of sensory abilities.
Making innovation, trade, investment and environment policy goals mutually supportive creates challenges for internationally‐oriented firms, financial institutions, governments and other stakeholders. Will the Ukraine war derail the green energy transition? How can governments and the financial system work together to broaden, deepen, and accelerate the global transition to net‐zero? What are innovation, trade and investment opportunities for green growth? How to refocus government financing instruments to support countries and trade partners meet their climate targets in times of crisis? The IfTI Global Symposium 2022 hosted by the Institute of Trade and Innovation (IfTI) at Offenburg University discussed challenges to trade in a new global order, as well as opportunities and threats of the green transition. This Special Section brings together practitioner commentaries of key symposium speakers.
Featherweight Go (FG) is a minimal core calculus that includes essential Go features such as overloaded methods and interface types. The most straightforward semantic description of the dynamic behavior of FG programs is to resolve method calls based on run-time type information. A more efficient approach is to apply a type-directed translation scheme where interface-values are replaced by dictionaries that contain concrete method definitions. Thus, method calls can be resolved by a simple lookup of the method definition in the dictionary. Establishing that the target program obtained via the type-directed translation scheme preserves the semantics of the original FG program is an important task.
To establish this property we employ logical relations that are indexed by types to relate source and target programs. We provide rigorous proofs and give a detailed discussion of the many subtle corners that we have encountered including the need for a step index due to recursive inter- faces and method definitions.
Featherweight Generic Go (FGG) is a minimal core calculus modeling the essential features of the programming language Go. It includes support for overloaded methods, interface types, structural subtyping and generics. The most straightforward semantic description of the dynamic behavior of FGG programs is to resolve method calls based on runtime type information of the receiver.
This article shows a different approach by defining a type-directed translation from FGG to an untyped lambda-calculus. The translation of an FGG program provides evidence for the availability of methods as additional dictionary parameters, similar to the dictionary-passing approach known from Haskell type classes. Then, method calls can be resolved by a simple lookup of the method definition in the dictionary.
Every program in the image of the translation has the same dynamic semantics as its source FGG program. The proof of this result is based on a syntactic, step-indexed logical relation. The step-index ensures a well-founded definition of the relation in the presence of recursive interface types and recursive methods.
Digitalisierung und Visualisierung für die Lehre an Hochschulen am Beispiel der Medientechnik
(2022)
Ziel dieser Arbeit war die Erstellung eines Konzepts für die digitale Lehre am Beispiel der Medientechnik an der Hochschule Offenburg. Das Konzept sollte anhand der Funktionsweise von Digitalkameras und den Themengebieten Blende, Verschlusszeit, ISO und dem Crop-Faktor erstellt werden. Bei Konzepterstellung wurden insbesondere existierende, wissenschaftliche Erkenntnisse aus den Bereichen E-Learning, Blended-Learning und Visualisierung berücksichtigt. Darüber hinaus wurden für das Konzept Visualisierungen für die genannten Themengebiete erstellt. Vor Erstellung der Visualisierungen galt es, mögliche Vorteile der 3D-Visualisierung gegenüber der 2D-Visualisierung zu prüfen und eine Auswahl für das Konzept zu treffen. Als weiteres Ziel sollten die in der Arbeit gewonnenen Erkenntnisse, insbesondere bei der Konzepterstellung, anderen Hochschulen und Lehrenden als Grundlage für eigene Konzepte dienen, um eine digitale Lehre mit Online-Anteilen umsetzen zu können.
Diese Ziele werden im Verlauf der Arbeit uneingeschränkt erreicht.
Die in der Arbeit durchgeführte Literaturanalyse zeigt, dass der Einsatz von E-Learning und digitalen Medien zu einem besseren Lernerfolg bei Studierenden führt. Die Anwendung von Blended-Learning-Modellen, als Ergänzung zum E-Learning, können die Nachteile der Präsenzlehre ausgleichen.
Durch den Einsatz von Visualisierungen (Bilder und Animationen) kann in der Theorie belegt werden, dass sich beide Darstellungsformen positiv auf die Lernleistung von Studierenden auswirken. Insbesondere eigenen sich Animationen bei der Durchführung von Laboren zum Ausgleich unterschiedlicher Vorkenntnisse. Außerdem tragen Animationen dazu bei, die Fähigkeit zur eigenständigen Problemlösung zu verbessern, wenn Animationen gleichzeitig mit Erläuterungen eingesetzt werden.
Eine Vorteilhaftigkeit von 3D- gegenüber 2D-Visualisierungen in der Lehre, konnte in der Arbeit nicht bestätigt werden. Nicht zuletzt aufgrund eines erhöhten Aufwandes zur Erstellung und Anwendung von 3D-Visualisierungen, wurde für das Konzept eine 2D-Darstellung gewählt. Zwar werden 3D-Visualisierungen zur Wissensvermittlung an Hochschulen eingesetzt, es konnten jedoch keine wissenschaftlichen Erkenntnisse herangezogen werden, die eine verbesserte Lernleistung oder einen besseren Lernerfolg gegenüber 2D-Visualisierungen belegen. Diese Arbeit zeigt ebenfalls, dass die Anforderungen Expressivität, Effektivität und Angemessenheit für jede Visualisierung erfüllt werden müssen, damit eine Visualisierung im Kontext der Lehre vorteilhaft ist. Darüber hinaus müssen für jede Darstellung operationalisierte Lernziele definiert werden. Nur so kann eine Überprüfung und Beurteilung einer Visualisierung durchgeführt werden. Die Erfüllung dieser Anforderungen wurde für die selbsterstellten Illustrationen zu Blende, Verschlusszeit, ISO und dem Crop-Faktor berücksichtigt und kritisch geprüft. Die Anforderungen wurden vollumfänglich erfüllt.
Bei der Konzepterstellung wurden die in der Arbeit gewonnenen wissenschaftlichen Erkenntnisse berücksichtigt und am Beispiel der Vorlesung Digitale Medien 2 umgesetzt. Das Konzept zeigt in der Theorie, wie E-Learning, Blended-Learning und Visualisierungen bei dieser Vorlesung eingesetzt werden können.
Eine Erprobung in der praktischen Anwendung muss zwingend erfolgen, um die im Konzept definierten, operationalisierten Lernziele der Visualisierungen zu bestätigen. Ebenfalls gilt es den Einfluss des Konzepts auf den Lernerfolg von Studierenden an der Hochschule Offenburg zu prüfen.
Komplexe E-Commerce-Systeme müssen heutzutage immer schneller am Markt sein und sich an diesen anpassen. Dies wird durch SaaS-Services möglich, wodurch sich die Best-of-Breed-Lösungen einsetzen lassen. Der monolithische Ansatz der meisten E-Commerce-Systeme ist für diese Anwendungen nicht mehr geeignet. Abhilfe soll der Composable-Commerce-Ansatz schaffen. Für den Ansatz wird eine Integrationslösung benötigt. Ziel dieser Thesis ist es, Integrationslösungen zu evaluieren und mithilfe von Integration-Layer-Prototypen gegenüberzustellen. Es werden zwei Integrationslösungen ausgewählt, die als Prototyp implementiert werden. Für den ersten Prototypen wird Apache Camel in einem Spring-Boot-Server verwendet. Der zweite Prototyp setzt die AWS-eigenen Services für die Integration ein. Zum Schluss werden diese durch einen Last-Test auf ihre Performance geprüft.
Gas Analysis and Optimization of Debinding and Sintering Processes for Metallic Binder-Based AM*
(2022)
Binder-based additive manufacturing processes for metallic
AM components in a wide range of applications usually use
organic binders and process-related additives that must be
thermally removed before sintering. Debinding processes are
typically parameterized empirically and thus far from the optimum.
Since debinding based on thermal decomposition processes
of organic components and the subsequent thermochemical
reactions between process atmosphere and metal
powder materials make uncomplicated parameterization difficult,
in-situ instrumentation was introduced at Fraunhofer
IFAM. This measurement method relies on infrared spectroscopy
and mass spectrometry in various furnace concepts to
understand the gas processes of decomposition of organic
components and the subsequent thermochemical reactions
between the carrier gas atmosphere and the metal part, as well
as their kinetics. This method enables an efficient optimization
of the temperature-time profiles and the required atmosphere
composition to realize dense AM components with low contamination.
In the paper, the optimization strategy is presented,
and the achievable properties are illustrated using a fused
filament fabrication (FFF) component example made of 316L
stainless steel.
Kleinstunternehmen, kleine und mittlere Unternehmen (KMU) sind ein wichtiger Motor für das Wirtschaftswachstum und somit entscheidend für erfolgreiche Volkswirtschaften. In vielen verschiedenen Industrieländern fungieren KMU nicht nur als starke Partner und Zulieferer für Großunternehmen, sondern sind häufig, aufgrund ihrer hochinnovativen Produkte, Weltmarktführer in ihrem Marktsegment. Dies verdeutlicht, dass KMU eine treibende Kraft hinter Innovationen sowie technologieorientierten Produkten und Dienstleistungen sind.
Aufgrund der Beliebtheit des Laufsports herrscht in der biomechanischen Forschung ein großes Interesse, die Laufbewegung zu erforschen. Ein Gold-Standard der biomechanischen Laufanalyse konnte jedoch bisher noch nicht gefunden werden. Zumeist werden markerbasierte Systeme verwendet, welche die Kinematik des Laufens durch aufgeklebte Marker bestimmen. Diese bringen jedoch einige Fehlerquellen mit sich und benötigen einen hohen zeitlichen und organisatorischen Aufwand. Seit Kurzem werden auf dem Markt auch markerlose Softwares angeboten, welche über eine Videoanalyse die Kinematik des Laufens bestimmen können.
Da dieses markerlose System bisher nur wenig angewendet wird, kann in der vorhandenen wissenschaftlichen Literatur aktuell nur wenig über den Vergleich der beiden Systeme herausgefunden werden. Ein Großteil der Berichte stammt von den Herstellern der markerlosen Softwares. Diese bieten zudem selten eine Aussage über die Vergleichbarkeit ihrer Werte mit den Werten von markerbasierten Systemen.
Das Ziel dieser Thesis ist daher ein Vergleich von einem markerbasierten mit einem markerlosen System anhand einer Laufbandanalyse. Getestet wurde dabei vor allem, ob und inwiefern die Systeme einen Unterschied in der Laufkinematik durch eine Schuhmodifikation erkennen können. Dazu wird der Fokus auf die Rückfuß-Eversion gelegt, da diese laut der vorhandenen Literatur einen signifikanten Faktor in der Laufkinematik darstellt.
Elf Proband:Innen (sechs männliche und fünf weibliche) wurden untersucht: Sie haben mit drei verschiedenen Schuhbedingungen jeweils einen circa einminütigen Trial auf dem Laufband bei einer Geschwindigkeit von 2,5 msˉ abgeschlossen. Dabei wurden ihnen Marker an 22 anatomischen Landmarken aufgeklebt. Während dieses Trials wurden Sie gleichzeitig von Infrarot-Kameras und normalen Video-Kameras gefilmt, um den Vergleich der identischen Schritte zu ermöglichen. Im Anschluss wurden bei der Bearbeitung der Daten Grafiken zu den Gelenkwinkelverläufen der Hüftgelenks-, Kniegelenks- und Rückfuß-Bewegungen in allen drei Körperebenen erstellt. Die Rückfuß-Eversion wurde im Detail betrachtet und statistisch mittels einer zweifaktoriellen repeated Measures ANOVA auf Haupteffekte untersucht.
Als Ergebnis zeigen sich einige Unterschiede in den Gelenkwinkelverläufen zwischen markerbasiertem und markerlosem System. Der markerbasierte Ansatz misst größere Flexionen in der Sagittalebene, wohingegen sich in Frontal- und Transversalebene teilweise systematisch verschiedene Winkelverläufe zeigen. Unter der Prämisse, dass das Offset beachtet wird, können die Ergebnisse der Sagittalebene verglichen werden. Die Ergebnisse in Bezug auf die Frontalund Transversalebene sind hingegen kaum vergleichbar und führen nicht zu übereinstimmenden Interpretationen. Für die Rückfuß-Eversion zeigt das markerlose System ein Offset, sowie neutralere Winkelverläufe, dennoch ist ein Vergleich interpretatorisch möglich. Auch die Ergebnisse zwischen den Schuhbedingungen sind hier zwischen beiden Systemen interpretatorisch gleich und führen zu den gleichen Schlussfolgerungen. Statistisch tritt ein Haupteffekt sowohl durch Schuhintervention, als auch durch das System auf, womit bestätigt wird, dass ein direkter Vergleich der Werte nicht möglich ist.
Die Schuhmodifikation zeigt bei beiden Systemen, dass eine laterale Lagerung zu einer verstärkten Rückfuß-Eversion führt, während eine mediale Lagerung des Schuhs zu einer verringerten Rückfuß-Eversion führt.
Diese Bachelorarbeit befasst sich mit den Entwicklungen des Webdesigns in den letzten zehn Jahren und den daraus resultierenden Anforderungen an eine erfolgreiche Webseite. Außerdem werden Grundlagen des Webdesign und die aktuellsten Webtrends betrachtet, um ein umfassendes Bild des Erfolges einer Webseite zu erhalten.
Im Rahmen der Thesis wurde außerdem ein interner StyleGuide für die Webseite des Softwareunternehmens „sevDesk“ aus Offenburg erstellt. Dieser bietet eine Übersicht der vorhandenen Komponenten in allen deren Varianten, sowie den allgemeingültigen StylingRichtlinien, welche das Design der kompletten Webseite definieren.
Im Fokus dieser Arbeit steht die Analyse der mechanischen Eigenschaften von Gitterstrukturen. Die Gitterstrukturen werden aus einem niedrig legierten Stahl und mit Hilfe des L-PBF-Verfahrens gefertigt. Ein Teil der Gitterstrukturen wird im Prozess durch eine Doppelbelichtung wärmebehandelt. In einer weiteren Versuchsreihe wird die in-Situ-Wärmebehandlung nur lokal an Strebenelementen angewandt. Die Werkstoffeigenschaften der Gitterelemente werden durch die Methoden Dichtemessung und Härteprüfung charakterisiert sowie mit Hilfe der Elektronenrückstreubeugung metallografische untersucht. In dem Versuchsspektrum werden die Strebenwinkel, von 35° bis 60° und die Strebendurchmesser von 0,5 mm bis 2,25 mm variiert. Hierbei wird untersucht, ob sich die Werkstoffeigenschaften verändern.
In dieser Arbeit wird eine relative Dichte von über 99,7 % bei den Gitterstrukturen erreicht. Im Vergleich zu den einfachbelichteten Gitterelementen wird durch die in-Situ-Wärmebehandlung die Makrohärte signifikant gesteigert. Im Versuchsspektrum werden durch die Variation der Geometrie keine signifikanten Veränderungen der Makrohärte und der Mikrotextur des Gefüges festgestellt. Im Randbereich der Streben wird eine Reduzierung der Härte von bis zu 250 HV0,1 beobachtet. Eine messbare Veränderung der Mikrotextur ergibt sich nicht. Als Grund sind Anlasseffekte wahrscheinlich, welche bei der metallografischen Untersuchung im Randbereich festgestellt werden.
Gesetzliche Auflagen, Kundenanforderungen sowie das Risiko von finanziellen Folgen und Imageschäden durch Rückrufaktionen zwingen die Automobilhersteller und ihre Lieferanten eine lückenlose Rückverfolgbarkeit der Produkte zu gewährleisten.
Darüber hinaus ist es nicht möglich, die Qualität von Klebverbindungen zu überprüfen, ohne dabei die Bauteile zu zerstören. Daher ist es bei Klebverbindungen mit hohen Sicherheitsanforderungen umso wichtiger, eine lückenlose Nachweisführung und Rückverfolgbarkeit zu gewährleisten. Ziel dieser Masterthesis ist es, ein Konzept zu erstellen, welches die Rückverfolgbarkeit von Klebverbindungen mit hohen Sicherheitsanforderungen sicherstellt. Dieses Konzept berücksichtigt die Norm DIN 2304-1, in welcher Qualitätsanforderungen an Klebprozesse definiert sind.
Die Ausarbeitung des Rückverfolgbarkeitskonzepts basiert neben den Anforderungen der DIN 2304-1 auf den gesetzlichen Vorgaben und den Kundenanforderungen. Darüber hinaus werden zunächst die Methodik und die technischen Lösungen des Unternehmens dargestellt.
Das im Rahmen dieser Masterthesis entwickelte Konzept beinhaltet sowohl eine Beschreibung zur technischen Umsetzung der Anforderungen als auch die Definition der für die Nachweisführung relevanten Daten.
High-performance thin-layer chromatography (HPTLC), as the modern form of TLC (thin-layer chromatography), is suitable for detecting pharmaceutically active compounds over a wide polarity range using the gradient multiple development (GMD) technique. Diode-array detection (DAD) in conjunction with HPTLC can simultaneously acquire ultraviolet‒visible (UV‒VIS) and fluorescence spectra directly from the plate. Visualization as a contour plot helps to identify separated zones. An orange peel extract is used as an example to show how GMD‒DAD‒HPTLC in seven different developments with seven different solvents can provide an overview of the entire sample. More than 50 compounds in the extract can be separated on a 6-cm HPTLC plate. Such separations take place in the biologically inert stationary phase of HPTLC, making it a suitable method for effect-directed analysis (EDA). HPTLC‒EDA can even be performed with living organism, as confirmed by the use of Aliivibrio fischeri bacteria to detect bioluminescence as a measure of toxicity. The combining of gradient multiple development planar chromatography with diode-array detection and effect-directed analysis (GMD‒DAD‒HPTLC‒EDA) in conjunction with specific staining methods and time-of-flight mass spectrometry (TOF‒MS) will be the method of choice to find new chemical structures from plant extracts that can serve as the basic structure for new pharmaceutically active compounds.
Editorial
(2022)
Editorial
(2022)
Editorial
(2022)
Editorial
(2022)
Editorial
(2022)
Editorial
(2022)
Two solvent mixtures for high-performance thin-layer chromatographic (HPTLC) separation of some compounds showing estrogenic activity in the yeast estrogen screen (YES) assay are presented. The new method, planar yeast estrogen screen (pYES) combines the YES assay and a chromatographic separation on silica gel HPTLC plates with the performance of the YES assay. For separation, the analytes were applied bandwise to HPTLC plates (10 × 20 cm) with fluorescent dye (Merck, Germany). The plates were developed in a vertical developing chamber after 30 min of chamber saturation over a separation distance of 70 mm, using cyclohexane‒methyl-ethyl ketone (2:1, V/V) or cyclohexane‒CPME (3:2, V/V) as solvents. Both solvents allow separation of estriol, daidzein, genistein, 17β-estradiol, 17α-ethinyl estradiol, estrone, 4-nonylphenol and bis(2-ethylhexyl) phthalate.
Sequenzielle Schaltungen
(2022)
Digitalisierung der Finanzberichterstattung – Ist die Unternehmenswelt bald ein transparentes Dorf?
(2022)
Das Dokument verdeutlicht die ESEF-Finanzberichterstattung in der Europäischen Union. Deren Umsetzung mit Hilfe von iXBRL-Finanzberichten sowie die Anforderungen an die Taxonomie. Eine kritische Analyse der Analysemöglichkeiten schließt das Dokument und öffnet Möglichkeiten für weitergehende Analysewerkzeuge der Zukunft.
In this work, time-independent and time-dependent plasticity models are presented that are well suited for the calculation of stresses and strains with the finite-element method to assess the low-cycle and thermomechanical fatigue life of engineering components. The focus are plasticity models that are available in finite-element programs nowadays as standard material models and describe isotropic and kinematic hardening, strain-rate dependency as well as static recovery of hardening. For the presented models, aspects relevant for the application of the models are addressed as the determination of the material properties and the numerical implementation. Nevertheless, the plasticity models are also embedded in the thermodynamic framework used for the derivation of thermodynamically consistent plasticity models. Only uniaxial formulations are used to achieve a good readability and preventing the use of tensors.
Herr Vater & Ich
(2022)
Mein Vater wurde im Jahr 1952 geboren. Über das, was er in den 40 Jahren vor meiner Geburt erlebt hat, hat er mir immer wieder Geschichten erzählt, die mich unterhalten, belustigt oder verwundert haben. Geschichten, die mir immer wieder zeigten, dass ich ihn, abseits von seiner Rolle als Vater, gar nicht wirklich kenne. Dabei hat er mich in vielerlei Hinsicht geprägt. Mit der Musik, die er mit mir gemacht hat, den Bildern, die er mit mir gemalt hat, den Büchern, Platten und Filmen, die er mir geschenkt hat und mit den Geschichten, die er erzählt und vor allem wie er sie erzählt. Aber was für meine Person ist mein Vater eigentlich?
Ich sammle Anekdoten, die einen lebhaften Eindruck über seine Erfahrungen und Erlebnisse geben und erfahre mehr über den historischen Kontext und die gesellschaftliche Situation, die seine persönliche Lebensgeschichte prägten. Ich tauche ein, in ein Leben voll von Kindheitserinnerungen aus der Nachkriegszeit und zufälligen Begegnungen, aus denen sich langjährige Freundschaften ergeben. Ich lerne mehr über den Umgang mit dem Tod, darüber wie man Entscheidungen trifft und lausche Geschichten von jugendlichem Übermut und aufregenden Schiffsfahrten. Mit jeder dieser Geschichten lerne ich meinen Vater neu und besser kennen, sehe mich darin selbst wieder oder bin auch einfach nur überrascht.
Denn die Auseinandersetzung mit meinem Vater ist notwendigerweise eine Auseinandersetzung mit mir selbst. Wo finde ich mich in seinen Geschichten selbst wieder? Wo macht er Fehler, die ich auch gemacht hätte, aber wo trifft er auch Entscheidungen, die ich mir nicht zutrauen würde? Ich erfahre, was wir gemeinsam haben, aber auch wo wir uns unterscheiden. Wir als Person, aber auch wir in unserem historischen Kontext. Wo in ihm ein Seemanns-Lied aus einer Musiktruhe den Wunsch weckte, zur See zu fahren, da höre ich noch immer die Platten, die er mir als Kind vorgespielt hat. Dass er mit seinen Eltern und seinem Bruder in einem Zimmer geschlafen und aufgewachsen ist, scheint für mich heute undenkbar. Und zusammen versuchen wir den Weg seines Vaters, meines Opa, nach Deutschland nachzuvollziehen und ergründen die Wurzeln der Familie.
Bilder, Dokumente und Tape-Aufnahmen eines rumänischen Kirchenchors veranschaulichen Erzählungen, die bis vor den Zweiten Weltkrieg zurückreichen und werden ergänzt und erweitert durch Medien, die erst im Rahmen dieser Arbeit entstanden sind. Es entsteht eine digitale Ausstellung und weit mehr, als ein individuelles Porträt. „Herr Vater & Ich” ist eine Sammlung von Kurzgeschichten, eine Auseinandersetzung mit Geschichte und gesellschaftlicher Veränderung, eine Verständigung zwischen Generationen.
Eine Einladung zum Zuhören & Kennenlernen.
Fotografie
(2022)
Der Begriff der angemessenen Vergütung wird sowohl in § 32 UrhG als auch in § 97 UrhG verwendet. Neben der ausführlichen Darstellung der bereits bestehenden gesetzlichen und kollektivrechtlichen Vorgaben der Angemessenheitskontrolle werden in diesem Werk erstmals die zahlreichen Gerichtsentscheidungen zu diesen beiden Vorschriften gesammelt und systematisch zusammengefasst. Dies gibt der Leserschaft praxisorientierte Richtlinien zur Ermittlung von angemessenen Vergütungen und "fiktiven Lizenzgebühren" (Schadensersatz) im Urheberrecht an die Hand. Nach einem einführenden Allgemeinen Teil werden die Besonderheiten in den Bereichen Buch und Presse, Film, TV und Streamingdienste, Musik, Fotografie, Computerspiele sowie Design beleuchtet.
- von Praktikern für Praktiker
- übersichtliche Urteilslisten
- Zusammenstellung der Gemeinsamen Vergütungsregeln und Tarifverträge
Zielgruppe: Für Gerichte, Verbände, Anwaltschaft, Justiziariate und alle, die in der urheberrechtlichen Praxis tätig sind.
Das Ziel ist es, einen Workflow zu erstellen, mit dem Produkte von Kunden im 3D-Format aufbereitet und in einer webbasierten Echtzeit-360°-Anwendung zur Schau gestellt werden. Dabei können Betrachter mit dem Produkt interagieren und sich darüber informieren.
Dabei soll sich der Workflow auf den 3D-Artist richten und der Aufwand des Entwicklers möglichst minimiert werden.
Mit dem Öffnen der Webseite wird eine ThreeJS-Anwendung geladen. Die Anwendung enthält eine Szenendatei, in welcher sich eine GLB-Datei (Graphics Language Binary) des 3D-Modells befindet. Diese Datei wurde in 3DsMax, einem gängigen 3D-Programm, aufbereitet und exportiert. Neben der GLB-Datei enthält die Webseite ein Lichtsetting und ein Environment mit separatem Background.
Diese Bachelorarbeit behandelt die Konstruktion eines Vakuumtisches, welcher zum Fixieren dünner, flexibler Materialien in Lasermaschinen verwendet wird. Das Hauptaugenmerk der Arbeit liegt auf der methodischen Konstruktion des Vakuumtisches, welche anhand einer detaillierten Anforderungsliste erfolgt. Es wird eine Konzeptidee ausgearbeitet, welche den preislichen Rahmen nicht einhalten kann. Durch Vereinfachung der in der Baugruppe enthaltenen Komponenten wie auch der physikalischen Wirkprinzipien in der Baugruppe kann in einem zweiten Konzept eine deutlich preiswertere Konstruktion realisiert werden. Anhand eines Prototypen wird die Funktion und das Verhalten des Vakuumtisches erprobt und bewertet.
Diese Bachelorarbeit befasst sich mit dem Thema Headless CMS. Zunächst wird ein theoretischer Überblick über das Themengebiet gegeben, indem die Funktionsweise von Headless CMS und genutzten Technologien sowie die Unterschiede zu traditionellen WCMS erläutert werden. Zusätzlich werden in diesem Zusammenhang vor allem auch die Vor- und Nachteile dieser Systeme sowie deren sinnvolle Einsatzgebiete beleuchtet. Des Weiteren werden drei ausgewählte Systeme (Decoupled Drupal, Contentful und Strapi) analysiert und verglichen. Im praktischen Teil der Arbeit wurde ein Prototyp eines rechtlichen Informationsportals implementiert, das die Inhalte über eine Schnittstelle von einem Headless CMS abfragt.
This paper presents a method for supporting the application of Additive Tooling (AT)-based validation environments in integrated product development. Based on a case study, relevant process steps, activities and possible barriers in the realisation of an injection-moulded product are identified and analysed. The aim of the method is to support the target-oriented application of Additive Tooling to obtain physical prototypes at an early stage and to shorten validation cycles.
Die vorliegende Arbeit, welche im Rahmen des Forschungsprojektes LaDiVo an der Hochschule Offenburg angefertigt wurde, beschäftigt sich mit Aushärten keramischer Farben auf Einscheiben- und Verbundsicherheitsglas mittels eines CO2-Lasers. Zur Erreichung dieses Ziels soll experimentell ein Verfahren erarbeitet werden.
Nach einer ausführlichen Analyse des Stands der Technik und einer Klärung des zur Verfügung stehenden Versuchsaufbaus werden verschiedene Versuche in einer Planungsphase konzeptioniert. Dazu gehören, neben den reinen Aushärteversuchen mittels Laser, ebenso eine mikroskopische Untersuchung der Ergebnisse mittels Licht- und Rasterelektronenmikroskop als auch der Aufbau einer Simulation zur qualitativen Validierung der Versuchsergebnisse.
Durch die Versuche zeigt sich, dass es möglich ist, keramische Farbe auf Einscheibensicherheitsglas mittels Laser auszuhärten, ohne dass es zu einer Schädigung des Glases kommt. Die mikroskopische Untersuchung unterstützt dieses Ergebnis. Beim Verbundsicherheitsglas konnte kein Verfahren zur schädigungsfreien Aushärtung der keramischen Farbe erarbeitet werden.
Durch die Fortschritte im Bereich der Quantencomputer rückt der Zeitpunkt näher, dass Quantencomputer die bestehenden mathematischen Probleme lösen können, welche in den aktuellen Public-Key-Verschlüsselungsverfahren verwendet werden. Als Reaktion darauf wurde ein Standardisierungsprozess für quantensichere Public-Key-Verschlüsselungsverfahren gestartet. Diese Arbeit analysiert diese und vergleicht sie untereinander, um Stärken und Schwächen der einzelnen Verfahren aufzuzeigen.
Mit dem Klimaschutzgesetz 2021 wurden von der Bundesregierung die Klimaschutzvorgaben verschärft und die Treibhausgasneutralität bis 2045 als Ziel verankert. Zur Erreichung dieses ambitionierten Ziels ist es notwendig, im Bereich der Mobilität weitgehend von Verbrennungsmotoren mit fossilen Kraftstoffen auf Elektromobilität mit regenerativ erzeugtem Strom umzusteigen. Dabei ist die zügige Bereitstellung einer ausreichenden Ladeinfrastruktur für die Elektrofahrzeuge eine große Herausforderung. Neben der Installation einer ausreichend großen Zahl von Ladepunkten selbst besteht die Herausforderung darin, diese in das bestehende Verteilungsnetz zu integrieren bzw. das Verteilungsnetz so auszubauen, dass weiter ein sicherer Netzbetrieb gewährleistet werden kann. Dabei sind insbesondere Lösungen gefragt, bei denen der Ausbau der Ladeinfrastruktur und der Netzbetriebsmittel durch intelligentes Management des Ladens so gering wie möglich gehalten wird, indem vorhandene oder neu zu installierender Hardware möglichst effizient genutzt wird.
Hier setzte das Projekt „Intelligente Ladeinfrastruktur für Elektrofahrzeuge auf dem Parkplatz der Hochschule Offenburg (INTLOG)“ (Projektlaufzeit 15.11.2020 – 30.09.2022) an. Inhalt des Projekts war es, einen Ladepark für den Parkplatz der Hochschule Offenburg mit 20 Ladepunkten à 11 kW und somit einer Gesamtladeleistung von 220 kW an einen vorhandenen Ortsnetztransformator mit 200 kW Nennleistung anzuschließen, der aber bereits von anderen Verbrauchern genutzt wurde. Das übergeordnete Ziel war es also, eine Ladeinfrastruktur von maßgeblichem Umfang in die bestehende Netzinfrastruktur ohne zusätzlichen Ausbau zu integrieren.
Dabei wurden zukunftsweisende Technologien genutzt und weiterentwickelt sowie teilweise in Praxis, im Labor und in der Computersimulation demonstriert.
Anterior cruciate ligament (ACL) ruptures are frequent in the age group of 15–19 years, particularly for female athletes. Although injury-prevention programs effectively reduce severe knee injuries, little is known about the underlying mechanisms and changes of biomechanical risk factors. Thus, this study analyzes the effects of a neuromuscular injury-prevention program on biomechanical parameters associated with ACL injuries in elite youth female handball players. In a nonrandomized, controlled intervention study, 19 players allocated to control (n = 12) and intervention (n = 7) group were investigated for single- and double-leg landings as well as unanticipated side-cutting maneuvers before and after a 12-week study period. The lower-extremity motion of the athletes was captured using a three-dimensional motion capture system consisting of 12 infrared cameras. A lower-body marker set of 40 markers together with a rigid body model, including a forefoot, rearfoot, shank, thigh, and pelvis segment in combination with two force plates was used to determine knee joint angles, resultant external joint moments, and vertical ground reaction forces. The two groups did not differ significantly during pretesting. Only the intervention group showed significant improvements in the initial knee abduction angle during single leg landing (p = 0.038: d = 0.518), knee flexion moment during double-leg landings (p = 0.011; d = −1.086), knee abduction moment during single (p = 0.036; d = 0.585) and double-leg landing (p = 0.006; d = 0.944) and side-cutting (p = 0.015;d = 0.561) as well as vertical ground reaction force during double-leg landing (p = 0.004; d = 1.482). Control group demonstrated no significant changes in kinematics and kinetics. However, at postintervention both groups were not significantly different in any of the biomechanical outcomes except for the normalized knee flexion moment of the dominant leg during single-leg landing. This study provides first indications that the implementation of a training intervention with specific neuromuscular exercises has positive impacts on biomechanical risk factors associated with ACL injury risk and, therefore, may help prevent severe knee injuries in elite youth female handball players.
This work addresses the conceptualization, design, and implementation of an Application Programming Interface (API) for the Common Security Advisory Framework (CSAF) 2.0, introducing another method for distributing CSAF documents in addition to two already existing methods. These don't allow the use of flexible queries as well as filtering, which makes it difficult for operators of software and hardware to use CSAF. An API is intended to simplify this process and thus advance the automation goal of CSAF.
First, it is evaluated whether the current standard allows the implementation of an API. Any conflicts are highlighted and suggestions for standard adaptations are made. Based on these results, the API is designed to meet the previously defined requirements. Subsequently, a proof of concept is successfully developed according to the design and extensively tested with specially prepared test data. Finally, the results and the necessary standard adjustments are summarized and justified.
The conceptual design and the implementation were successfully completed. However, during the implementation of the proof of concept, some routes could not be fully implemented.
In diesem Kapitel geht es um die Frage, welche systematischen Vorgehensmodelle dazu beitragen können, dass einzelne Bereiche in Industrieunternehmen auf ihrem Weg im Rahmen der digitalen Transformation unterstützt werden können. Die Darstellung erfolgt anhand eines Anwendungsbeispiels im Service-Sektor des Maschinenbaus.
Die Corona-Semester erforderten die Übertragung der Brückenkurse Mathematik in ein digitales Lehr-format. Gerade beim Studieneinstieg spielen persönliche Unterstützung und soziale Eingebundenheit für Studierende eine besonders wichtige Rolle. Deshalb lag die besondere Herausforderung bei der Übertragung in ein digitales Format darin, die wegfallenden üblichen Kennenlern- und Kommunika-tionsmöglichkeiten, die sich in Präsenzformaten beispielsweise in den Pausen oder im Gespräch mit den Sitznachbarn ergeben, zu kompensieren. Vorliegender Beitrag stellt vor, inwieweit der Transfer in ein digitales Format gelungen ist. Das digitale Brückenkurskonzept wurde in ein didaktisches Entwurfsmuster übertragen, um durch die strukturierte und nachvollziehbare Darstellung den Transfer und die Vergleichbarkeit der Ergebnisse zu erleichtern.
Robust scheduling problem is a major decision problem that is addressed in the literature, especially for remanufacturing systems; this problem is complex because of the high uncertainty and complex constraints involved. Generally, the existing approaches are dedicated to specific processes and do not enable the quick and efficient generation and evaluation of schedules. With the emergence of the Industry 4.0 paradigm, data availability is now considered an opportunity to facilitate the decision-making process. In this study, a data-driven decisionmaking process is proposed to treat the robust scheduling problem of remanufacturing systems in uncertain environments. In particular, this process generates simulation models based on a data-driven modeling approach. A robustness evaluation approach is proposed to answer several decision questions. An application of the decision process in an industrial case of a remanufacturing system is presented herein, illustrating the impact of robustness evaluation results on real-life decisions.
Die Optimierung der Auftragsterminierung und Einsteuerungsreihenfolge hat großen Einfluss auf die Produktivität von Fertigungssystemen. Genetische Algorithmen und Simulation sind verbreitete Werkzeuge zur Optimierung. Dieser Beitrag beschreibt einen neuen Ansatz zur Optimierung durch einen genetischen Algorithmus und der Simulation in dynamischen Modellen. Eine illustrative Fallstudie validiert den Ansatz und zeigt das Potenzial zur ganzheitlichen Verbesserung von Fertigungssystemen auf.
In this paper, the Bauschinger effect and latent hardening of single crystals are assessed in finite element calculations using a single crystal plasticity model with kinematic hardening. To this end, results of cyclic micro-bending experiments on single crystal Alloy 718 in different crystal orientations (single slip and multi slip) with respect to the loading direction are used to determine the slip system related material properties of the single crystal plasticity model. Two kinematic hardening laws are considered: a kinematic hardening law describing latent hardening and a kinematic hardening law without latent hardening. For the determination of material properties for both hardening laws, a gradient-based optimization method is used. The results show that the different strength levels observed for micro-bending tests on different crystal orientations can only be described with latent kinematic hardening well, whereas the pronounced Bauschinger effect is described well by both kinematic hardening laws. It is concluded that cyclic micro-bending experiments on single crystals using different crystal orientations give an appropriate data base for the determination of the slip system related material properties of the single crystal plasticity model with latent kinematic hardening.
Electrochemical pressure impedance spectroscopy (EPIS) has recently been developed as a potential diagnosis tool for polymer electrolyte membrane fuel cells (PEMFC). It is based on analyzing the frequency response of the cell voltage with respect to an excitation of the gas-phase pressure. We present here a combined modeling and experimental study of EPIS. A pseudo-twodimensional PEMFC model was parameterized to a 100 cm2 laboratory cell installed in its test bench, and used to reproduce steady-state cell polarization and electrochemical impedance spectra (EIS). Pressure impedance spectra were obtained both in experiment and simulation by applying a harmonic pressure excitation at the cathode outlet. The model shows good agreement with experimental data for current densities ⩽ 0.4 A cm−2. Here it allows a further simulative analysis of observed EPIS features, including the magnitude and shape of spectra. Key findings include a strong influence of the humidifier gas volume on EPIS and a substantial increase in oxygen partial pressure oscillations towards the channel outlet at the resonance frequency. At current densities ⩾ 0.8 A cm−2 the experimental EIS and EPIS data cannot be fully reproduced. This deviation might be associated with the formation and transport of liquid water, which is not included in the model.
Brand-related-user-generated-content allows companies to achieve several important objectives, such as increasing sales and creating higher user engagement. In this paper a research framework is developed that provides an overview of the necessary processes to successfully use brand-related-user-generated-content. The framework also helps managers to understand the main motives of users when posting brand-related-user-generated-content. Expert interviews were carried out to validate the research framework. The results from the interviews support the proposed framework. Brand-related-user-generated-content can increase purchase intention and the community engagement. From a user’s perspective the opportunity to interact with a brand and be featured on official brand channels could be seen as the main motivation for creating brand-related-user-generated-content.
Gegenstand dieser Arbeit wird die Frage sein, inwiefern es sich bei User-generated Content um eine sinnvolle Ergänzung für die Kommunikationspolitik von Marken handelt. Zudem soll umrissen werden, auf welche Art und Weise er sich bestmöglich in der Marketingkommunikation einsetzen lässt. Ein besonderes Augenmerk wird dabei der UGC-Kommunikation gewidmet werden, die Unternehmen auf ihren markeneigenen Kanälen betreiben. Da es sich hierbei um ein noch relativ junges, spezifisches und im wissenschaftlichen Diskurs nur wenig untersuchtes Themengebiet handelt, sollen strategische Hintergründe und Zielsetzungen beleuchtet werden, die Unternehmen und Marken dazu bewegen, User-generated Content zu fördern und auf eigenen Kanälen auszuspielen.
Die Bachelorarbeit umfasst die Entwicklung einer Pendelhubstichsäge für die Verwendung in CNC-Bearbeitungszentren. Der Entwicklungsprozess durch läuft alle vier Phasen: Planung, Konzeption, Konstruktion, Ausarbeitung. Endergebnis der Bachelorarbeit ist ein vollständiges 3D-Modell mit allen fertigungsrelevanten Dokumenten.
The identification of vulnerabilities is an important element in the software development life cycle to ensure the security of software. While vulnerability identification based on the source code is a well studied field, the identification of vulnerabilities on basis of a binary executable without the corresponding source code is more challenging. Recent research has shown, how such detection can be achieved by deep learning methods. However, that particular approach is limited to the identification of only 4 types of vulnerabilities. Subsequently, we analyze to what extent we could cover the identification of a larger variety of vulnerabilities. Therefore, a supervised deep learning approach using recurrent neural networks for the application of vulnerability detection based on binary executables is used. The underlying basis is a dataset with 50,651 samples of vulnerable code in the form of a standardized LLVM Intermediate Representation. The vectorised features of a Word2Vec model are used to train different variations of three basic architectures of recurrent neural networks (GRU, LSTM, SRNN). A binary classification was established for detecting the presence of an arbitrary vulnerability, and a multi-class model was trained for the identification of the exact vulnerability, which achieved an out-of-sample accuracy of 88% and 77%, respectively. Differences in the detection of different vulnerabilities were also observed, with non-vulnerable samples being detected with a particularly high precision of over 98%. Thus, the methodology presented allows an accurate detection of 23 (compared to 4) vulnerabilities.
Drawing off the technical flexibility of building polygeneration systems to support a rapidly expanding renewable electricity grid requires the application of advanced controllers like model predictive control (MPC) that can handle multiple inputs and outputs, uncertainties in forecast data, and plant constraints amongst other features. In this original work, an economic-MPC-based optimal scheduling of a real-world building energy system is demonstrated and its performance is evaluated against a conventional controller. The demonstration includes the steps to integrate an optimisation-based supervisory controller into a standard building automation and control system with off-the-shelf HVAC components and usage of state-of-art algorithms for solving complex nonlinear mixed integer optimal control problems. With the MPC, quantitative benefits in terms of 6–12% demand-cost savings and qualitative benefits in terms of better controller adaptability and hardware-friendly operation are identified. Further research potential for improving the MPC framework in terms of field-level stability, minimising constraint violations, and inter-system communication for its deployment in a prosumer-network is also identified.
Heutzutage befindet sich die Menschheit in einem Zeitalter des Bewegungsmangels. Körperliche Aktivitäten dringen immer weiter in den Hintergrund. Dadurch wird die Gesundheit deutlich beeinträchtigt. Es entstehen vermehrt Krankheiten wie Diabetes und Schädigungen des Herz-Kreislauf-Systems. An diesem Beispiel lässt sich verdeutlichen, wie wichtig körperliche Bewegung ist. Die gängigste Art ist das Laufen und das Gehen. Dazu wurden Laufschuhe entwickelt. Jedoch ist die Passform oft nicht so ausgestattet, um für eine perfekte Laufperformance und ein möglichst geringes Verletzungsrisiko zu sorgen. Es entsteht ein Spiel zwischen Laufschuh und dem Fuß. Um dieses Spiel zu minimieren bzw. für eine verbesserte Laufperformance zu sorgen werden Gurtsysteme bzw. Schnürsysteme entwickelt. Das Ziel hierbei ist es zu prüfen, ob diese Gurtsysteme auch wirklich einen signifikanten Vorteil erweisen und ob es Unterschiede zwischen den einzelnen Schnürungen, sowie dem Schuh ohne Schnürung gibt.
In dieser Studie wurden 5 Probanden rekrutiert. Im Biomechanik Labor wird jeder Proband einzeln gemessen. Dabei positionieren die messenden Personen einen Schuh an den Probanden. Anschließend wird ein Gurtsystem befestigt. Es handelt sich hierbei um 4 verschiedene Schnürungen, die jeweils einmal um den Schuh gewickelt werden. Die Gurtsysteme sind dieselben, jedoch an einer anderen Position von proximal nach distal entlang des Fußes positioniert. Zusätzlich werden die Bewegungen noch mit dem Schuh ohne das Schnürsystem durchgeführt. Es handelt sich hierbei um 5 verschiedene Bewegungen. Das Gehen, das Laufen, das Springen, sowie das Abstoppen aus dem Gehen und dem Laufen. Ziel dabei ist es die horizontale Bewegung der Ferse nach vorne relativ zur Sohle, sowie die Verschiebung der Ferse relativ zur Sohle in vertikaler Richtung zu untersuchen und rauszufinden, ob es einen grundlegenden Unterschied zwischen den einzelnen Schnürungen gibt. Die einzelnen Messwerte beschreiben den Abstand zwischen dem Marker an der Ferse sowie auf dem Schuh, die gemeinsam ein Koordinatensystem aufspannen.
Die Messwerte der maximalen horizontalen Fersenbewegung bei der Bewegung Abstoppen aus dem Gehen zeigen, dass eine Signifikanz beim Friedman-Test vorhanden ist. Hierbei sind bei dem Vorzeichentest die Messungen D1 und D2, D1 und D3, D3 und D4, sowie D3 und Ohne, signifikant.
Die Messwerte der maximalen vertikalen Fersenbewegung bei der Bewegung Gehen zeigen, dass eine Signifikanz beim Friedman-Test vorhanden ist. Hierbei sind bei dem Vorzeichentest die Messungen D1 und Ohne, D2 und Ohne, D3 und Ohne, sowie D4 und Ohne, signifikant.
Die Messwerte der maximalen horizontalen Fersenbewegung bei der Bewegung Laufen zeigen, dass eine Signifikanz beim Friedman-Test vorhanden ist. Hierbei sind bei dem Vorzeichentest die Messungen D1 und D2, D1 und D4, sowie D3 und Ohne, signifikant.
Zu den Messungen Abstoppen aus dem Gehen MVF, Abstoppen aus dem Laufen MHF, Gehen MHF, Laufen MVF, Springen MHF und Springen MVF zeigt das Ergebnis des Friedmann Tests einen niedrigeren Wert als den Kritische Wert von 9,49. Somit haben diese Messungen untereinander keine Signifikanz und werden somit nicht für den Vorzeichentest verwendet.
Maschinelles Lernen verändert zusehends die Arbeitswelt. Auch in der Produktionsplanung und -steuerung finden sich vielversprechende Anwendungsfälle. In diesem Beitrag sollen ausgewählte Anwendungsbereiche und Ansätze vorgestellt werden, die anhand einer umfangreichen Untersuchung wissenschaftlicher Veröffentlichungen identifiziert wurden. Als Strukturierungshilfe dient das Aachener PPS-Modell.
Ein Testsystem zum Prüfen neuer Komponenten elektromagnetischer Positionsmesssysteme soll durch eine Eigenkalibrierung des gesamten Systems stetig auf seine Genauigkeit geprüft werden, sodass nur noch eine periodische Rekalibrierung des Referenzgerätes erforderlich ist. Mittels Signal-Routing Software soll über die nationale Instrumentenkarte PCIe-6509 des Computers Spannungssignale an eine Hardware Under Test geleitet werden. Über diese Signale können Transistoren auf der Hardware angesteuert werden, die jeweils einem Relais Spannung übergeben können. Je nachdem welches Relais durchgeschalten werden soll, kann der Messwiderstand des gesamten Testsystems oder das Testsystems kalibriert werden. Um tatsächlich Kalibrierungen durchzuführen, wird eine Software erstellt. Mit der Software können die zu benutzenden Gerätschaften eingelesen und über eine Benutzeroberfläche eine Toleranzprüfung der Komponenten vollzogen werden. Hier gilt es eine Toleranzprüfung für den Messwiderstand zu erstellen und den Code dann auf Komponenten des Testsystems zu erweitern. Dafür wird ein kalibriertes Referenzmessgerät benötigt. Dabei wird ein Digitalmultimeter DAQ6510 verwendet, das über ein Multiplex Modul 7708 mit der Hardware verbunden wird. Um später Komponenten des Testsystems wie Frequenz kalibrieren zu können, wird ebenfalls ein Funktionsgenerator integriert und die Software-Codes darauf erweitert. Besteht das Grundkonzept, werden Funktionstests mit einer Messsystemanalyse erbracht und die Leistungsfähigkeit des Konstruktes beurteilt. Anschließend können neue Entwicklungsansätze und Optimierungskonzepte für weitere Abschlussarbeiten erstellt werden.
To achieve its climate goals, the German industry has to undergo a transformation toward renewable energies. To analyze this transformation in energy system models, the industry’s electricity demands have to be provided in a high temporal and sectoral resolution, which, to date, is not the case due to a lack of open-source data. In this paper, a methodology for the generation of synthetic electricity load profiles is described; it was applied to 11 industry types. The modeling was based on the normalized daily load profiles for eight electrical end-use applications. The profiles were then further refined by using the mechanical processes of different branches. Finally, a fluctuation was applied to the profiles as a stochastic attribute. A quantitative RMSE comparison between real and synthetic load profiles showed that the developed method is especially accurate for the representation of loads from three-shift industrial plants. A procedure of how to apply the synthetic load profiles to a regional distribution of the industry sector completes the methodology.