The 20 most recently published documents
As the Industry 4.0 is evolving, the previously separated Operational Technology (OT) and Information Technology (IT) is converging. Connecting devices in the industrial setting to the Internet exposes these systems to a broader spectrum of cyber-attacks. The reason is that since OT does not have much security measures as much as IT, it is more vulnerable from the attacker's perspective. Another factor contributing to the vulnerability of OT is that, when it comes to cybersecurity, industries have focused on protecting information technology and less prioritizing the control systems. The consequences of a security breach in an OT system can be more adverse as it can lead to physical damage, industrial accidents and physical harm to human beings. Hence, for the OT networks, certificate-based authentication is implemented. This involves stages of managing credentials in their communication endpoints. In the previous works of ivESK, a solution was developed for managing credentials. This involves a CANopen-based physical demonstrator where the certificate management processes were developed. The extended feature set involving certificate management will be based on the existing solution. The thesis aims to significantly improve such a solution by addressing two key areas that is enhancing functionality and optimizing real-time performance. Regarding the first goal, firstly, an analysis of the existing feature set shall be carried out, where the correct functionality shall be guaranteed. The limitations from the previously implemented system will be addressed and to make sure it can be applied to real world scenarios, it will be implemented and tested in the physical demonstrator. This will lay a concrete foundation that these certificate management processes can be used in the industries in large-scale networks. Implementation of features like revocation mechanism for certificates, automated renewal of the credentials and authorization attribute checks for the certificate management will be implemented. Regarding the second goal, the impact of credential management processes on the ongoing CANopen real-time traffic shall be a studied. Since in real life scenarios, mission-critical applications like Industrial control systems, medical devices, and transportation networks rely on real-time communication for reliable operation, delays or disruptions caused by credential management processes can have severe consequences. Optimizing these processes is crucial for maintaining system integrity and safety. The effect to minimize the disturbance of the credential management processes on the normal operation of the CANopen network shall be characterized. This shall comprise testing real-time parameters in the network such as CPU load, network load and average delay. Results obtained from each of these tests will be studied.
Die vorliegende Arbeit beschäftigt sich mit der Nutzung von Reinforcement Learning in der Informationsbeschaffungs-Phase eines Penetration Tests. Es werden Kernprobleme in den bisherigen Ansätzen anderer das Thema betreffender wissenschaftlicher Arbeiten analysiert und praktische Lösungsansätze für diese bisherigen Hindernisse vorgestellt und implementiert. Die Arbeit zeigt damit eine beispielhafte Implementierung eines Reinforcement Learning Agenten zur Automatisierung der Informationsbeschaffungs-Phase eines Penetration Tests und stellt Lösungen für existierende Probleme in diesem Bereich dar.
Eingebettet wird diese wissenschaftliche Arbeit in die Anforderungen der Herrenknecht AG hinsichtlich der Absicherung des Tunnelbohrmaschinen-Netzwerks. Dabei werden praktische Ergebnisse des eigen entwickelten Reinforcement Learning Modells im Tunnelbohrmaschinen-Test-Netzwerk der Herrenknecht AG vorgestellt.
Endress+Hauser Liquid Analysis ist ein erfolgreiches Entwicklungsunternehmen im Bereich der Flüssigkeitsanalyse für Prozesse und Labore. Mit voranschreitender Digitalisierung soll auch das Produktportfolio weiter digitalisiert werden. Ziel dieser Arbeit ist es den Entwicklungsprozess von Endress+Hauser Liquid Analysis auf die Eignung zur Entwicklung digitaler Produkte zu untersuchen. Zur Beantwortung der Fragestellung werden sowohl Literatur als auch mehrere Experten aus dem Fachgebiet zur Rate gezogen. In der Auswertung wird der aktuelle Prozess bewertet und ein geeignetes Prozessmodell für das Unternehmen dargestellt. Das empfohlene Modell wird exemplarisch anhand eines Beispielprojekts aufgezeigt. In einem abschließenden Fazit werden Ergebnisse und Erkenntnisse zusammengetragen.
In der Dokumentation dieser Masterthesis wird die Produktion eines zweidimensionalen Platformer-Spiels beschrieben, in dem mit mehreren Fähigkeiten und dem Lösen von diversen Rätseln verschiedene Level durchquert werden können. Zudem wird in dieser Dokumentation anhand einer Tabelle alle möglichen Eingaben zur Tastatur- und Controller-Steuerung gezeigt. Des weiteren wird das gestalterische Konzept dargestellt. Dazu gehört die Beschreibung der Synopsis der in dem Spiel erzählten Geschichte, das Darstellen des Designs der vorkommenden Charaktere und das Beschreiben des Aufbaus und der gestalterischen Intention der verschiedenen Level. Der Fokus in dieser Dokumentation liegt im detaillierten Beschreiben der in dem Spiel vorkommenden Elemente und wie diese in der gewählten Spiele-Engine Godot implementiert wurden. Dazu zählen wie der Spieler-Charakter aufgebaut ist und wie dieser mit den einzelnen Objekten oder anderen Charakteren im Spiel interagieren kann. Zudem wird die Implementierung eines umfangreichen Dialog-Systems mit seinen Bausteinen beschrieben. Des weiteren werden alle weiteren wichtigen Elemente, die das Spiel spielbar machen, erklärt.
The last decades have seen the evolution of industrial production into more sophisticated processes. The development of specialized, high-end machines has increased the importance of predictive maintenance of mechanical systems to produce high-quality goods and avoid machine breakdowns. Predictive maintenance has two main objectives: to classify the current status of a machine component and to predict the maintenance interval by estimating its remaining useful life (RUL). Nowadays, both objectives are covered by machine learning and deep learning approaches and require large training datasets that are often not available. One possible solution may be transfer learning, where the knowledge of a larger dataset is transferred to a smaller one. This thesis is primarily concerned with transfer learning for predictive maintenance for fault classification and RUL estimation. The first part presents the state-of-the-art machine learning techniques with a focus on techniques applicable to predictive maintenance tasks (Chapter 2). This is followed by a presentation of the machine tool background and current research that applies the previously explained machine learning techniques to predictive maintenance tasks (Chapter 3). One novelty of this thesis is that it introduces a new intermediate domain that represents data by focusing on the relevant information to allow the data to be used on different domains without losing relevant information (Chapter 4). The proposed solution is optimized for rotating elements. Therefore, the presented intermediate domain creates different layers by focusing on the fault frequencies of the rotating elements. Another novelty of this thesis is its semi and unsupervised transfer learning-based fault classification approach for different component types under different process conditions (Chapter 5). It is based on the intermediate domain utilized by a convolutional neural network (CNN). In addition, a novel unsupervised transfer learning loss function is presented based on the maximum mean discrepancy (MMD), one of the state-of-the-art algorithms. It extends the MMD by considering the intermediate domain layers; therefore, it is called layered maximum mean discrepancy (LMMD). Another novelty is an RUL estimation transfer learning approach for different component types based on the data of accelerometers with low sampling rates (Chapter 6). It applies the feature extraction concepts of the classification approach: the presented intermediate domain and the convolutional layers. The features are then used as input for a long short-term memory (LSTM) network. The transfer learning is based on fixed feature extraction, where the trained convolutional layers are taken over. Only the LSTM network has to be trained again. The intermediate domain supports this transfer learning type, as it should be similar for different component types. In addition, it enables the practical usage of accelerometers with low sampling rates during transfer learning, which is an absolute novelty. All presented novelties are validated in detailed case studies using the example of bearings (Chapter 7). In doing so, their superiority over state-of-the-art approaches is demonstrated.
JavaScript-Frameworks (JSF) sind im Bereich der Webentwicklung seit längerem prominent. Jährlich werden neue JSF entwickelt, um spezifische Probleme zu lösen. In den letzten Jahren hat sich der Trend entwickelt, bei der Wahl des JSF verstärkt auch auf die Performanz der entwickelten Webseite zu achten. Dabei wird versucht, den Anteil an JavaScript auf der Webseite zu reduzieren oder ganz zu eliminieren. Besonders neu ist der Ansatz der "Island Architecture", die erstmals 2019 vorgeschlagen wurde. In dieser Thesis soll die Performanz der meistbenutzten und des performantesten JSF mit dem JSF "Astro" verglichen werden, welches die "Island Architecture" von sich aus unterstützt. Der Schwerpunkt liegt beim Vergleichen der Webseitenperformanz, jedoch werden auch Effizienz und Einfachheit während der Entwicklung untersucht. Das Ziel dieser Arbeit ist es, potenzielle Frameworks zu untersuchen, die die Effizienz und Produktivität für den Nutzer und während der Entwicklung steigern können.
Modellprädiktive Regelung findet zunehmend Anwendung im industriellen Umfeld. Durch schnellere Computer und optimierte Programmierung ist es heute möglich, rechenintensive Regelalgorithmen in Echtzeit auf Mikrocontrollern zu berechnen. Eine besondere Herausforderung besteht jedoch darin, diese Technologie in der Realität einzusetzen. Weil exakte Kenntnisse über das reale System vorliegen müssen, können geringfügige Modellierungsfehler bei der Prädiktion für lange Prädiktionshorizonte schwerwiegende Folgen haben. Das ist insbesondere der Fall, wenn Systeme instabil sind und zu chaotischem Verhalten neigen.
Diese Arbeit behandelt ein breites Spektrum systemtheoretischer Inhalte und zielt darauf ab, ein reales Furuta-Pendel durch modellprädiktive Regelung in der instabilen Ruhelage zu stabilisieren. Hierfür wird ein mathematisches Modell als Prädiktionsmodell hergeleitet, welches durch verschiedene Systemidentifikationsmethoden spezifiziert und validiert wird. Es werden verschiedene Filter-Techniken wie das Kalman-Filter zur Zustandsschätzung oder das Exponential Moving Average (EMA)-Filter zur Filterung von Sensordaten eingesetzt.
Das Furuta-Pendel ist ein komplexes mechatronisches System. Die Aufgaben dieser Arbeit beschränken sich daher nicht nur auf theoretische Aspekte. Neben der Auslegung elektrischer Bauelemente und Schaltungen werden zusätzliche Sensoren zu einem bestehenden System hinzugefügt und mechanische Anpassungen vorgenommen. Darüber hinaus werden Entscheidungen zur Softwarearchitektur getroffen sowie die gesamte Implementierung auf einem Mikrocontroller durchgeführt.
Trotz intensiver Bemühungen konnte kein Modell gefunden werden, welches die gemessenen Ein- und Ausgangsdaten vergleichbar simulieren kann, sodass es den Anforderungen der modellprädiktiven Regelung entspricht. Stattdessen gelang es während der Systemidentifikationsphase einen Linear Quadratic Regulator (LQR) mit unterlagertem Proportional–Integral (PI) Stromregler als Kaskade zu entwerfen, der sowohl simulativ als auch in der Realität das Pendel stabilisieren kann.
Proteine spielen eine entscheidende Rolle im Stoffwechsel aller Lebewesen. Für die Lebensmittelindustrie sind die Grundbausteine der Proteine, besonders interessant, da sie den Geschmack von Lebensmitteln stark beeinflussen können, oder sich in Form von Supplementen als Nahrungsergänzungsmittel für Sportler eignen. Zur Gewinnung dieser Aminosäuren werden unteranderem Aminopeptidasen verwendet. In dieser Arbeit wurden fünf fungale Aminopeptidasen Pep 1 aus Aspergillus turcosus, Pep 4 aus Aspergillus thermomutatus, Pep 6 aus Coccidioides posadasii C735 delta SOWgp, Pep 7 aus Trichophyton interdigitale H6 und Pep 8 aus Onygena corvina in Pichia pastoris rekombinant exprimiert, mittels Ultrafiltration aufkonzentriert und biochemisch charakterisiert. Die Aminopeptidasen aus Aspergillus turcosus (Pep 1), Aspergillus thermomutatus (Pep 4) und Trichophyton interdigitale H6 (Pep 7) hatten ihr pH-Optimum bei pH 9, während die Aminopeptidasen aus Coccidioides posadasii C735 delta SOWgp (Pep 6) und Onygena corvina (Pep 8) bei pH 8,5 die höchste Aktivität aufwiesen. Die Temperaturoptima lagen bei 60 °C (Pep 1 und Pep 6) und 50 °C (Pep 4, Pep 7 und Pep 8) und alle waren zwischen 45 und 55 °C für 15 Minuten temperaturstabil. Die Aminopeptidasen hatten nach der Deglykosilierung ein Molekulargewicht von 57 (Pep 1), 52 (Pep 4 und Pep 7), 54 (Pep 6) und 53 kDA (Pep 8). Mit Leu-pNA als Substrat zeigten die fungalen Aminopeptidasen maximale spezifische Umsatzgeschwindigkeiten von 357 (Pep 1), 238 (Pep 4), 2000 (Pep 6), 56 (Pep 7) und 476 nkat/g (Pep 8). Pep 1 wurde am stärksten positiv von Bivalenten Ionen wie Mg2+, Co2+, Mn2+ und Ca2+ beeinflusst, in Gegenwart von 0,1 mM Mg2+ konnte eine relative Enzymaktivität von 345 % im Vergleich zum Referenzwert gemessen werden. Bei den anderen Aminopeptidasen konnten inhibitorische Effekte festgestellt werden. Bie allen fungalen Aminopeptidasen bei der Hydrolyse von vorhydrolysiertem Gluten die Freisetzung von Aminogruppen festgestellt werden, somit eignen sich die Aminopeptidasen in Kombination mit Endopeptidasen zur Hydrolyse von Proteingemischen. Bei der Hydrolyse konnte zudem die Freisetzung von Glutamin durch das L-Glutamine/Ammonia Assay Kit (Rapid) von Megazyme nachgewiesen werden.
Die Bachelorarbeit wurde im Rahmen einer Äquivalenz mit der Ingenieurschule INSA Straßburg geschrieben. Zum Thema wurde eine Projektarbeit im Auftrag der Kriminalpolizei mit einer Bearbeitungszeit von drei Semestern. Aufgabenstellung war es, einen Überblick eines Tatorts ohne menschlichen Eingriff zu verschaffen. Noch heute müssen die Polizisten den Tatort betreten, um Beweisspuren zu sammeln. Das Problem hierbei ist, dass dadurch Hinweise fast systematisch verloren gehen.
Mit einem ferngesteuerten Luftschiff sollte diese Aufgabenstellung gemeistert werden. Die Arbeit beschäftigt sich spezifisch mit dem Entwurf eines integrierten Kamerasystems und mit der Implementierung der Elektronik im Gesamtsystem für einen ersten Prototypen. Auf die Konzeptionierung der Fortbewegung und des Flugobjekts wird somit nicht in Detail eingegangen. Diese Aspekte werden bei der Erstellung des Lastenhefts geschildert und bei Berührungspunkten mit dem im Fokus stehenden Themengebiet erklärt.
Auf struktureller Ebene wird wie gefolgt vorgegangen: Die technischen Lösungen werden abgewogen, getestet und progressiv zusammengeführt. Zum Ende der Bearbeitungszeit können ferngesteuert Bilder und Panoramen aufgenommen und der Tatort live mit einem Video-Feedback observiert werden. Die Elektronik wurde, nach Erarbeitung der elektronischen Architektur, mithilfe einer gedruckten Leiterplatte kompakt in der Gondel des Luftschiffs integriert. Mit zahlreichen Optimierungsperspektiven wurde der erste Prototyp fertiggestellt und das Ziel dieser Arbeit erreicht.
Diese Arbeit befasst sich mit dem Entwurf und der Herstellung einer Roboterhandprothese, die amputierten Menschen eine gewisse Mobilität und eine teilweise Nutzung der Hand ermöglichen soll.
Das Projekt konzentriert sich insbesondere auf die Erkennung der vom Benutzer ausgeführten Bewegung und wird die Schritte der Erfassung, der Bewegung der Übertragung und die Erkennung detailliert darstellen.
Im Rahmen des Projekts "Myo-Hand" soll ein Prototyp einer myoelektrischen Handprothese entwickelt werden. Diese Prothese soll für handamputierte Menschen nützlich sein, da sie ihren Komfort und ihre Unabhängigkeit im Alltag verbessert und somit zu ihrer Eingliederung in die Gesellschaft beiträgt.
In dieser Abschlussarbeit werden die gesamte Arbeit, Studien und Realisierungen vorgestellt, die in den letzten zwei Semestern (WS2022 und SS2023) der Mechanik der Prothese durchgeführt wurden.
Nach einer kurzen Vorstellung der Arbeit des letzten Jahres wird ein Überblick über die Idee und die allgemeine Funktionsweise der Prothese gegeben, die verschiedene Komponenten umfasst: Elektronik, Machine-Learning, Steuerung, Wiederverwertbarkeit und Carbon Footprint. Das Lastenheft wird ebenfalls vorgestellt.
Die technologischen Entscheidungen werden näher erläutert: das Design der Teile, die Wahl der Verbindungen und die verwendeten Motoren. In einem zweiten Teil werden die Schritte zur Herstellung des ersten und zweiten Prototyps sowie eine Kritik des Ergebnisses vorgestellt. Weiter werden die Verbesserungen und die Ziele bis Januar 2024 besprochen.
Anschließend werden der Lebenszyklus der Prothese und ihr Carbon Footprint analysiert und mithilfe der Software Ecodesign Studio berechnet.
Increasing global energy demand and the need to transition to sustainable energy sources to mitigate climate change, highlights the need for innovative approaches to improve the resilience and sustainability of power grids. This study focuses on addressing these challenges in the context of Morocco's evolving energy landscape, where increasing energy demand and efforts to integrate renewable energy require grid reinforcement strategies. Using renewable energy sources such as photovoltaic systems and energy storage technologies, this study aims to develop a methodology for strengthening rural community grids in Morocco.
Traditional reinforcement measures such as line and transformer upgrades will be investigated as well as the integration of power generation from photovoltaic systems, which offer a promising way to utilise Morocco's abundant solar resources. In addition, energy storage systems will be analysed as potential solutions to the challenges of grid stability and resilience. Using comprehensive data analysis, scenario planning and simulation methods with the open-source simulation software Panda Power, this study aims to assess the impact of different grid reinforcement measures, including conventional methods, photovoltaic integration, and the use of energy storage, on grid performance and sustainability. The results of this study provide valuable insights into the challenges and opportunities of transitioning to a more resilient and sustainable energy future in Morocco.
Based on a rural medium-voltage grid in Souihla, Morocco, three scenarios were carried out to assess the impact of demand growth in 2030 and 2040. The first scenario focuses on conventional grid reinforcement measures, while the second scenario incorporates energy from residential photovoltaic systems. The third scenario analyses the integration of storage systems and their impact on grid reinforcement in 2030.
The simulations with energy from photovoltaic systems show a reduction in grid reinforcement measures compared to the scenario without solar energy. In addition, the introduction of a storage system in 2030 led to a significant reduction in the required installed transformer capacity and fewer congested lines. Furthermore, the results emphasized the role of storage in stabilizing grid voltage levels.
In summary, the results highlighted the potential benefits of integrating energy from photovoltaics and storage into the grid. This integration not only reduces the need for transformers and overall grid infrastructure but also promotes a more efficient and sustainable energy system.
With the expansion of IoT devices in many aspects of our life, the security of such systems has become an important challenge. Unlike conventional computer systems, any IoT security solution should consider the constraints of these systems such as computational capability, memory, connectivity, and power consumption limitations. Physical Unclonable Functions (PUFs) with their special characteristics were introduced to satisfy the security needs while respecting the mentioned constraints. They exploit the uncontrollable and reproducible variations of the underlying component for security applications such as identification, authentication, and communication security. Since IoT devices are typically low cost, it is important to reuse existing elements in their hardware (for instance sensors, ADCs, etc.) instead of adding extra costs for the PUF hardware. Micro-electromechanical system (MEMS) devices are widely used in IoT systems as sensors and actuators. In this thesis, a comprehensive study of the potential application of MEMS devices as PUF primitives is provided. MEMS PUF leverages the uncontrollable variations in the parameters of MEMS elements to derive secure keys for cryptographic applications. Experimental and simulation results show that our proposed MEMS PUFs are capable of generating enough entropy for a complex key generation, while their responses show low fluctuations in different environmental conditions.
Keeping in mind that the PUF responses are prone to change in the presence of noise and environmental variations, it is critical to derive reliable keys from the PUF and to use the maximum entropy at the same time. In the second part of this thesis, we elaborate on different key generation schemes and their advantages and drawbacks. We propose the PUF output positioning (POP) and integer linear programming (ILP) methods, which are novel methods for grouping the PUF outputs in order to maximize the extracted entropy. To implement these methods, the key enrollment and key generation algorithms are presented. The proposed methods are then evaluated by applying on the responses of the MEMS PUF, where it can be practically shown that the proposed method outperforms other existing PUF key generation methods.
The final part of this thesis is dedicated to the application of the MEMS PUF as a security solution for IoT systems. We select the mutual authentication of IoT devices and their backend system, and propose two lightweight authentication protocols based on MEMS PUFs. The presented protocols undergo a comprehensive security analysis to show their eligibility to be used in IoT systems. As the result, the output of this thesis is a lightweight security solution based on MEMS PUFs, which introduces a very low overhead on the cost of the hardware.
This paper provides a comprehensive overview of approaches to the determination of isocontours and isosurfaces from given data sets. Different algorithms are reported in the literature for this purpose, which originate from various application areas, such as computer graphics or medical imaging procedures. In all these applications, the challenge is to extract surfaces with a specific isovalue from a given characteristic, so called isosurfaces. These different application areas have given rise to solution approaches that all solve the problem of isocontouring in their own way. Based on the literature, the following four dominant methods can be identified: the marching cubes algorithms, the tessellation-based algorithms, the surface nets algorithms and the ray tracing algorithms. With regard to their application, it can be seen that the methods are mainly used in the fields of medical imaging, computer graphics and the visualization of simulation results. In our work, we provide a broad and compact overview of the common methods that are currently used in terms of isocontouring with respect to certain criteria and their individual limitations. In this context, we discuss the individual methods and identify possible future research directions in the field of isocontouring.
Background: Assistive Robotic Arms are designed to assist physically disabled people with daily activities. Existing joysticks and head controls are not applicable for severely disabled people such as people with Locked-in Syndrome. Therefore, eye tracking control is part of ongoing research. The related literature spans many disciplines, creating a heterogeneous field that makes it difficult to gain an overview.
Objectives: This work focuses on ARAs that are controlled by gaze and eye movements. By answering the research questions, this paper provides details on the design of the systems, a comparison of input modalities, methods for measuring the performance of these controls, and an outlook on research areas that gained interest in recent years.
Methods: This review was conducted as outlined in the PRISMA 2020 Statement. After identifying a wide range of approaches in use the authors decided to use the PRISMA-ScR extension for a scoping review to present the results. The identification process was carried out by screening three databases. After the screening process, a snowball search was conducted.
Results: 39 articles and 6 reviews were included in this article. Characteristics related to the system and study design were extracted and presented divided into three groups based on the use of eye tracking.
Conclusion: This paper aims to provide an overview for researchers new to the field by offering insight into eye tracking based robot controllers. We have identified open questions that need to be answered in order to provide people with severe motor function loss with systems that are highly useable and accessible.
Socially assistive robots (SARs) are becoming more prevalent in everyday life, emphasizing the need to make them socially acceptable and aligned with users' expectations. Robots' appearance impacts users' behaviors and attitudes towards them. Therefore, product designers choose visual qualities to give the robot a character and to imply its functionality and personality. In this work, we sought to investigate the effect of cultural differences on Israeli and German designers' perceptions of SARs' roles and appearance in four different contexts: a service robot for an assisted living/retirement residence facility, a medical assistant robot for a hospital environment, a COVID-19 officer robot, and a personal assistant robot for domestic use. The key insight is that although Israeli and German designers share similar perceptions of visual qualities for most of the robotics roles, we found differences in the perception of the COVID-19 officer robot's role and, by that, its most suitable visual design. This work indicates that context and culture play a role in users' perceptions and expectations; therefore, they should be taken into account when designing new SARs for diverse contexts.
Änderungen gegenüber der Fassung 2021:
- Abschnitt 1: Der Anwendungsbereich umfasst nun auch Primärenergiefaktoren,
- Redaktionelle Änderungen und Fehlerkorrekturen,
- 7.2.3.1: Neue Formel (15) für Allokationsfaktoren für mehrere Wärmeflüsse mit unterschiedlichen,
- Temperaturen aus derselben KWK-Anlage,
- 7.2.3.2: Neue Anmerkung zur Klarstellung, dass Formel (14) auch für die Arbeitswertmethode gilt,
- Neuer Unterabschnitt 7.2.6 mit der Vereinfachung, dass KWK-Wärme unter 100 °C Vorlauftemperatur,
- mit der pauschalen Aufwandszahl 0,5 bewertet werden darf,
- Anhang A wurde neu gefasst, damit zusätzliche Anwendungsbereiche wie Gesetze oder Förderprogramme,
- die eigenen Festlegungen zu Gewichtungsfaktoren machen, dieses Dokument widerspruchsfrei,
- in Bezug nehmen können,
- Anhang B.4 mit einem Berechnungsbeispiel zur Kälteversorgung wurde gestrichen.
Der Online-Handel verzeichnet seit Jahren ein stetiges Wachstum. Durch die COVID-19-Pandemie kaufen nun auch Nutzende, die zuvor physische Kanäle bevorzugten, vermehrt online ein. Der Anbietererfolg hängt dabei wesentlich von der Kenntnis über die Kund*innen ab. Allerdings dominieren einige große Anbieter den Markt, während kleinere Online-Shops Schwierigkeiten haben, ihre Angebote zu personalisieren. Eine Lösung bietet der Ansatz selbstbestimmter Identitäten. Dieser ermöglicht Kund*innen, ihre eigenen Shoppingdaten zu kontrollieren und sie selektiv mit Online-Shops zu teilen. Dadurch können individuelle Wünsche und Anforderungen der Kund*innen in Online-Shops berücksichtigt und ein personalisiertes Angebot sowie eine gute Nutzungserfahrung geboten werden. Trotz des großen Potenzials selbstbestimmter Identitäten ist der Ansatz in Deutschland kaum verbreitet. Dieser Beitrag beleuchtet den Einsatz selbstbestimmter Identitäten im Online-Handel. Mithilfe eines menschenzentrierten Gestaltungsprozesses wurden Personas und Ist-Szenarien erstellt, sowie daraus resultierend Anforderungen erhoben und Potenziale identifiziert. Auf Basis dessen konnte ein Daten- und Architekturmodell zur Integration von selbstbestimmten Identitäten im Online-Handel entwickelt werden.
This report examines exporters’ challenges and possible solutions for public intervention to promote foreign trade. Based on fieldwork conducted in Georgia, we explore which policy approaches can help to stimulate Georgian exports further. Our outcomes show that exporters face substantial barriers such as navigating complex trade regulations, lack of knowledge about target markets, trade finance gaps, as well as new export promotion programs (EPPs) in competitor countries. Other upper-middle-income countries can learn from our results that exporters can significantly benefit from a comprehensive export promotion strategy combined with an ecosystem-based “team” approach. EPPs related to awareness and capacity building in Georgia should be part of this strategy, focusing on challenges such as a lack of knowledge about trade practices and international business skills. Other EPPs must help to mitigate related market failures, as information gathering is costly, and firms have no incentive to share this information with competitors. Furthermore, targeted marketing support and customer matchmaking can answer Georgian exporters’ challenges, such as lack of market access and low sector visibility. Our results also show that public intervention through financial support and risk mitigation is essential for firms with an international orientation. The high-quality, rich outcomes provide significant value for other upper-middle-income countries by exploring the example of Georgia’s contemporary circumstances in an in-depth manner based on extensive interviews and document analysis. Limitations include that our work primarily relies on qualitative data and further research could involve a quantitative study with a diverse range of sectors.
Diese Arbeit befasst sich mit dem Thema der sogenannten „Advanced-Spike-Technology“. Dabei wird ein fortschrittliches Vorfußdämpfungselement betrachtet, dessen Kompressionssteifigkeit variiert wird. Die Technik soll die Sprint-Spikes maßgeblich verbessern. Die Arbeit untersucht, ob die Variation der Kompressionssteifig-keit der Sprint-Spikes einen Einfluss auf die sportliche Leistungsfähigkeit beim Sprinten hat. Es werden drei Prototypen von Adidas getestet, die jeweils unterschiedliche Steifigkeiten im Vorfußbereich aufweisen (hart, mittel und weich). Das Ziel besteht darin, die Auswirkungen der Variation der Kompressionssteifigkeit auf den Start bis 10 Meter und den Sprint auf etwa 50 bis 60 Meter zu untersuchen. Dabei werden die Geschwindigkeit und die Beschleunigung des Körperschwerpunktes in Matlab R2023b berechnet. Anhand der Ergebnisse wird die Fragestellung beantwortet. Zu Beginn werden folgende Hypothesen aufgestellt: Die Variation der Kompressionssteifigkeit hat keinen signifikanten Einfluss auf die sportliche Leistungsfähigkeit. Allerdings können individuelle Präferenzen der Sportler*innen in Bezug auf die Steifigkeit der Spikes berücksichtigt werden.
Die Untersuchung wird am Advanced Motion Lab in Offenburg (AMLO) der Hochschule Offenburg durchgeführt. Die Messung erfolgt auf einer Tartanbahn, wobei Kraftmessplatten im Bodenbelag integriert sind, um die Bodenreaktionskräfte beim Fußaussatz zu messen. Zusätzlich werden acht High-Speed-Videokameras eingesetzt, um die Sprintbewegung mittels markerlosem 3D-Motion-Capturing aufzuzeichnen. Es werden 30 Proband*innen getestet, davon 20 männliche und 10 weibliche Teilnehmer*innen, die eine saisonale persönliche Bestleistung von 12,5 Sekunden beziehungsweise 13,5 Sekunden über 100 Meter besitzen. Außerdem dürfen die Proband*innen in den letzten sechs Monaten keine kardiovaskulären Einschränkungen oder Verletzungen aufgewiesen haben. Nach Unterzeichnung der Einverständniserklärung und einem kurzen individuellen Warm-up wird die Kalibrierung der verwendeten Software beziehungsweise Messgeräte durchgeführt. Anschließend beginnt die eigentliche Messung. Pro Person werden jeweils mindestens zwei gültige Starts und ein gültiger maximaler Sprint pro Schuhbedingung durchgeführt. Die Pausengestaltung zwischen den einzelnen Messungen wird individuell gewählt, um Ermüdung zu vermeiden. Nach der Durchführung erfolgt die Auswertung und Verarbeitung der Daten durch das Programm Theia Markerless.
Zu Beginn wird die Berechnung in Matlab realisiert. Der erste allgemeine Schritt in der Berechnung des Startes und Sprints ist identisch. Die verarbeiteten Daten aus Theia werden unter Einsatz einer Funktion eingelesen. Diese Funktion durchläuft eine Ordnerstruktur, die zuvor manuell erstellt werden muss und die die einzelnen Daten der Proband*innen beinhaltet.
Um den Start berechnen zu können, müssen zunächst die Daten der vertikalen Bodenreaktionskraft umgerechnet werden. Daraufhin folgt eine Filterung der vertikalen Bodenreaktionskraft mit einer Schwelle von -3 Newton, da um die Nulllinie ein Rauschen vorliegen kann. Die Daten unterhalb dieser Schwelle entsprechen denen des Fußaufsatzes der Kraftmessplatte. Im Anschluss werden die Indizes unterhalb der Schwelle identifiziert. Auch die Daten des Körperschwerpunktes müssen gefiltert werden, da ungültige Datenauswertungen in Theia für den Wert des Körperschwerpunktes -999999 annehmen. Um diese Daten zu eliminieren, wird eine Schwelle von -100 eingeführt. Daraufhin folgt die Zuordnung der Indizes der Bodenreaktionskraft zu den Werten des Körperschwerpunktes und die Extraktion der Daten des Körperschwerpunktes. Im nächsten Schritt werden die Geschwindigkeit und die Beschleunigung anhand der internen Funktion „gradient“ berechnet. Weiterführend folgt die Berechnung der minimalen, mittleren und maximalen Werte der Geschwindigkeit und Beschleunigung. Letztendlich werden die Parameter als Excel-Datei exportiert, um eine statistische Auswertung durchzuführen.
Der erste Schritt zur Berechnung des maximalen Sprints besteht darin, den Körperschwerpunkt bei der Startfilterung zu identifizieren. Hierbei wird erneut die Schwelle von -100 verwendet und es werden die lokalen Maxima (Höhepunkte) in der Sagittalebene des Körperschwerpunkts identifiziert. Das Ziel ist es, die Daten zwischen zwei Maxima zu extrahieren, was genau einem Schritt entspricht. Es wird eine Mindestsuchhöhe für die Maxima festgelegt. Der Code unterscheidet zwischen den Fällen, in denen ein, zwei, drei oder vier und mehr Maxima gefunden werden. Des Weiteren werden verschiedene Abfragen und Unterscheidungen durchgeführt, um die beiden besten Maxima zu ermitteln. Danach werden die Indizes im Intervall von Maxima zu Maxima identifiziert und dem Körperschwerpunkt zugeordnet. Im Folgenden werden die Geschwindigkeitsberechnungen mithilfe der Funktion „gradient“ sowie die minimalen, mittleren und maximalen Geschwindigkeiten dargestellt. Abschließend erfolgt der Export der Parameter für die statistische Auswertung.
Nachfolgend wird die Leistungsfähigkeit der erstellten Programme in Matlab manuell überprüft. Beim Start und Sprint ergibt sich eine Genauigkeit von 98,89 und 96,66 %. Dies ermöglicht eine präzise statistische Auswertung, die im Programm „Jasp“ durchgeführt wird. Es wird eine einfaktorielle Varianzanalyse (ANOVA) mit Messwiederholung angewendet, wobei einige Voraussetzungen erfüllt sein müssen. Es lässt sich feststellen, dass die Variation der Kompressionssteifigkeit keinen signifikanten Einfluss auf die Geschwindigkeit oder Beschleunigung hat. Beim maximalen Sprint ist der Einfluss größer als beim Start, jedoch nicht signifikant. Diese Ergebnisse bestätigen die Hypothese.