Refine
Year of publication
Document Type
- Conference Proceeding (456)
- Bachelor Thesis (350)
- Article (reviewed) (243)
- Part of a Book (201)
- Article (unreviewed) (156)
- Master's Thesis (101)
- Other (75)
- Book (71)
- Contribution to a Periodical (34)
- Report (8)
- Doctoral Thesis (4)
- Letter to Editor (4)
- Patent (3)
- Study Thesis (1)
- Working Paper (1)
Conference Type
- Konferenzartikel (398)
- Konferenz-Abstract (38)
- Sonstiges (9)
- Konferenz-Poster (8)
- Konferenzband (3)
Language
- German (1038)
- English (666)
- Other language (2)
- Russian (2)
Keywords
- Dünnschichtchromatographie (19)
- Marketing (19)
- Digitalisierung (14)
- Künstliche Intelligenz (13)
- IT-Sicherheit (12)
- Gamification (11)
- JavaScript (11)
- Social Media (11)
- Kommunikation (10)
- Social Media Marketing (10)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (564)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (354)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (298)
- Fakultät Wirtschaft (W) (189)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (181)
- Fakultät Medien (M) (ab 22.04.2021) (115)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (81)
- INES - Institut für nachhaltige Energiesysteme (67)
- ACI - Affective and Cognitive Institute (39)
- WLRI - Work-Life Robotics Institute (20)
Open Access
- Closed Access (1708) (remove)
In recent years, light-weight cryptography has received a lot of attention. Many primitives suitable for resource-restricted hardware platforms have been proposed. In this paper, we present a cryptanalysis of the new stream cipher A2U2 presented at IEEE RFID 2011 [9] that has a key length of 56 bit. We start by disproving and then repairing an extremely efficient attack presented by Chai et al. [8], showing that A2U2 can be broken in less than a second in the chosen-plaintext case. We then turn our attention to the more challenging known-plaintext case and propose a number of attacks. A guess-and-determine approach combined with algebraic cryptanalysis yields an attack that requires about 249 internal guesses. We also show how to determine the 5-bit counter key and how to reconstruct the 56-bit key in about 238 steps if the attacker can freely choose the IV. Furthermore, we investigate the possibility of exploiting the knowledge of a “noisy keystream” by solving a Max-PoSSo problem. We conclude that the cipher needs to be repaired and point out a number of simple measures that would prevent the above attacks.
The number of use cases for autonomous vehicles is increasing day by day especially in commercial applications. One important application of autonomous vehicles can be found within the parcel delivery section. Here, autonomous cars can massively help to reduce delivery efforts and time by supporting the courier actively. One important component of course is the autonomous vehicle itself. Nevertheless, beside the autonomous vehicle, a flexible and secure communication architecture also is a crucial key component impacting the overall performance of such system since it is required to allow continuous interactions between the vehicle and the other components of the system. The communication system must provide a reliable and secure architecture that is still flexible enough to remain practical and to address several use cases. In this paper, a robust communication architecture for such autonomous fleet-based systems is proposed. The architecture provides a reliable communication between different system entities while keeping those communications secure. The architecture uses different technologies such as Bluetooth Low Energy (BLE), cellular networks and Low Power Wide Area Network (LPWAN) to achieve its goals.
This thesis focuses on the development and implementation of a Datagram Transport Layer Security (DTLS) communication framework within the ns-3 network simulator, specifically targeting the LoRaWAN model network. The primary aim is to analyse the behaviour and performance of DTLS protocols across different network conditions within a LoRaWAN context. The key aspects of this work include the following.
Utilization of ns-3: This thesis leverages ns-3’s capabilities as a powerful discrete event network simulator. This platform enables the emulation of diverse network environments, characterized by varying levels of latency, packet loss, and bandwidth constraints.
Emulation of Network Challenges: The framework specifically addresses unique challenges posed by certain network configurations, such as duty cycle limitations. These constraints, which limit the time allocated for data transmission by each device, are crucial in understanding the real-world performance of DTLS protocols.
Testing in Multi-client-server Scenarios: A significant feature of this framework is its ability to test DTLS performance in complex scenarios involving multiple clients and servers. This is vital for assessing the behaviour of a protocol under realistic network conditions.
Realistic Environment Simulation: By simulating challenging network conditions, such as congestion, limited bandwidth, and resource constraints, the framework provides a realistic environment for thorough evaluation. This allows for a comprehensive analysis of DTLS in terms of security, performance, and scalability.
Overall, this thesis contributes to a deeper understanding of DTLS protocols by providing a robust tool for their evaluation under various and challenging network conditions.
Global energy demand is still on an increase during the last decade, with a lot of impact on the climate change due to the intensive use of conventional fossil-based fuels power plants to cover this demand. Most recently, leaders of the globe met in 2015 to come out with the Paris Agreement, stating that the countries will start to take a more responsible and effective behaviour toward the global warming and climate change issues. Many studies have discussed how the future energy system will look like with respecting the countries’ targets and limits of greenhouse gases and their CO2 emissions. However, these studies rarely discussed the industry sector in detail even though it is one of the major role players in the energy sector. Moreover, many studies have simulated and modelled the energy system with huge jumps of intervals in terms of years and environmental goals. In the first part of this study, a model will be developed for the German electrical grid with high spatial and temporal resolutions and different scenarios of it will be analysed meticulously on shorter periods (annual optimization), with different flexibilities and used technologies and degrees of innovations within each scenario. Moreover, the challenge in this research is to adequately map the diverse and different characteristics of the medium-sized industrial sector. In order to be able to take a first step in assessing the relevance of the industrial sector in Germany for climate protection goals, the industrial sector will be mapped in PyPSA-Eur (an open-source model data set of the European energy system at the level of the transmission network) by detailing the demand for different types of industry and assigning flexibilities to the industrial types. Synthetically generated load profiles of various industrial types are available. Flexibilities in the industrial sector are described by the project partner Fraunhofer IPA in the GaIN project and can be used. Using a scenario analysis, the development of the industrial sector and the use of flexibilities are then to be assessed quantitatively.
Diese Arbeit befasst sich mit der Redigitalisierung von ausgedruckten Architektur-zeichnungen mit möglichst einfachen Mitteln. So sollen Fotos von herkömmlichen Smartphones die Grundlage für die Extraktion von Maßstab und Raumgeometrien sein.
Der erste der drei Schritte, die das Foto dabei durchläuft, ist die Beseitigung von perspektivischen Verzerrungen (Rektifizierung). Die hierfür benötigten Punkte werden durch ein, in dieser Arbeit trainiertes, Convolutional Neural Network (CNN) detektiert. Die so ermittelten Positionen stellen im zweiten Schritt, der Ermittlung eines Maßstabes, die Grundlage für das Auslesen der Maßzahlen mittels optical character recognition (OCR) dar. Da Räume nicht als solche in Bauzeichnungen eingezeichnet sind, werden im letzten Schritt, zuerst Wände, Türen und Fenster, durch mehrere mathematische Faltungen (convolutions) lokalisiert und innerhalb dieser Elemente, mittels wachsender Regionen, nach Räumen und Fluren gesucht.
Nach dem ein Foto diese Schritte durchlaufen hat, werden die ermittelten Geometrien sowie der Maßstab in einer Liste abgespeichert und im rektifizierten Bild, zusammen mit den berechneten Flächeninhalten, visualisiert. So kann ein Anwender schnell und einfach den Erfolg des Programmoutputs beurteilen.
Eine Versuchsreihe mit einigen Fotos ergab, dass ein Schattenwurf auf dem Papierplan bei Aufnahme des Lichtbildes zu vermeiden ist, da dieser sowohl bei der Auswertung durch das CNN, als auch innerhalb des OCR-Vorgangs zu Problemen führt, die in einigen Fällen eine Rektifizierung oder Maßstabsermittlung verhinderten.
Bei den übrigen fünf Fotos wurden durchschnittlich 31,8 von 32 Räumen detektiert, dabei wurde zwischen zwei und zwölf mal fälschlicherweise die Fensterbank als Fußboden detektiert. Die Standardabweichung der Flächeninhalte aller Räume betrug dabei 0,66 m², werden nur die Räume betrachtet, bei denen die Fensterbank korrekt erkannt wurde, beträgt die Standardabweichung lediglich 0,25 m².
Insgesamt werden die in dieser Arbeit erzielten Ergebnisse als „gut“ eingestuft, es bleiben jedoch auch einige Optimierungsmöglichkeiten an verschiedenen Stellen, besonders bei der Suche nach Räumen, bestehen.
Erfinderisches Problemlösen mit TRIZ : Zielbeschreibung, Problemdefinition und Lösungspriorisierung
(2017)
Die Theorie des erfinderischen Problemlösens, TRIZ, ist eine Systematik von Annahmen, Regeln, Methoden und Werkzeugen zur innovativen Systemverbesserung z.B. von Produkten, Prozessen, Dienstleistungen oder Organisationen. Diese Richtlinie erläutert TRIZ-Werkzeuge und -Methoden, die insbesondere in den Phasen "Zielbeschreibung", "Problemdefinition" und "Lösungspriorisierung" des Problemlösungsprozesses eingesetzt werden. Die Detailtiefe der Beschreibung erlaubt eine Einschätzung der Werkzeuge und Methoden hinsichtlich Einsatzzwecken, Ergebnissen und Funktionsweise. Die jeweilige Beschreibung der Methoden und Werkzeuge enthält konkrete Aussagen über Zielsetzung und Ergebnis ihres Einsatzes.
Due to its potential in improving the efficiency of energy supply, smart energy metering (SEM) has become an area of interest with the surge in Internet of Things (IoT). SEM entails remote monitoring and control of the sensors and actuators associated with the energy supply system. This provides a flexible platform to conceive and implement new data driven Demand Side Management (DSM) mechanisms. The IoT enablement allows the data to be gathered and analyzed at requisite granularity. In addition to efficient use of energy resources and provisioning of power, developing countries face an additional challenge of temporal mismatch in generation capacity and load factors. This leads to widespread deployment of inefficient and expensive Uninterruptible Power Supply (UPS) solutions for limited power provisioning during resulting blackouts. Our proposed “Soft-UPS” allows dynamic matching of load and generation through a combination of managed curtailment. This eliminates inefficiencies in the energy and power value chain and allows a data-driven approach to solving a widespread problem in developing countries, simultaneously reducing both upfront and running costs of conventional UPS and storage. A scalable and modular platform is proposed and implemented in this paper. The architecture employs “WiMODino” using LoRaWAN with a “Lite Gateway” and SQLite repository for data storage. Role based access to the system through an android application has also been demonstrated for monitoring and control.
Modeling of Random Variations in a Switched Capacitor Circuit based Physically Unclonable Function
(2020)
The Internet of Things (IoT) is expanding to a wide range of fields such as home automation, agriculture, environmental monitoring, industrial applications, and many more. Securing tens of billions of interconnected devices in the near future will be one of the biggest challenges. IoT devices are often constrained in terms of computational performance, area, and power, which demand lightweight security solutions. In this context, hardware-intrinsic security, particularly physically unclonable functions (PUFs), can provide lightweight identification and authentication for such devices. In this paper, random capacitor variations in a switched capacitor PUF circuit are used as a source of entropy to generate unique security keys. Furthermore, a mathematical model based on the ordinary least square method is developed to describe the relationship between random variations in capacitors and the resulting output voltages. The model is used to filter out systematic variations in circuit components to improve the quality of the extracted secrets.
A systematic toxicological analysis procedure using high-performance thin layer chromatography in combination with fibre optical scanning densitometry for identification of drugs in biological samples is presented. Two examples illustrate the practicability of the technique. First, the identification of a multiple intake of analgesics: codeine, propyphenazone, tramadol, flupirtine and lidocaine, and second, the detection of the sedative diphenhydramine. In both cases, authentic urine specimens were used. The identifications were carried out by an automatic measurement and computer-based comparison of in situ UV spectra with data from a compiled library of reference spectra using the cross-correlation function. The technique allowed a parallel recording of chromatograms and in situ UV spectra in the range of 197–612 nm. Unlike the conventional densitometry, a dependency of UV spectra by concentration of substance in a range of 250–1000 ng/spot was not observed.
Soccer simulation league is one of the founding leagues of RoboCup. In this paper we discuss the past, present and planned future achievements and changes. Also we summarize the connections and inter-league achievements of this league and provide an overview of the community contributions that made this league successful.
An der Offenburger Hochschule wurde eine neue Art der Ansteuerungsmethode für Handprothesen und -orthesen entwickelt, die auf der Verwendung einer Augmented Reality Brille basiert. Dieses neue Prothesensystem soll in einer ersten Studie an Probanden auf seine Alltagstauglichkeit getestet werden. Ziel dieser Arbeit ist es, die regulatorischen Anforderungen an eine solche Studie zusammenzustellen, mit Schwerpunkt auf einem Antrag bei einer Ethikkommission. Außerdem sind mittels Literaturrecherche Tests zu identifizieren und zu analysieren, die für die Beurteilung von Handprothesen verwendet werden. Hierfür wird erörtert was Alltagstauglichkeit bedeutet und welche Eigenschaften und Ziele identifizierte Tests haben.
Die Wertschöpfung vorherrschender Datenmengen scheitert, obgleich diese als der Treibstoff der Zukunft gelten, oftmals an den grundlegendsten Dingen. Das Digitalisierungs- und auch Verlagerungsverhalten werden für das Content Management (CM) zunehmend zu einem herausfordernden Fallstrick.
Die Unternehmen sind mit Fragestellungen traktiert, die sich darauf referenzieren, EchtzeitStröme unstrukturierter Daten aus heterogenen Quellen zu analysieren und zu speichern.
Trotz aller Bemühungen, die unaufhaltsam wachsende Menge an Daten- beziehungsweise Content im Rahmen eines effizienten Managements künftig manuell in den Griff zu bekommen, scheint es, als ob die Unternehmen an der kaum zu bewerkstelligenden Herausforderung scheitern werden.
Die vorliegende Arbeit untersucht, inwieweit es einer innovativen Technologie, wie der Künstlichen Intelligenz (KI) gelingen kann, das Content Management nachhaltig zu revolutionieren und damit den Content in seinem Umfang so zu organisieren und zu nutzen, um den Unternehmen eine Perspektive zu bieten, die steigende Welle an Big Data zu bewältigen.
Somit bewegt sich diese Arbeit auf dem Forschungsfeld der KI, als Teilgebiet der Informatik, die enorme Chancen und gleichzeitig Herausforderungen für die Wissenschaft und die Innovationsfähigkeit der Unternehmen mit sich bringt.
Im Rahmen qualitativer Expert*inneninterviews als Lösungsansatz wurde untersucht, inwiefern es KI-gestützten Systemen gelingen kann, Wissensmitarbeiter*innen entlang des Content Life Cycles zu unterstützen und den Nutzer*innen bezüglich der Ausspielung der Inhalte eine optimale Customer Experience zu bieten.
Die fehlende Nachvollziehbarkeit und das Missverständnis des KI-Begriffes sowie die Kluft zwischen der öffentlichen Debatte und der Realität der KI erweisen sich hierbei als die wohl größten Innovationsbremsen des KI-Einsatzes in der Content Management Umgebung.
Die Ergebnisse der Arbeit tragen im Wesentlichen dazu bei, das Verständnis für die KI zu schärfen und gleichzeitig das aufkommende Dilemma des Vertrauensdefizites der Mensch-Maschine-Kommunikation zu entschärfen.
Außerdem wird ein Grundverständnis dafür geschaffen, die KI als geeignetes Tool im Content Management zu erkennen.
Darüber hinaus wird demonstriert, dass sich durch den Einsatz der KI im Content Management ebenfalls immense Vorteile für die Ausspielung user*innenspezifierten Contents ergeben, die im folgenden Verlauf genauer aufgeführt werden.
Die vorliegende Bachelorarbeit befasst sich mit den Marketing-Kommunikationsstrategien im zweiseitigen Markt am Beispiel einer Immobilienplattform.
Das primäre Ziel dieser Arbeit besteht darin, auf Grundlage der Netzwerkeffekte im zweiseitigen Markt und durch Anwendung von Onlinemarketingmaßnahmen die Positionierung der Plattform Immobilien Rith in den Internetsuchergebnissen zu optimieren.
One of the main problematics of the seals tests is the time and money consuming they are. Up to now, there are few tries to do a digitalisation of a test where the seals behaviour can be known.
This work aims to digitally reproduce a seal test to extract their behaviour when working under different operation conditions to see their impact on the pimp’s efficiency. In this thesis, due to the Lomaking effect, the leakage and the forces applied on the stator will be the base of analysis.
First of all, among all the literature available for very different kind of seals and inner patterns, it has been chosen the most appropriate and precise data. The data chosen is “Test results for liquid Damper Seals using a Round-Hole Roughness Pattern for the Stator” from Fayolle, P. and “Static and Rotordynamic Characteristics of Liquid Annular Seals with Circumferentially/Grooved Stator and Smooth Rotor using three levels of circumferential Inlet-Fluid” from Torres J.M.
From the literature, dimensions of the test rig and the seals will be extracted to model them into a 3D CAD software. With the 3D CAD digitalisation, the fluid volumes for a rotor-centred position, meaning without eccentricity, will be extracted, and used. The following components have been modelled:
- Smooth Annular Liquid Seal (Grooved Rotor)
- Grooved Annular Liquid Seal (Smooth Rotor)
- Round-Hole Pattern Annular Liquid Seal (𝐻𝑑=2 𝑚𝑚) (Smooth Rotor)
- Straight Honeycomb Annular Liquid Seal (Smooth Rotor)
- Convergent Honeycomb Annular Liquid Seal (Smooth Rotor)
- Smooth Rotor / Smooth Annular Liquid Seal (Smooth Rotor)
As there is just one test rig, all the components have been adapted to the different dimensions of the seals by referencing some measures. This allows to test any seal with the same test rig.
Afterwards a CFD simulation that will be used to obtain leakage and stator forces. The parameters that will be changed are the rotational velocity of the fluid (2000 rpm, 4000 rpm, and 6000 rpm) and the pressure drop (2,068 bar, 4,137 bar, 6,205 bar, and 8,274 bar).
Those results will be compared to the literature ones, and they will determine if digitalisation can be validated or not. Even though the relative error is higher than 5% but the tendency is the same and it is thought that by changing some parameters the test results can be even closer to the literature ones.
The evolution of cellular networks from its first generation (1G) to its fourth generation (4G) was driven by the demand of user-centric downlink capacity also technically called Mobile Broad-Band (MBB). With its fifth generation (5G), Machine Type Communication (MTC) has been added into the target use cases and the upcoming generation of cellular networks is expected to support them. However, such support requires improvements in the existing technologies in terms of latency, reliability, energy efficiency, data rate, scalability, and capacity.
Originally, MTC was designed for low-bandwidth high-latency applications such as, environmental sensing, smart dustbin, etc. Nowadays there is an additional demand around applications with low-latency requirements. Among other well-known challenges for recent cellular networks such as data rate energy efficiency, reliability etc., latency is also not suitable for mission-critical applications such as real-time control of machines, autonomous driving, tactile Internet etc. Therefore, in the currently deployed cellular networks, there is a necessity to reduce the latency and increase the reliability offered by the networks to support use cases such as, cooperative autonomous driving or factory automation, that are grouped under the denomination Ultra-Reliable Low-Latency Communication (URLLC).
This thesis is primarily concerned with the latency into the Universal Terrestrial Radio Access Network (UTRAN) of cellular networks. The overall work is divided into five parts. The first part presents the state of the art for cellular networks. The second part contains a detailed overview of URLLC use cases and the requirements that must be fulfilled by the cellular networks to support them. The work in this thesis is done as part of a collaboration project between IRIMAS lab in Université de Haute-Alsace, France and Institute for Reliable Embedded Systems and Communication Electronics (ivESK) in Offenburg University of Applied Sciences, Germany. The selected use cases of URLLC are part of the research interests of both partner institutes. The third part presents a detailed study and evaluation of user- and control-plane latency mechanisms in current generation of cellular networks. The evaluation and analysis of these latencies, performed with the open-source ns-3 simulator, were conducted by exploring a broad range of parameters that include among others, traffic models, channel access parameters, realistic propagation models, and a broad set of cellular network protocol stack parameters. These simulations were performed with low-power, low-cost, and wide-range devices, commonly called IoT devices, and standardized for cellular networks. These devices use either LTE-M or Narrowband-IoT (NB-IoT) technologies that are designed for connected things. They differ mainly by the provided bandwidth and other additional characteristics such as coding scheme, device complexity, and so on.
The fourth part of this thesis shows a study, an implementation, and an evaluation of latency reduction techniques that target the different layers of the currently used Long Term Evolution (LTE) network protocol stack. These techniques based on Transmission Time Interval (TTI) reduction and Semi-Persistent Scheduling (SPS) methods are implemented into the ns-3 simulator and are evaluated through realistic simulations performed for a variety of low-latency use cases focused on industry automation and vehicular networking. For testing the proposed latency reduction techniques in cellular networks, since ns-3 does not support NB-IoT in its current release, an NB-IoT extension for LTE module was developed. This makes it possible to explore deployment limitations and issues.
In the last part of this thesis, a flexible deployment framework called Hybrid Scheduling and Flexible TTI for the proposed latency reduction techniques is presented, implemented and evaluated through realistic simulations. With help of the simulation evaluation, it is shown that the improved LTE network proposed and implemented in the simulator can support low-latency applications with low cost, higher range, and narrow bandwidth devices. The work in this thesis points out the potential improvement techniques, their deployment issues and paves the way towards the support for URLLC applications with upcoming cellular networks.
The excessive control signaling in Long Term Evolution networks required for dynamic scheduling impedes the deployment of ultra-reliable low latency applications. Semi-persistent scheduling was originally designed for constant bit-rate voice applications, however, very low control overhead makes it a potential latency reduction technique in Long Term Evolution. In this paper, we investigate resource scheduling in narrowband fourth generation Long Term Evolution networks through Network Simulator (NS3) simulations. The current release of NS3 does not include a semi-persistent scheduler for Long Term Evolution module. Therefore, we developed the semi-persistent scheduling feature in NS3 to evaluate and compare the performance in terms of uplink latency. We evaluate dynamic scheduling and semi-persistent scheduling in order to analyze the impact of resource scheduling methods on up-link latency.
Vehicle-to-Everything (V2X) communication promises improvements in road safety and efficiency by enabling low-latency and reliable communication services for vehicles. Besides using Mobile Broadband (MBB), there is a need to develop Ultra Reliable Low Latency Communications (URLLC) applications with cellular networks especially when safety-related driving applications are concerned. Future cellular networks are expected to support novel latencysensitive use cases. Many applications of V2X communication, like collaborative autonomous driving requires very low latency and high reliability in order to support real-time communication between vehicles and other network elements. In this paper, we classify V2X use-cases and their requirements in order to identify cellular network technologies able to support them. The bottleneck problem of the medium access in 4G Long Term Evolution(LTE) networks is random access procedure. It is evaluated through simulations to further detail the future limitations and requirements. Limitations and improvement possibilities for next generation of cellular networks are finally detailed. Moreover, the results presented in this paper provide the limits of different parameter sets with regard to the requirements of V2X-based applications. In doing this, a starting point to migrate to Narrowband IoT (NB-IoT) or 5G - solutions is given.
The next generation cellular networks are expected to improve reliability, energy efficiency, data rate, capacity and latency. Originally, Machine Type Communication (MTC) was designed for low-bandwidth high-latency applications such as, environmental sensing, smart dustbin, etc., but there is additional demand around applications with low latency requirements, like industrial automation, driver-less cars, and so on. Improvements are required in 4G Long Term Evolution (LTE) networks towards the development of next generation cellular networks for providing very low latency and high reliability. To this end, we present an in-depth analysis of parameters that contribute to the latency in 4G networks along with a description of latency reduction techniques. We implement and validate these latency reduction techniques in the open-source network simulator (NS3) for narrowband user equipment category Cat-Ml (LTE-M) to analyze the improvements. The results presented are a step towards enabling narrowband Ultra Reliable Low Latency Communication (URLLC) networks.
On a regular basis, we hear of well-known online services that have been abused or compromised as a result of data theft. Because insecure applications jeopardize users' privacy as well as the reputation of corporations and organizations, they must be effectively secured from the outset of the development process. The limited expertise and experience of involved parties, such as web developers, is frequently cited as a cause of risky programs. Consequently, they rarely have a full picture of the security-related decisions that must be made, nor do they understand how these decisions affect implementation accurately.
The selection of tools and procedures that can best assist a certain situation in order to protect an application against vulnerabilities is a critical decision. Regardless of the level of security that results from adhering to security standards, these factors inadvertently result in web applications that are insufficiently secured. JavaScript is a language that is heavily relied on as a mainstream programming language for web applications with several new JavaScript frameworks being released every year.
JavaScript is used on both the server-side in web applications development and the client-side in web browsers as well.
However, JavaScript web programming is based on a programming style in which the application developer can, and frequently must, automatically integrate various bits of code from third parties. This potent combination has resulted in a situation today where security issues are frequently exploited. These vulnerabilities can compromise an entire server if left unchecked. Even though there are numerous ad hoc security solutions for web browsers, client-side attacks are also popular. The issue is significantly worse on the server side because the security technologies available for server-side JavaScript application frameworks are nearly non-existent.
Consequently, this thesis focuses on the server-side aspect of JavaScript; the development and evaluation of robust server-side security technologies for JavaScript web applications. There is a clear need for robust security technologies and security best practices in server-side JavaScript that allow fine-grained security.
However, more than ever, there is this requirement of reducing the associated risks without hindering the web application in its functionality.
This is the problem that will be tackled in this thesis: the development of secure security practices and robust security technologies for JavaScript web applications, specifically, on the server-side, that offer adequate security guarantees without putting too many constraints on their functionality.
Die vorliegende Bachelor-Thesis wurde im Rahmen des Bachelorstudiengangs an der Hochschule Offenburg in der Sparte S der Fertigungsplanung der Hugo Kern und Liebers GmbH und Co. KG verfasst. Ziel dieser Abschlussarbeit ist es, die Lagerung der vorderen Kettenumlenkung weiter zu optimieren, um die Standzeit zu verbessern. Der Fokus der Arbeit liegt dabei in der Optimierung des Seriengleitlagers, bzw. der Entwicklung und Herstellung eines speziell gekapselten Gleitlagers.
Als Optimierungen im seriennahen Bereich, das heißt möglichst ohne große Änderungen am Fertigungs- bzw. Montageablauf, findet vor allem das Borieren der Reibpartner besondere Beachtung. Durch erste Feldversuche zeigte sich, dass das Borieren des Umlenksterns positive Auswirkungen auf die Reibung hat und den Widerstand gegen abrasiven Verschleiß durch Erhöhung der Randschichthärte deutlich verbessert. Zusätzlich zum Einsatz eines borierten Umlenksterns wird untersucht, ob das zusätzliche Borieren des HM-Rings weitere Vorteile bringt, vor allem hinsichtlich der entstehenden zusätzlichen Notlaufeigenschaften durch die Boridschicht.
Als weitere Variante wird der eingesetzte Hartmetallring, welcher aktuell lediglich eine einzige Schmiernut enthält, mit optimierten Schmiernuten hergestellt. Als Vorbild hierfür wird die Gestaltungsrichtlinie von Schmiernuten von hydrodynamischen Gleitlagern verwendet.
Der größte Block und damit auch der, welcher am vielversprechendsten ist, ist die Neuentwicklung und Herstellung einer gekapselten Gleitlagervariante. Diese soll es ermöglichen, dass die Reibpartner komplett von Öl umschlossen sind und so eine Verbesserte und dauerhafte Schmierung erreicht werden soll. Außerdem soll die gekapselte Gleitlagerung so gestaltet werden, dass eine Nachförderung von Öl aus einem in den Bolzen angebrachten Schmiermittelreservoir ermöglicht wird und so eine Lebensdauerschmierung erreicht werden kann.
Um die unterschiedlichen Mustervariationen bewerten zu können, werden jeweils Prüfstandversuche durchgeführt, bei dem die entstehenden Drehmomente und die Temperatur gemessen werden. Als Vergleich dient jeweils der Serienstand mit seinen festgelegten Grenzen.
Außerdem wird für jede Variante ein Sägeversuch durchgeführt, bei welchem die Bau-gruppen bei den beiden kritischen Sägerichtungen Rückwärts und Einstechen überprüft wird. Auch hier erfolgt die Beurteilung über etwaige Verbesserungen mit den Ergebnissen der Sägesysteme aus dem aktuellen Serienzustand.
Bei der Prüfung der Musterbaugruppen zeigt sich, dass vor allem das Borieren der Reibpartner Vorteile gegenüber der Serie bringt und durchaus die Möglichkeit der Umsetzung in der Serienbaugruppe besteht. Die Tests verliefen äußerst positiv, vor allem im Bereich höherer Belastungen zeigt sich, dass das Borieren des Umlenksterns deutliches Verbesserungspotenzial im Vergleich zum aktuellen Serienstand zeigt.
An ein Umsetzen der Baugruppen mit gekapselter Gleitlagervariante ist aktuell nicht zu denken. Die geprüften Baugruppen zeigen deutliche Schwächen bei den Prüfstandsversuchen. Die Ergebnisse der Sägeversuche stellen sich jedoch noch deutlich schlechter dar. Unabhängig vom verwendeten Schmieröl, bzw. den darin enthaltenen Festschmierstoffpartikeln, besteht keine einzige Baugruppe auch nur annähernd die festgelegten Mindestanforderungen.
Um die gekapselte Gleitlagervariante auf einen Stand zu bringen, bei welchem an ein Umsetzen in die Serienbaugruppe gedacht werden kann, bedarf es noch weiterem Entwicklungsaufwand. Das Aufbiegen des Schwertes während des Sägens muss verhindert werden. Außerdem muss die Materialpaarung, die Härte und die Oberflächenqualität von Umlenkstern und Bolzen angepasst werden, um die Ausbildung von Kaltverschweißungen zu vermeiden. Die Kaltverschweißungen zwischen Umlenkstern und Bolzen bewirken, dass der Bolzen nicht mehr drehbar ist was unmittelbar zum Ausfall der Baugruppen führt.
Ripple: Overview and Outlook
(2015)
Ripple is a payment system and a digital currency which evolved completely independently of Bitcoin. Although Ripple holds the second highest market cap after Bitcoin, there are surprisingly no studies which analyze the provisions of Ripple.
In this paper, we study the current deployment of the Ripple payment system. For that purpose, we overview the Ripple protocol and outline its security and privacy provisions in relation to the Bitcoin system. We also discuss the consensus protocol of Ripple. Contrary to the statement of the Ripple designers, we show that the current choice of parameters does not prevent the occurrence of forks in the system. To remedy this problem, we give a necessary and sufficient condition to prevent any fork in the system. Finally, we analyze the current usage patterns and trade dynamics in Ripple by extracting information from the Ripple global ledger. As far as we are aware, this is the first contribution which sheds light on the current deployment of the Ripple system.
Das Thema Ethnomarketing gewinnt mit der steigenden Anzahl an Mitbürgern mit Migrationshintergrund an Wert. Bestimmte Marketingmaßnahmen für bestimmte Zielgruppen. Diese wissenschaftliche Arbeit befasst sich mit diesem Thema und die Widerspiegelung (Medienintegration) dieser in den Medien. Anhand von verschiedenen Beispielen wird das Thema überschaubar und verständlich beleuchtet.
In this paper we integrate the ideas of network coding and relays into an existing practical network architecture used in a wireless network scenario. Specifically, we use the COPE architecture to test our ideas. Since previous works have focused on the communication aspect at the physical layer level, we attempt to take it one step further by including the MAC layer. Our idea is based on information theoretic concepts developed by Shannon in order to reliably apply network coding to increase the net throughput.
We present a 3D simulation approach utilising the diffuse interface representation of the phase-field method combined with a heat transfer equation to analyse the thermal conductivity in air-filled aluminium foams with complex cellular structures of different porosity. Algorithmic methods are introduced to create synthetic open-cell foam structures and to compute the thermal conductivity by means of phase-field modelling. A material law for the effective thermal conductivity is derived by determining the appropriate exponent depending on the relative density in the system. The results are compared with the thermal conductivity in massive aluminium and in pure air.
Die verstärkte Nachfrage des Marktes nach regelbaren EC-Antrieben mit erhöhten Leistungsdichten fordert das Einsetzen von höherwertigen Elektroblechsorten. Diese weisen durch ihren höheren Siliziumgehalt höhere Härten auf, was zu neue Herausforderungen bei der Montage führt. Das Fügen sogenannter gekerbter Wellen in das Rotorlamellenpaket kann zu Partikelbildung führen, wenn die Härtedifferenz zwischen den beiden Fügepartnern zu gering ausfällt. Dieser Umstand ist zur Einhaltung der steigenden Anforderungen bezüglich technischer Sauberkeit zu vermeiden, da ansonsten kostspielige Reinigungskonzepte in der Montagelinie installiert werden müssen. Für die Montage von Lagern werden die Rotorwellen selektiv induktiv randschichtgehärtet. Hierbei müssen bspw. Lagerstellen eine Mindesthärte erreichen und Kerbzonen unbehandelt bleiben, damit eine entsprechende Umformbarkeit beim Kerben erhalten bleibt sowie der Verschleiß der Kerbwerkzeuge möglichst geringgehalten wird.
Im Rahmen dieser Masterthesis wird die induktive Wärmebehandlung untersucht. Insbesondere wird hier das induktive Hochgeschwindigkeitsvergüten zur Weiterentwicklung der Welle-Nabe-Verbindung im Kerbbereich betrachtet, um bei gleichbleibender Taktzeit die erforderte Härtedifferenz zum Rotorlamellenwerkstoff zu ermöglichen. Hierbei wird der Kerbbereich wie für die Lagermontage induktiv randschichtgehärtet und anschließend bei höheren Temperaturen angelassen (vergütet).
Die Auswertung der Versuchsergebnisse zeigt, dass mit dem vorhandenen Maschinenfuhrpark nur das Anlassen mit Selbstabschreckung die geforderten Härtetoleranzen als Kompromiss zwischen Spanfreiheit beim Fügen und Werkzeugverschleiß ermöglicht. Diese wiederum zeigen aufgrund der ununterbrochene Wärmeleitung eine in Axialrichtung ausgeweiteten Wärmeeinflusszone, die zu unscharfen Härteübergängen im Vergleich zu nach dem Anlassen aktiv gekühlter Rotorwellen führt. Eine höhere Härte in der Kerbzone führt zu einem kleineren Kerbaufwurf unter gleichbleibenden Kerbbedingungen. Der Nachweis einer Prozessfähigkeit für die Härte ist nicht üblich und kann auch aufgrund der hohen Unsicherheit des Härteprüfverfahrens nicht erbracht werden. Das Anlassen verschlechtert nur geringfügig den Rundlauf. Die Einpresskräfte von Rotorlamellenpaketen hängt von der Höhe des Kerbaufwurfs ab und steigt entsprechend mit deren Zunahme. Für eine serientaugliche Umsetzung ist in Abhängigkeit des Anforderungsprofils eine Rücksprache mit der Designabteilung bezüglich axiale Härteübergang und Kerbeindringtiefe notwendig. Für eine dauerhafte Lösung wird die Verwendung eines Mittelfrequenzgenerators für den Anlassprozess empfohlen.
Mit der neuen Abgasnorm Euro VI und den steigenden Kraftstoffpreisen müssen Nutzfahrzeugantriebe eine Reduzierung der CO2-Emission und eine höhere Effizienz vorweisen (Umweltbundesamt, 2015). Um diese Anforderungen erfüllen zu können, wird bei vielen Nutzfahrzeugherstellern intensiv an Systemen zur Rückgewinnung von Abgasenergie, den sogenannten Waste-Heat-Recovery-Systemen, geforscht. Eine Kraftstoffersparnis von rund 5 % wird dabei angestrebt.
Das System basiert auf einem ORC-Prozess. Bei diesem thermodynamischen Kreisprozess wird die Abwärme des Abgases über einen Wärmetauscher geführt, der das organische Arbeitsfluid Ethanol in einem geschlossenen Kreislauf erhitzt. Durch den Dampfdruckaufbau wird eine Turbine angetrieben. Zur Transformation der Enthalpie des Ethanoldampfes in mechanische Energie sind Drehzahlen von bis zu 120000 U/min notwendig, um eine hohe Effizienz des Systems vorweisen zu können. Systemdrücke bis 50 bar und Temperaturen des Ethanoldampfes von maximal 300 °C treten im WHR-System auf und führen zu extremen Beanspruchungen. Eine besondere Herausforderung stellen hierbei die Wellendichtungen, vor allem bei nutzfahrzeugtypischen Lebensdauern, dar. Als interessante Alternative zeigt sich die Zentrifugal-Wellendichtung, um die hohen Dichtungsanforderungen über die geforderten Laufzeiten zuverlässig zu erfüllen.
Durch methodisch stufenweise ablauforientiertes Vorgehen wird die Analyse der Zentrifugal-Wellendichtungen durchgeführt. Hierbei wird zuallererst das Wirkprinzip untersucht. Ein besonderes Augenmerk wird dabei auf die Wärmeeinträge aus der Umgebung und Verwendung unterschiedlicher Sperrfluide gelegt.
Für eine Testdrehzahl von 15000 U/min ergibt sich, bei einer beidseitig glatten Scheibe mit einem Scheibenradius von 8,7 mm, eine maximal abdichtbare Druckdifferenz von 0,04 bar. Im Sperrfluid herrschen hierbei Temperaturen von rund 50 °C. Die Versuche zeigen Korrelationen zu den bekannten theoretischen Ansätzen von Ketola und McGrey. Die maximale Druckdifferenz beträgt in diesem Fall 0,043 bar. Nachdem stationäre Betrachtungen ausreichend untersucht werden, widmet sich diese Arbeit dem Anfahr- und Not-Aus-Verhalten. Die Optimierung des Projekts wird durch abschließende Verbesserungsvorschläge, für die Realisierung höherer Sperrdrücke, erzielt.
Much of the research in the field of audio-based machine learning has focused on recreating human speech via feature extraction and imitation, known as deepfakes. The current state of affairs has prompted a look into other areas, such as the recognition of recording devices, and potentially speakers, by only analysing sound files. Segregation and feature extraction are at the core of this approach.
This research focuses on determining whether a recorded sound can reveal the recording device with which it was captured. Each specific microphone manufacturer and model, among other characteristics and imperfections, can have subtle but compounding effects on the results, whether it be differences in noise, or the recording tempo and sensitivity of the microphone while recording. By studying these slight perturbations, it was found to be possible to distinguish between microphones based on the sounds they recorded.
After the recording, pre-processing, and feature extraction phases we completed, the prepared data was fed into several different machine learning algorithms, with results ranging from 70% to 100% accuracy, showing Multi-Layer Perceptron and Logistic Regression to be the most effective for this type of task.
This was further extended to be able to tell the difference between two microphones of the same make and model. Achieving the identification of identical models of a microphone suggests that the small deviations in their manufacturing process are enough of a factor to uniquely distinguish them and potentially target individuals using them. This however does not take into account any form of compression applied to the sound files, as that may alter or degrade some or most of the distinguishing features that are necessary for this experiment.
Building on top of prior research in the area, such as by Das et al. in in which different acoustic features were explored and assessed on their ability to be used to uniquely fingerprint smartphones, more concrete results along with the methodology by which they were achieved are published in this project’s publicly accessible code repository.
Gas adsorption studies of CO2 and N2 in spatially aligned double-walled carbon nanotube arrays
(2013)
Gas adsorption studies (CO2 and N2) over a wide pressure range on vertically, highly aligned dense double-walled carbon nanotube arrays of high purity and high specific surface area are reported. At high pressures, the adsorption capacity of these materials was found to be comparable to those of metal organic frameworks and mesoporous molecular sieves. These highly aligned CNT arrays were chemically modified by treating with oxygen plasma and structurally modified by decreasing the diameter of individual carbon nanotubes. Oxygen plasma treatment led to grafting of a large number of C–O functional groups onto the CNT surface, which further increased the gas adsorption capacity. It was found that gas adsorption is dependent on tube diameter and increases with decrease of the individual CNT diameter in the CNT bundles. As results of our studies we have found that at lower pressure regimes, plasma functionalized carbon nanotubes exhibit better adsorption characteristics whereas at higher pressures, lower diameter carbon nanotube structures exhibited better gas adsorption characteristics.
Since their dawning, space communications have been among the strongest driving applications for the development of error correcting codes. Indeed, space-to-Earth telemetry (TM) links have extensively exploited advanced coding schemes, from convolutional codes to Reed-Solomon codes (also in concatenated form) and, more recently, from turbo codes to low-density parity-check (LDPC) codes. The efficiency of these schemes has been extensively proved in several papers and reports. The situation is a bit different for Earth-to-space telecommand (TC) links. Space TCs must reliably convey control information as well as software patches from Earth control centers to scientific payload instruments and engineering equipment onboard (O/B) spacecraft. The success of a mission may be compromised because of an error corrupting a TC message: a detected error causing no execution or, even worse, an undetected error causing a wrong execution. This imposes strict constraints on the maximum acceptable detected and undetected error rates.
NEXCODE is a project promoted by the European Space Agency aimed at research design development and demonstration of a receiver chain for telecomm and links in space missions including the presence of new short low-density parity-check codes for error correction. These codes have excellent performance from the error rate viewpoint but also put new challenges as regards synchronization issues and implementation. In this paper after a short review of the results obtained through numerical simulations we present an overview of the breadboard designed for practical testing and the test-plan proposed for the verification of the breadboard and the validation of the new codes and novel synchronization techniques under relevant operation conditions.
Im Rahmen dieser Masterarbeit soll ein Radträger für ein Leichtbaufahrzeug entwickelt werden. Dieser soll ein niedriges Gewicht sowie eine hohe Steifigkeit aufweisen und fertigbar sein.
Dabei wird über einen iterativen Prozess aus Simulation, Topologieoptimierung und Neukonstruktion ein neues Radträgerdesign entwickelt.
Zu Beginn der Arbeit wird auf die wissenschaftlichen Grundlagen eingegangen. Dabei spielen vor allem das Thema Leichtbau sowie die finite Elemente Methode eine Rolle. Es wird auf Prinzipien der Konstruktion eingegangen, um das Bauteil fertigungsgerecht und auch effizient zu gestalten.
Im nächsten Kapitel wird der aktuelle Stand der Technik genauer untersucht. Hierbei wird der Entwicklungsprozess der aktuellen Radträger-Varianten untersucht und diese mittels FEM nachgerechnet. Zuvor werden noch die für die Simulation benötigten wirkenden Kräfte berechnet und Plausibilitätstests durchgeführt, bei denen Computersimulationen mit realen Messwerten auf deren Richtigkeit überprüft werden.
In den letzten Kapiteln geht es um die Entwicklung des Radträgers. Hier werden einige Konzepte entwickelt und mittels FEM-Simulationen getestet. Durch den Einsatz von Topologieoptimierungen wird versucht, das Gewicht des Radträgers bei gleichbleibender Steifigkeit zu senken.
Durch den digitalen Wandel, sowie durch die an Benutzerfreundlichkeit und Leistung zunehmenden technischen Geräte im Endbenutzer-Bereich beginnt die Bedeutung von Augmented-Reality Applikationen zu wachsen. Daher ist das Ziel dieser Arbeit die Entwicklung einer Engine auf iOS Basis, zur Dastellung von Augmented-Reality Inhalten. Die Engine wurde nach dem Vorbild von Komponenten-basierten Game Engines entworfen, da diese beinahe identische Anforderungen besitzen. Die, im Rahmen dieser Arbeit erstellte Engine wurde mit Unterstützung der 5d lab Gmb entwickelt. Durch die Verwendung des, nach Erfahrungswerten, schnellsten Mobile Augmented Reality SDK und einer gelungenen Engine-Architektur konnte ein Produkt entwickelt werden, dass mit bestehenden Applikationen konkurrenzfähig ist.
This work provides a series of methane adsorption isotherms and breakthrough curves on one 5A zeolite and one activated carbon. Breakthrough curves of CH4 were obtained from dynamic column measurements at different temperature and pressure conditions for concentrations of 4.4 – 17.3 mol.‐% in H2/CH4 mixtures. A simple model was developed to simulate the curves using measured and calculated data inputs. The results show that the model predictions agree very well with the experiments.
The separation of nitrogen and methane from hydrogen-rich mixtures is systematically investigated on a recently developed binder-free zeolite 5A. For this adsorbent, the present work provides a series of experimental data on adsorption isotherms and breakthrough curves of nitrogen and methane, as well as their mixtures in hydrogen. Isotherms were measured at temperatures of 283–313 K and pressures of up to 1.0 MPa. Breakthrough curves of CH4, N2, and CH4/N2 in H2 were obtained at temperatures of 300–305 K and pressures ranging from 0.1 to 6.05 MPa with different feed concentrations. An LDF-based model was developed to predict breakthrough curves using measured and calculated data as inputs. The number of parameters and the use of correlations were restricted to focus on the importance of measured values. For the given assumptions, the results show that the model predictions agree satisfactorily with the experiments under the different operating conditions applied.
As a basis for the evaluation of hydrogen storage by physisorption, adsorption isotherms of H2 were experimentally determined for several porous materials at 77 K and 298 K at pressures up to 15 MPa. Activated carbons and MOFs were studied as the most promising materials for this purpose. A noble focus was given on how to determine whether a material is feasible for hydrogen storage or not, dealing with an assessment method and the pitfalls and problems of determining the viability. For a quantitative evaluation of the feasibility of sorptive hydrogen storage in a general analysis, it is suggested to compare the stored amount in a theoretical tank filled with adsorbents to the amount of hydrogen stored in the same tank without adsorbents. According to our results, an “ideal” sorbent for hydrogen storage at 77 K is calculated to exhibit a specific surface area of >2580 m2 g−1 and a micropore volume of >1.58 cm3 g−1.
Ziel der folgenden Bachelorarbeit ist es, eine Steuerung für einen Motorenprüfstand zu entwickeln. Dieser wurde von Aaron Maier geplant und konstruiert. Die Steuerung soll es ermöglichen, die Motoren des Prüfstands sowohl manuell als auch automatisiert anzusteuern. Dabei sollen die Parameter Drehmoment, Drehzahl, Spannung, Strom sowie die Temperatur der Motoren automatisiert, oder auf Knopfdruck erfasst und abgelegt werden. Die Arbeit umfasst die Auswahl der benötigten Hardwarekomponenten, das Verbauen dieser Komponenten in einem Bedienpult, die elektrische Verschaltung dieser Komponenten, die Programmierung des Microkontrollers und das Erstellen einer Dokumentation.
Die vorliegenden Arbeit befasst sich mit dem datengetriebenen Targeting im Social-Media Advertising. Sie gibt einen Einblick in die verschiedenen Möglichkeiten der datengetriebenen Zielgruppenansprache, welche die sozialen Netzwerke für werbetreibenden Unternehmen zur Verfügung stellen. Zu Beginn werden die Grundlagen des Datenmanagements dargestellt und anschließend die wesentlichen Targeting-Techniken sowie die technischen und juristischen Grenzen präsentiert. Dabei wird auf die Relevanz der Zielgruppenbestimmung eingegangen. Im Weiteren werden die Varianten des Social-Media-Targeting am Beispiel von Facebook ausgearbeitet. Am Ende wird ein Überblick über die Plattformen Facebook, Instagram, Twitter, LinkedIn, Pinterest und YouTube entwickelt.
Die Coronakrise hat weltweit das Wirtschafts- und Gesellschaftsleben in bisher ungekannter Weise verändert. Die ohnehin bereits komplexen Herausforderungen in Zeiten des Klimawandels sind damit noch gestiegen. Genossenschaftliche Innovationsökosysteme können Lösungsansätze für die gravierenden Veränderungen im unternehmerischen, kommunalen und gesellschaftlichen Umfeld schaffen.
Wurzeln, Werte und Visionen
(2018)
The increasing use of artificial intelligence (AI) technologies across application domains has prompted our society to pay closer attention to AI’s trustworthiness, fairness, interpretability, and accountability. In order to foster trust in AI, it is important to consider the potential of interactive visualization, and how such visualizations help build trust in AI systems. This manifesto discusses the relevance of interactive visualizations and makes the following four claims: i) trust is not a technical problem, ii) trust is dynamic, iii) visualization cannot address all aspects of trust, and iv) visualization is crucial for human agency in AI.
The objective of this thesis is the conceptual design of a battery management system for the first prototype of the UWC (University of the Western Cape) Modular Battery System. The battery system is a lithium-ion battery that aims to be used in renewable energy systems and for niche electric vehicles such as golf carts.
The concept that is introduced in this thesis comprises the parameter monitoring, the safety management and has its main focus on an accurate state of charge estimation.
Another battery system that was already implemented is used as base for the parameter monitoring and the safety management for the new battery management system. In contrast to that, the concept for the state of charge estimation must be developed completely.
Different methods for the state of charge estimation which are based on the measured voltage, current and temperature are discussed, evaluated and the chosen method is conceived in this thesis. The method used for the state of charge estimation is different for the time when the battery is active than when it is inactive. During charge and discharge Coulomb counting is used and when the cell is inactive voltage versus state of charge lookup tables are used to update the estimation.
To have an accurate estimation when the cell is inactive only for a short time, a model of the voltage relaxation is used to predict the voltage when the cells are in equilibrium. This allows the algorithm to reset the state of charge that is estimated by Coulomb counting – which tends to have a growing error over time – frequently.
To evaluate the accuracy of the voltage prediction, cell tests were executed where the voltage relaxation was sampled. The recursive least square method to predict the end voltage was tested with a MATLAB programme. With the help of voltage versus state of charge lookup tables it was possible to determine the state of charge accuracy with the accuracy of the voltage prediction.
Entwicklung eines Kommunikationskonzepts für Black Forest Formula an der Hochschule Offenburg
(2021)
Die vorliegende Masterthesis befasst sich mit der Entwicklung eines Kommunikationskonzepts für das Black Forest Formula Projekt an der Hochschule Offenburg. Die bisherigen kommunikativen Aktivitäten werden im Rahmen dieser Arbeit überarbeitet und erweitert, sodass ein konsistentes Gesamtkonzept für die Kommunikation entsteht. Hierzu werden die einzelnen Phasen eines Konzeptionsprozesses durchlaufen. Das Ziel ist eine langfristige Planung, welche die Interessen der verschiedenen Gruppen innerhalb und außerhalb des Projekts berücksichtigt, um deren Unterstützung zu sichern. Des Weiteren wird durch die Ausrichtung auf festgelegte Kommunikationsziele eine Verbesserung der internen und externen Kommunikation von Black Forest Formula angestrebt. Die Arbeit richtet sich daher insbesondere an die leitenden Mitglieder des Teams und soll diesen als Handlungsempfehlung dienen. Darüber hinaus ist die Arbeit auch für all jene interessant, die sich mit dem Ablauf und den Methoden zur Entwicklung von Kommunikationskonzepten befassen möchten.
Background: Increasing awareness of the importance of evidence-based medicine is demonstrated not only by an increasing number of articles addressing it but also by a specialty-wide evidence-based medicine initiative. The authors critically analyzed the quality of reporting of randomized controlled trials published in this Journal over a 21-year period (1990 to 2010).
Methods: A hand search was conducted, including all issues of Plastic and Reconstructive Surgery from January of 1990 to December of 2010. All randomized controlled trials published during this time period were identified with the Cochrane decision tree for identification of randomized controlled trials. To assess the quality of reporting, a modification of the checklist of the Consolidated Standard of Reporting Trials Statement was used.
Results: Of 7121 original articles published from 1990 to 2010 in the Journal, 159 (2.23 percent) met the Cochrane criteria. A significant increase in the absolute number of randomized controlled trials was seen over the study period (p < 0.0001). The median quality of these trials from 1990 to 2010 was "fair," with a trend toward improved quality of reporting over time (p = 0.127).
Conclusions: A favorable trend is seen with respect to an increased number of published randomized controlled trials in Plastic and Reconstructive Surgery. Adherence to standard reporting guidelines is recommended, however, to further improve the quality of reporting. Consideration may be given to providing information regarding the quality of reporting in addition to the "level of evidence pyramid," thus facilitating critical appraisal.
Patienten mit neurologischen Erkrankungen, die Auswirkungen auf die Muskelaktivität der unteren Extremitäten haben, leiden oft an Gangstörungen in der Schwung- und Standphase. Um diesen Gangstörungen entgegenzuwirken und einzelne Muskeln zu unterstützen oder zu ersetzen, stellt die Versorgung mit Unterschenkelorthesen eine Behandlungsoption dar. Den Ärzten steht dabei eine Vielzahl an Orthesentypen mit verschiedenen mechanischen Eigenschaften zur Verfügung. Zur Beurteilung der Wirksamkeit einer Orthesenversorgung werden dreidimensionale Ganganalysen mit und ohne Orthese durchgeführt. Die Entscheidungsfindung wird durch eine Simulation des Bewegungsapparates, dem muskuloskelettalen Modelling, unterstützt. Aus den Messdaten der Ganganalyse mit Orthese wird mittels der inversen Dynamik auf die bewegungserzeugenden Muskelkräfte im Körper zurückgerechnet. Der-zeit wird das Gesamtmoment um das Sprunggelenk in die Berechnung mit einbezogen, welches sich aus dem internen Moment, erzeugt von Muskeln, Sehnen und Bändern der unteren Extremitäten des Patienten und dem externen Orthesenmoment zusammensetzt. Durch eine isolierte Ermittlung des Unterstützungsmoments einer Unterschenkelorthese kann durch das muskuloskelettale Modelling eine genauere Aussage über die Auswirkungen einer Unterschenkelorthese auf die Muskelaktivität der unteren Extremitäten und die Funktionalität des Bewegungsapparates des Patienten getroffen werden. Zur Bestimmung des Orthesenmoments wird die Rotationssteifigkeit, die wichtigste mechanische Eigenschaft einer Unterschenkelorthese mithilfe einer Testvorrichtung gemessen. Denn diese beschreibt das Widerstandsmoment der Orthese, das sie bei der Deformation in Plantar- oder Dorsalflexion er-zeugt, um eine gewisse Biegung um die Sprunggelenksachse freizugeben. Die Literaturrecherche ergibt, dass die Rotationssteifigkeit einer Unterschenkelorthese auf einem Prüfstand mit einem physischen Ersatzbeinmodell zur Fixierung der Orthese gemessen wird. In der bestehenden Testvorrichtung am Kinderspital Basel werden die Orthesen allerdings ohne Ersatzbeinmodell untersucht. Das Ziel dieser Arbeit ist daher die Ermittlung der Eignung der bestehenden Vorrichtung ohne Ersatzbeinmodell zur Bestimmung der Rotationssteifigkeit. Dazu werden eine steife und drei Karbonfederorthesen auf der Testvorrichtung und am Bein eines gesunden Probanden in vergleichbaren Auslenkungen gemessen. Die Bewegung der Orthese wird mittels dreidimensionalem markerbasiertem Kameramesssystem aufgenommen und die kinetischen Daten über dreidimensionale Kraftmessplatten erfasst.
Für den Vergleich der beiden Testkonditionen werden drei Parameter definiert. Der Erste ist das Deformationsmaß der Orthese. Dieses beschreibt die Deformationslinie des Orthesenschafts in Sagittalebene. Der Vergleich zeigt, dass dieses bei allen getesteten Orthesentypen in starkem Maß zwischen beiden Testkonditionen variiert und damit nicht vergleichbar ist. Der zweite Parameter ist die Betrachtung eines vereinfachten Modells für das Verhalten des Rotationspunkts in der Sagittalebene, um den der Orthesenschaft bei der Verformung rotiert. Hierzu werden Geraden durch die Marker des Schafts und des Fußes gelegt und deren Schnittpunktverhalten bei der Deformation analysiert. Die Bewegung des Schnittpunkts variiert je nach Testkondition, jedoch wird das Maß der Bewegung im Vergleich zu anderen Einflussfaktoren als vernachlässigbar eingestuft. Hier gleichen sich somit die beiden Testkonditionen. Der dritte Parameter ist die Rotationssteifigkeit der Orthese. Hierzu werden mit den Kraftmessplatten die Kräfte gemessen und mit den Positionsdaten der Marker ein Hebelarm und der Deformationswinkel definiert. Die ermittelten Daten weichen zwischen den Testkonditionen in großem Maß voneinander ab. Eine direkte Aussage über die Eignung der Testvorrichtung kann nicht getroffen werden.
Die Ergebnisse zeigen, dass die Messung am Bein des Probanden keine realistischen und da-mit verwertbaren Messdaten zur Bestimmung der Rotationssteifigkeit liefert. Schlussfolgernd sind die Messdaten beider Testkonditionen mit den angewandten Mess- und Berechnungsmethoden nicht vergleichbar. Die Eignung der Testvorrichtung lässt sich somit nur bedingt beurteilen. Einerseits liefert der Aufbau der Vorrichtung und die Messdurchführung Messda-ten zur Bestimmung der Rotationssteifigkeit, andererseits kann noch keine Aussage darüber getroffen werden, ob die Messdaten zu einer qualitativen Ermittlung der Rotationssteifigkeit der Orthese führen können. In zukünftigen Studien muss die Messung am Bein des Proban-den optimiert werden, um Referenzwerte für die Messung auf der Testvorrichtung bereitstellen zu können.
Die Analyse von biomechanischen Parametern erlangt in der Sportwissenschaft und der Biomechanik eine immer größere Bedeutung. Daraus entwickelten sich mit der Zeit neue Analysemethoden, die sich zum Ziel gesetzt haben, eine bessere, schnellere und einfachere Analyse der biomechanischen Parameter zu ermöglichen.
Das Ziel der vorliegenden Arbeit ist es zu evaluieren, ob die Sensor-Technologie für die Analyse von biomechanischen Parametern im Bereich des Skisprungs und Skilanglaufs eingesetzt werden kann und dabei einen Vorteil gegenüber den derzeitig verwendeten Analysemethoden mit sich bringt. Dabei soll ein Lösungskonzept entwickelt werden, welches gezielt die Geschwindigkeiten und Zeiten, im Skisprung und Skilanglauf analysieren kann.
Für die Auswahl der Sensoren, wurden zu Beginn Randbedingungen festgelegt, die ein Sensor erfüllen muss, um für den Einsatz im Skisprung und Langlauf geeignet zu sein. Dabei stehen vor allem die Outdoorfähigkeit, Scanfrequenz und die Reichweite im Fokus der Evaluierung. Auf Basis der Randbedingungen wurden diese mit den Eigenschaften der Sensoren verglichen und eine Vorauswahl getroffen. Dabei kam man zu dem Ergebnis, dass fünf Sensoren für den Einsatz im Skisprung und Skilanglauf geeignet sind. Die Sensoren kommen jeweils aus dem Bereich der LiDAR- (light detection and ranging), RFID- (Radio-Frequency Identification), und Radar-Technologie. Im Anschluss wurde für jeden Sensor ein Lösungskonzept zur Bestimmung von Geschwindigkeiten und Zeiten, unabhängig von dem zu messenden Objekt, erstellt und abschließend auf ihre Verwendbarkeit im Skisprung und Skilanglauf bewertet. Dadurch stellte sich heraus, dass die Kombination aus einem LiDAR-Sensor (LMS5xx) und einem RFID-Sensor (RFU63x) am besten für den Skilanglauf geeignet ist. Für die Verwendung im Skisprung zeigte sich ebenfalls eine Kombination aus dem RFID-Sensor (RFU63x) und einem Radar-Sensor (RMS1000) als bestmögliches Lösungskonzept zur Analyse von Geschwindigkeiten und Zeiten.
Die Arbeit hat gezeigt, dass die Sensor-Technologie in Zukunft eine schnellere, unabhängigere und einfache Methode zur Analyse von biomechanischen Parametern ermöglicht. Dabei muss berücksichtigt werden, dass es sich um eine theoretische Untersuchung handelt, welche als Vorlage für weitere Untersuchungen dienen soll.
It is the purpose of this paper to address ethical issues concerning the development and application of Assistive Technology at Workplaces (ATW). We shall give a concrete technical concept how such technology might be constructed and propose eight technical functions it should adopt in order to serve its purpose. Then, we discuss the normative questions why one should use ATW, and by what means. We argue that ATW is good to the extent that it ensures social inclusion and consider four normative domains in which its worth might consists in. In addition, we insist that ATW must satisfy two requirements of good workplaces, which we specify as (a) an exploitation restraint and (b) a duty of care.
Bilder und Filme sind aus dem modernen Leben nicht mehr wegzudenken. Besonders die Präsenz im Internet – die Webseite der Firma, der persönliche Blog oder der Auftritt in sozialen Medien – kommt nicht mehr ohne die richtige Visualisierung aus. Wer entsprechende Fähigkeiten und Ausrüstung besitzt, erstellt sich seine benötigten Inhalte selbst. Wer diese Möglichkeit nicht hat, muss auf Werke anderer zurückgreifen. Einfach aus dem Internet herunterladen und benutzen darf man diese allerdings nicht, denn sie sind in den meisten Fällen urheberrechtlich geschützt. Große Firmen und Personen mit entsprechendem Budget buchen für diese Zwecke deshalb extra Fotografen oder kaufen ihre gewünschten Inhalte auf beliebten Stock-Plattformen wie Shutterstock oder Getty Images. Diese Abschlussarbeit richtet sich an diejenigen, die das nicht können: (Werk-)Studenten im Bereich Medien, Gestaltung oder Onlinemarketing sowie kleinere Firmen und Einzelpersonen, welche Bilder und Filme für private, schulische, redaktionelle oder kommerzielle Zwecke benötigen.
Ziel dieser Arbeit ist das Vorstellen der zahlreichen Möglichkeiten, im Internet Bilder und Filme für die kostenlose und rechtssichere Nutzung zu recherchieren. Dabei werden verschiedene Arten der kommerziellen und nichtkommerziellen Nutzung berücksichtigt, sodass möglichst viele Leser einen Nutzen aus dieser Abschlussarbeit ziehen können. Hierzu wird zunächst die Rechtslage in Deutschland geklärt und anschließend 7 Plattformen sowie 2 Suchmaschinen für Bilder und 7 Plattformen für Filme untersucht und miteinander verglichen. Für jede Plattform werden ihre typischen Features vorgestellt und ihre Bedeutung für die Recherche aufgezeigt. Dies soll als Hilfestellung für einen effizienten Recherche-Arbeitsablauf auf der jeweiligen Plattform dienen. Anschließend wird die jeweilige Bild- und Videoauswahl anhand beispielhafter Suchbegriffe dargestellt.
To date, many experiments have been performed to study how the internal geometrical shapes of the annular liquid seal can reduce internal leakage and increase pump efficiency. These can be time-consuming and expensive as all rotordynamic coefficients must be determined in each case.
Nowadays, accurate simulation methods to calculate rotordynamic coefficients of annular seals are still rare. Therefore, new numerical methods must be designed and validated for annular seals.
The present study aims to contribute to this labour by providing a summary of the available test rig and seals dimensions and experimental results obtained in the following experiments:
− Kaneko, S et al., Experimental Study on Static and Dynamic Characteristics of Liquid Annular Convergent-Tapered Seals with Honeycomb Roughness Pattern (2003) [1] − J. Alex Moreland, Influence of pre-swirl and eccentricity in smooth stator/grooved rotor liquid annular seals, static and rotordynamic characteristics (2016) [2]
A 3D CAD simulation with Siemens NX Software of the test rig used in J. Alex Moreland’s experiment has been made. The following annular liquid seals have also been 3D modelled, as well as their fluid volume:
− Smooth Annular Liquid Seal (SS/GR) (J. Alex Moreland experiment)
− Grooved Annular Liquid Seal (GS/SR)
− Round-Hole Pattern Annular Liquid Seal (𝐻𝑑=2 mm) (GS/SR)
− Straight Honeycomb Annular Liquid Seal (GS/SR)
− Convergent Honeycomb Annular Liquid Seal (No. 3) (GS/SR)
− Smooth Annular Liquid Seal (SS/SR) (S. Kaneko experiment)
In the case of the seals used in S. Kaneko’s experiments, the test rig has been adapted to each seal, defining interpart expressions which can be easily modified.
Afterwards, it has been done a CFD simulation of the Smooth Annular Liquid Seal using Ansys CFX Software. To do so, the fluid volume geometry has been simplified to do a first approximation. Results have been compared for an eccentricity 𝜀0=0.00 for the following ranges of rotor speeds and differential of pressure:
− Δ𝑃= 2.07, 4.14, 6.21, and 8.27 bar,
− 𝜔= 2, 4, 6 and 8 krpm.
Even results obtained have the same trend as the one proportionated by the literature, they cannot be validated as the error is above 5%. It is also observed that as the pressure drop increases, the relative error decreases considerably.
The design of control systems of concentrator photovoltaic power plants will be more challenging in the future. Reasons are cost pressure, the increasing size of power plants, and new applications for operation, monitoring and maintenance required by grid operators, manufacturers and plant operators. Concepts and products for fixed-mounted photovoltaic can only partly be adapted since control systems for concentrator photovoltaic are considerable more complex due to the required high accurate sun-tracking. In order to assure reliable operation during a lifetime of more than 20 years, robustness of the control system is one crucial design criteria. This work considers common engineering technics for robustness, safety and security. Potential failures of the control system are identified and their effects are analyzed. Different attack scenarios are investigated. Outcomes are design criteria that encounter both: failures of system components and malicious attacks on the control system of future concentrator photovoltaic power plants. Such design criteria are a transparent state management through all system layers, self-tests and update capabilities for security concerns. The findings enable future research to develop a more robust and secure control system for concentrator photovoltaics when implementing new functionalities in the next generation.
The communication system of a large-scale concentrator photovoltaic power plant is very challenging. Manufacturers are building power plants having thousands of sun tracking systems equipped with communication and distributed over a wide area. Research is necessary to build a scalable communication system enabling modern control strategies. This poster abstract describes the ongoing work on the development of a simulation model of such power plants in OMNeT++. The model uses the INET Framework to build a communication network based on Ethernet. First results and problems of timing and data transmission experiments are outlined. The model enables research on new communication and control approaches to improve functionality and efficiency of power plants based on concentrator photovoltaic technology.
Printmedien befinden sich in der Krise. Durch die Fülle an frei zugänglichen Inhalten im Internet, verlieren immer mehr Printmedien an Leser. Mediale Inhalte sind nicht mehr nur über die klassischen Vertriebskanäle abrufbar, sondern auch digital. Dennoch zeigen hohe Reichweiten, dass Zeitungen und Zeitschriften noch eine Relevanz am deutschen Markt besitzen.
In der vorliegenden Arbeit wird untersucht, wie sich der Markt in den letzten 15 Jahren verändert hat. Durch die Digitalisierung entstehen neue Märkte und Endgeräte, wodurch sich neue crossmediale Medienangebote bilden. Die Rolle der Printmedien hat sich verändert und das Internet wird bereits von vielen Unternehmen als zusätzlicher Medienkanal für die Distribution von Druckprodukten genutzt. Anhand des Magazins GEO wird die Veränderung des Printproduktes Zeitschrift verdeutlicht. Wie haben sich die Auflagen und Reichweiten entwickelt? Es wird ebenfalls beleuchtet, inwieweit sich die Zugänglichkeit und Darstellung des Produktes verändert hat.
Die Zielsetzung der Arbeit liegt in der Ermittlung von Erfolgsfaktoren für Rundfunkapplikationen, um der Branche eine Orientierungshilfe für die Umsetzung oder Überarbeitung ihrer Applikationen bereit zu stellen. Durch die Arbeit soll das Verständnis von Apps als innovative Produktplattform und mobiles Kommunikationsinstrument bei den Rundfunkanstalten zukünftig besser verankert werden. In diesem Zusammenhang wurde eine empirische Untersuchung zu den Erfolgsfaktoren für Applikationen in der Rundfunkbranche durchgeführt. Hierdurch sollten Kenntnisse über die Bedürfnisse der Nutzer gewonnen werden. Im Fokus standen dabei die Inhalte, die vom User gefordert werden, und die Bereitschaft der Bezahlung. Die Befragung wurde in verschiedenen Foren, die sich mit der Benutzung von Smartphones und Tablet-PCs beschäftigen, und über Facebook durchgeführt. Insgesamt wurden 109 Fragebögen komplett ausgefüllt. Die Zielgruppe, die mit mobilen Endgeräten überwiegend erreicht werden kann, ist zwischen 14 und 29 Jahren alt. Da diese Zielgruppe in der Untersuchung sehr stark vertreten ist, kann die Umfrage als repräsentativ angesehen werden. Ergänzend wird die momentane Marktsituation von Applikationen in der Rundfunkbranche durchleuchtet und analysiert. Während sich die Öffentlich Rechtlichen Sender über die Rundfunkgebühren finanzieren, ergibt sich für die privaten Sendeanstalten ein Dreieck aus Rundfunksender, Rezipienten und werbungtreibender Wirtschaft. Im Verlauf der Arbeit wird dabei vorwiegend auf die Faktoren eingegangen, die für eine gute Verbindung zwischen dem Sender und den Rezipienten sorgen. Nur so kann eine konstant hohe Reichweite erzielt werden, durch welche die mobilen Anwendungen für die Wirtschaft interessant werden.
In the present study, in vitro toxicity as well as biopersistence and photopersistence of four artificial sweeteners (acesulfame, cyclamate, saccharine, and sucralose) and five antibiotics (levofloxacin, lincomycin, linezolid, marbofloxacin, and sarafloxacin) and of their phototransformation products (PTPs) were investigated. Furthermore, antibiotic activity was evaluated after UV irradiation and after exposure to inocula of a sewage treatment plant. The study reveals that most of the tested compounds and their PTPs were neither readily nor inherently biodegradable in the Organisation for Economic Co-operation and Development (OECD)-biodegradability tests. The study further demonstrates that PTPs are formed upon irradiation with an Hg lamp (UV light) and, to a lesser extent, upon irradiation with a Xe lamp (mimics sunlight). Comparing the nonirradiated with the corresponding irradiated solutions, a higher chronic toxicity against bacteria was found for the irradiated solutions of linezolid. Neither cytotoxicity nor genotoxicity was found in human cervical (HeLa) and liver (Hep-G2) cells for any of the investigated compounds or their PTPs. Antimicrobial activity of the tested fluoroquinolones was reduced after UV treatment, but it was not reduced after a 28-day exposure to inocula of a sewage treatment plant. This comparative study shows that PTPs can be formed as a result of UV treatment. The study further demonstrated that UV irradiation can be effective in reducing the antimicrobial activity of antibiotics, and consequently may help to reduce antimicrobial resistance in wastewaters. Nevertheless, the study also highlights that some PTPs may exhibit a higher ecotoxicity than the respective parent compounds. Consequently, UV treatment does not transform all micropollutants into harmless compounds and may not be a large-scale effluent treatment option.
The formation and analysis of ten microporous triazolyl isophthalate based MOFs, including nine isomorphous and one isostructural compound is presented. The compounds 1 M – 3 M with the general formula [ M ( R 1 - R 2 - trz - ia ) ] ∞ 3 ·x H 2 O (M 2+ = Co 2+ , Cu 2+ , Zn 2+ , Cd 2+ ; R 1 = H, Me; R 2 = 2py, 2pym, prz (2py = 2-pyridinyle; 2pym = 2-pyrimidinyle; prz = pyrazinyle)) crystallize with rtl topology. They are available as single crystals and also easily accessible in a multi-gram scale via refluxing the metal salts and the protonated ligands in a solvent. Their isomorphous structures facilitate the synthesis of heteronuclear MOFs; in case of 2 M , Co 2+ ions could be gradually substituted by Cu 2+ ions. The Co 2+ :Cu 2+ ratios were determined by ICP-OES spectroscopy, the distribution of Co 2+ and Cu 2+ in the crystalline samples are investigated by SEM-EDX analysis leading to the conclusions that Cu 2+ is more favorably incorporated into the framework compared to Co 2+ and, moreover, that the distribution of the two metal ions between the crystals and within the crystals is inhomogeneous if the crystals were grown slowly. The various compositions of the heteronuclear materials lead to different colors and the sorption properties for CO 2 and N 2 are dependent on the integrated metal ions.
Ziel der Thesis war zuerst eine kurze Literatur-Recherche und eine Einarbeitung in die Automatisierungstechnik (insbesondere in Robotik, speicherprogrammierbare Steuerungen, Bildverarbeitung und Kommunikationsmöglichkeiten), dann die Konzeption und der Aufbau eine Schulungszelle, mit der die Studenten in die Praxis umsetzen können, was sie im Labor gelernt haben und am Ende die Herstellung von Schulungsunterlagen.
Dafür wurde eine mehrstufige Lösung ausgewählt und betrachtet. Diese Lösung besteht in erster Linie in der Erforschung über die verschiedenen verfügbaren Komponenten. das heißt, die Bedienung und die Programmierung eines Universalroboters(UR5e), einer Sensopart-Kamera, eines Wago-PLC mit der Festo Pick-Place didaktisch Station und natürlich die Steuerung ihrer verschiedenen Software zu beherrschen. Dann folgen die Konzeption und der Aufbau der Schulungszelle, die Programmierung einer didaktischen Applikation, die den Studenten als Beispiel dient, und schließlich die Erstellung einer Anleitung dieser Applikation.
E-Learning hat als ergänzendes Erlösmodell ein hohes Potenzial im Online-Journalismus, findet bisher allerdings wenig Beachtung. Insbesondere Garten- und Pflanzenthemen lassen sich aufgrund ihrer Praxisnähe gut über Onlinekurse vermitteln. Die Arbeit untersucht die Ansprüche der gartenjournalistischen Zielgruppe an einen entsprechenden Onlinekurs sowie an das dazugehörige Erlösmodell. Dazu gibt die Masterthesis theoretische Einblicke in die Themen Online-Journalismus, Erlösmodelle und E-Learning und betrachtet diese im Kontext der Erfolgsfaktoren von Onlinekursen. Neben der Themenrelevanz und dem Anbietervertrauen wurden die Motivierung und der Unterhaltungswert, Verständlichkeit und Praxisbezug sowie Betreuungsleistung und Kollaborationsmöglichkeiten als Erfolgsfaktoren ermittelt. Be- züglich des Erlösmodells stellen der Leistungsumfang sowie die Erlösform und Preisattraktivität ele- mentare Faktoren dar. Mit Hilfe qualitativer Sozialforschung am Beispiel der Zielgruppe von Mein schö- ner Garten wurden die Aspekte analysiert und deren Bedeutsamkeit bestätigt. Besonders die Wissens- vermittlung durch eine kompetente Lehrkraft, eine individuelle Betreuung, Live-Events und Community-Aspekte stellen einen Mehrwert gegenüber anderen gartenjournalistischen Angeboten dar. Jedoch unterscheiden sich die konkreten Ansprüche an die Gestaltung der Faktoren und die Gewichtung ihrer Relevanz ist abhängig vom Lerntyp. Das zeigt sich auch in einer variierenden Zahlungsbereitschaft, die wesentlich von den persönlichen Erwartungen und dem gebotenen Zusatznutzen abhängt. Individuelle Tarife und eine ergänzende Werbefinanzierung sind deshalb sinnvoll.
Several cloud schedulers have been proposed in the literature with different optimization goals such as reducing power consumption, reducing the overall operational costs or decreasing response times. A less common goal is to enhance the system security by applying specific scheduling decisions. The security risk of covert channels is known for quite some time, but is now back in the focus of research because of the multitenant nature of cloud computing and the co-residency of several per-tenant virtual machines on the same physical machine. Especially several cache covert channels have been identified that aim to bypass a cloud infrastructure's sandboxing mechanism. For instance, cache covert channels like the one proposed by Xu et. al. use the idealistic scenario with two alternately running colluding processes in different VMs accessing the cache to transfer bits by measuring cache access time. Therefore, in this paper we present a cascaded cloud scheduler coined C 3 -Sched aiming at mitigating the threat of a leakage of customers data via cache covert channels by preventing processes to access cache lines alternately. At the same time we aim at maintaining the cloud performance and minimizing the global scheduling overhead.
Covert channels have been known for a long time because of their versatile forms of appearance. For nearly every technical improvement or change in technology, such channels have been (re-)created or known methods have been adapted. For example, the introduction of hyperthreading technology has introduced new possibilities for covert communication between malicious processes because they can now share the arithmetic logical unit as well as the L1 and L2 caches, which enable establishing multiple covert channels. Even virtualization, which is known for its isolation of multiple machines, is prone to covert- and side-channel attacks because of the sharing of resources. Therefore, it is not surprising that cloud computing is not immune to this kind of attacks. Moreover, cloud computing with multiple, possibly competing users or customers using the same shared resources may elevate the risk of illegitimate communication. In such a setting, the “air gap” between physical servers and networks disappears, and only the means of isolation and virtual separation serve as a barrier between adversary and victim. In the work at hand, we will provide a survey on vulnerable spots that an adversary could exploit trying to exfiltrate private data from target virtual machines through covert channels in a cloud environment. We will evaluate the feasibility of example attacks and point out proposed mitigation solutions in case they exist.
Um ein neues System zur Korrektur des Tool Center Points des Roboterwerkzeugs zu finden, wurde diese Bachelorarbeit von der Firma Badische Staal Enginering angeboten. Das Ziel ist es, die Position und den Winkel des TCP1 des an den Roboter angebrachten Tools zu korrigieren, basierend auf dem Messergebnis des TCP. Für diese Arbeit wurde eine Roboterstation bereitgestellt, die auch mit einer Triangulationskamera ausgestattet war.
Nach einer Analyse und Entwicklung des Systems wurde ein Programm erstellt, das Bewegungen, Messungen und Berechnungen kombiniert. Sobald dieses Korrektursystem entwickelt ist, wird eine Testbasis an die Projektbedingungen angepasst, um seine Zuverlässigkeit und Wiederholbarkeit unter realen Bedingungen zu testen. Diese Arbeit wird in der Testumgebung der Halle der BSW2 Anlagenbau und Ausbildung GmbH durchgeführt.
How can manufacturers or service companies provide better services with connected products, without having acquired a powerful IT infrastructure nor the competences for software development?
Today companies can appeal to a relocated-IT-infrastructure provider, which is called Cloud.
Consequently, they do not have to manage and take care of the safety/security aspect, the updates and the breakdown of the infrastructure internally, as those are all managed by the provider.
It is possible to outsource the development of the software of the connected product to an external company. However, the question now is how fast this company can juggle from one Cloud to another in order to fulfil their clients wishes?
neverMind offers a solution based on a multi-protocols-platform linking the different connected products to a multitude of Clouds without having to redesign the whole communication stack/building block for each change in the Cloud-solution. This is the object of my thesis.
The development follows the V-Model, the first steps to understand the complexity of the project were the realisation of the product technical and architectural specifications. The last step before the Implementation was to design in details the progress and the process of every parts of the platform.
The outcome of the requirements analysis led me to divide the project in two parts:
• a “General Interface” acting as a gateway between the Client-application and “Cloud-modules”
• the “Cloud-modules” themselves.
So far, the specifications are drown up; the General Interface and a client example are coded, as well as a first Cloud-module template.
Um die Akzeptanz und Relevanz von Mailings zu steigern, ist es für Unternehmen wichtig, die Kundeninteressen möglichst gezielt anzusprechen. Bereits jetzt wird die E-Mail-Marketing Lösung Inxmail Professional zusammen mit Recommender Systemen eingesetzt, was das Erstellen und Versenden von E-Mails mit personalisierten Produktempfehlungen ermöglicht. Das notwendige Wissen für den Aufbau und den Betrieb dieser Recommender Systeme liegt dabei jedoch bei (externen) Technologie-Partnern, wodurch höhere Kosten und zusätzliche Abhängigkeiten für Inxmail und seine Kunden entstehen.
Mit dieser Arbeit wurde erforscht, was es für das Unternehmen Inxmail bedeutet, mit Open-Source-Software ein eigenständiges Recommender System aufzubauen und in die E-Mail-Marketing Lösung Inxmail Professional zu integrieren. Hierfür wird Inxmail Professional in einem typischen Kontext mit einem angebundenen Onlineshop System betrachtet. Das Recommender System soll anhand der Daten, die es aus dem Onlineshop System bekommt, individuelle Produktempfehlungen berechnen, um diese automatisiert beim Versand für jeden Empfänger abfragen und in die E-Mail integrieren zu können.
Auf Basis des Machine Learning Servers Harness und der integrierten Universal Recommender Engine wurde ein Recommender System aufgebaut.
Für die Integration des Onlineshop Systems Shopware wurde ein Plugin entwickelt, welches das Recommender System über alle relevanten Benutzeraktionen benachrichtigt. Die Inxmail Professional Integration basiert auf einem Webservice, der implementiert wurde, um die individuellen Produktempfehlungen für einen Kunden/Empfänger beim Recommender System abzufragen und mit den Detailinformationen zu den Produkten aus dem Onlineshop aufzubereiten.
Es konnte gezeigt werden, dass auf der Grundlage von Open-Source-Technologien ein eigenständiges Recommender System aufgebaut, evaluiert und in Inxmail Professional mit angebundenem Onlineshop System integriert werden kann. Der Gesamtprozess für die Evaluation des Systems wurde weitestgehend automatisiert, wodurch viele manuelle und zeitintensive Schritte über Steuerungsskripte abgehandelt werden können. Das System erlaubt die reibungslose Verarbeitung großer Datenmengen (> 19.000.000 Events) auf einem einzelnen Server. Die Vorhersagequalität wurde anhand realer Interaktionsdaten aus öffentlichen E-Commerce-Datensätzen mit Offline-Tests gemessen. Dadurch wurde sichergestellt, dass das System in der Lage ist, bei stetig wachsender Eventmenge zuverlässige aufempfehlungen zu berechnen. Die Tests haben gezeigt, dass bei mehreren Millionen Events von mehreren Tausend Benutzern für mehrere Tausend Produkte, 13 % bis 15 % aller tatsächlichen Käufe in den Top-10 der vom System vorgeschlagenen Empfehlungen enthalten waren.
Damit wurde die Grundlage für den selbstständigen Aufbau und Betrieb eines Recommender Systems gelegt, was eine sinnvolle und kostengünstige Alternative zu externen Systemen sein kann.
In the field of network security, the detection of intrusions is an important task to prevent and analyse attacks.
In recent years, an increasing number of works have been published on this subject, which perform this detection based on machine learning techniques.
Thereby not only the well-studied detection of intrusions, but also the real-time capability must be considered.
This thesis addresses the real-time functionality of machine learning based network intrusion detection.
For this purpose we introduce the network feature generator library PyNetFlowGen, which is designed to allow real-time processing of network data.
This library generates 83 statistical features based on reassembled data flows.
The introduced performant Cython implementation allows processing individual packets within 4.58 microseconds.
Based on the generated features, machine learning models were examined with regard to their runtime and real-time capabilities.
The selected Decision-Tree-Classifier model created in Python was further optimised by transpiling it into C-Code, what reduced the prediction time of a single sample to 3.96 microseconds on average.
Based on the feature generator and the machine learning model, an basic IDS system was implemented, which allows a data throughput between 63.7 Mbit/s and 2.5 Gbit/s.
The identification of vulnerabilities is an important element of the software development process to ensure the security of software. Vulnerability identification based on the source code is a well studied field. To find vulnerabilities on the basis of a binary executable without the corresponding source code is more challenging. Recent research has shown how such detection can be performed statically and thus runtime efficiently by using deep learning methods for certain types of vulnerabilities.
This thesis aims to examine to what extent this identification can be applied sufficiently for a variety of vulnerabilities. Therefore, a supervised deep learning approach using recurrent neural networks for the application of vulnerability detection based on binary executables is used. For this purpose, a dataset with 50,651 samples of 23 different vulnerabilities in the form of a standardised LLVM Intermediate Representation was prepared. The vectorised features of a Word2Vec model were then used to train different variations of three basic architectures of recurrent neural networks (GRU, LSTM, SRNN). For this purpose, a binary classification was trained for the presence of an arbitrary vulnerability, and a multi-class model was trained for the identification of the exact vulnerability, which achieved an out-of-sample accuracy of 88% and 77%, respectively. Differences in the detection of different vulnerabilities were also observed, with non-vulnerable samples being detected with a particularly high precision of over 98%. Thus, the methodology presented allows an accurate detection of vulnerabilities, as well as a strong limitation of the analysis scope for further analysis steps.
Aufgrund der verstärkten Bedeutung von Datenschutz in der modernen Gesellschaft und der verstärkten Nutzung von markerlosen Systemen wird es zunehmend interessant, ob ein solches System zuverlässige Werte auch bei noch unpopuläreren Bewegungen, wie der Kopfbewegung, liefert. Diese treten, bei der heute vorwiegend sitzenden Gesellschaft und im Zeitalter von Nackenverspannungen und der daraus resultierenden Bewegungseinschränkungen, mehr in den Fokus. Auch unter dem Gesichtspunkt des Datenschutzes ist es wichtig, nicht nur die Namen der Probanden, sondern auch deren
Gesichter in den Aufzeichnungen zu anonymisieren.
In der vorliegenden Arbeit wird daher evaluiert, ob das markerlose Bewegungsanaylsesystem Theia mit anonymisierten Dateien ähnliche Ergebnisse erzeugt, wie mit den originalen Dateien. Für diese Studie wurden sechs verschiedene Bewegungen bis zu ihrem Maximalausschlag des jeweiligen Probanden aufgezeichnet. Die Bewegungen hierbei sind Flexion und Extension des Kopfes, Lateralflexion sowie Rotation zu beiden Seiten. Zusätzlich wurde noch ein Durchgang Kopfkreisen aufgezeichnet. Dieser bestand aus dreimaligem Kopfkreisen, welches eine Kombination aus den vorherigen Bewegungen ist.
Die anonymisierten Daten wurden mittels eines Algorithmus bearbeitet, welcher das Gesicht der Probanden unkenntlich macht. Dies geschah durch das Schwärzen des Gesichtes oder einem Verschwimmen des Gesichts. Danach wurden die drei Datensätze in Theia verarbeitet und in EXCEL ausgewertet. Dabei kam es vor allem bei der geschwärzten Version bei Flexion und Extension zu großen systematischen und zufälligen Fehlern. Der Mittelwert des systematischen Fehlers ist die Abweichung von 13,62 Grad zu den Originalwerten. Der zufällige Fehler ist im Mittel mit 170,57 Grad stärker abweichend. Im Vergleich dazu liegt der Mittelwert des systematischen Fehlers bei der geblurrten Versionen im Vergleich zu den Originalwerten bei 5,17 Grad. Die geblurrte Version weist zudem seltener signifikante Unterschiede und einen mittleren zufälligen Fehler von 23,43 Grad auf, weshalb diese Version unter geringem Vorbehalt verwendbar ist, die geschwärzte Version jedoch nicht.
Cloud computing is a combination of technologies, including grid computing and distributed computing, that use the Internet as a network for service delivery. Organizations can select the price and service models that best accommodate their demands and financial restrictions. Cloud service providers choose the pricing model for their cloud services, taking the size, usage, user, infrastructure, and service size into account. Thus, cloud computing’s economic and business advantages are driving firms to shift more applications to the cloud, boosting future development. It enlarges the possibilities of current IT systems.
Over the past several years, the ”cloud computing” industry has exploded in popularity, going from a promising business concept to one of the fastest expanding areas of the IT sector. Most enterprises are hosting or installing web services in a cloud architecture for management simplicity and improved availability. Virtual environments are applied to accomplish multi-tenancy in the cloud. A vulnerability in a cloud computing environment poses a direct threat to the users’ privacy and security. In our digital age, the user has many identities. At all levels, access rights and digital identities must be regulated and controlled.
Identity and access management(IAM) are the process of managing identities and regulating access privileges. It is considered as a front-line soldier of IT security. It is the goal of identity and access management systems to protect an organization’s assets by limiting access to just those who need it and in the appropriate cases. It is required for all businesses with thousands of users and is the best practice for ensuring user access control. It identifies, authenticates, and authorizes people to access an organization’s resources. This, in turn, enhances access management efficiency. Authentication, authorization, data protection, and accountability are just a few of the areas in which cloud-based web services have security issues. These features come under identity and access management.
The implementation of identity and access management(IAM) is essential for any business. It’s becoming more and more business-centric, so we need more than technical know-how to succeed. Organizations may save money on identity management and, more crucially, become much nimbler in their support of new business initiatives if they have developed sophisticated IAM capabilities. We used these features of identity and access management to validate the robustness of the cloud computing environment with a comparison of traditional identity and access management.
This chapter portrays the historical and mathematical background of dynamic and procedural content generation (PCG). We portray and compare various PCG methods and analyze which mathematical approach is suited for typical applications in game design. In the next step, a structural overview of games applying PCG as well as types of PCG is presented. As abundant PCG content can be overwhelming, we discuss context-aware adaptation as a way to adapt the challenge to individual players’ requirements. Finally, we take a brief look at the future of PCG.
Das Ziel dieser Bachelorthesis ist es die Funktionsweise und die Grundlagen des (digitalen) stereoskopischen Films in einer wissenschaftlichen Arbeit zu entwickeln. Die dadurch erlangten Kenntnisse sollen dann in einer Produktion von stereoskopischen Inhalten angewandt und somit verinnerlicht werden. Dabei soll der gesamten Workflow solch einer Produktion, von der Vorproduktion über die Dreharbeiten bis hin zur Postproduktion, dargestellt werden.
Entwicklung und Realisierung eines Konzepts zur Erweiterung des Messbereichs einer Druckmesszelle
(2022)
Die Messung, von Prozessdrücken in industriellen Anlagen, ist heutzutage nicht mehr wegzudenken. Hierbei können während des Betriebs gelegentlich ungewollte Überdrücke auftreten, welche über dem Messbereich der eingesetzten Sensorik liegen. Mit den bisher bekannten Drucksensoren können solche Überdrücke daher nicht detektiert werden. Ziel dieser Arbeit ist die Entwicklung eines Konzepts, welches eine Messbereichserweiterung hervorbringt. Mit diesem sollen Drücke bis zu einer messbereichsspezifischen Grenze detektiert werden können.
Im ersten Schritt werden die Kapazitäten der Messzellen der aktuell bestehenden Sensorelektronik aufgenommen und ausgewertet. Aufgrund der Verläufe der gemessenen Kapazitäten, wird der Fokus auf die Auswertung der Referenzkapazität gelegt. Anschließend folgt das Approximieren des Verlaufs der Referenzkapazität durch geeignete mathematische Funktionen und das Entwickeln eines messbereichsübergreifenden Algorithmus. Hierfür wird die Methode der kleinsten Fehlerquadrate angewandt. Nachdem sich ein vielversprechendes Fitting, mittels zwei Polynomen herauskristallisiert hat, erfolgt die softwareseitige Implementierung des Algorithmus für einen Mikrocontroller auf der Sensorelektronik. Im letzten Teil der Arbeit werden Testmessungen durchgeführt, um die approximierten Polynome zu validieren.
Am Ende der Arbeit entsteht eine funktionierende Messbereichserweiterung zur Detektion von Drücken im Überlastbereich. Hierbei wird eine verhältnismäßig hohe Genauigkeit mit wenigen zusätzlichen Messpunkten erzielt.
Die klassischen Medien Fernsehen, Radio und Print beschränken sich in den letzten Jahren nicht mehr ausschließlich auf deren traditionelle Ausgabekanäle. Durch das Internet befinden sich diese Medien in einer Phase der Veränderung. Es ist kaum mehr möglich sich dem Internet und den damit verbundenen sozialen Netzwerken und Portalen zu verweigern. Radiosender nutzen das Internet meist für crossmediale Kampagnen in Zusammenhang mit den sozialen Netzwerken. Die Produktion von Videobeiträgen ist bei Privatradio-sendern und insbesondere bei lokalen Sendern, aus finanzieller Sicht größtenteils nicht umsetzbar und auch nur sehr gering im Internet zu finden. Daher zeigt diese Arbeit auf, wie sich Videojournalismus beim Lokalradio nachhaltig etablieren lässt.
Energiemanagement im Betrieb
(2021)
Kühlen mit Wärme
(2009)