Refine
Year of publication
- 2019 (343) (remove)
Document Type
- Conference Proceeding (86)
- Article (reviewed) (49)
- Bachelor Thesis (42)
- Article (unreviewed) (41)
- Part of a Book (39)
- Book (22)
- Master's Thesis (17)
- Report (12)
- Working Paper (11)
- Contribution to a Periodical (9)
Conference Type
- Konferenzartikel (71)
- Konferenz-Abstract (9)
- Konferenzband (3)
- Sonstiges (3)
Language
- German (213)
- English (128)
- Multiple languages (1)
- Russian (1)
Keywords
- Heart rhythm model (5)
- Machine Learning (5)
- Modeling and simulation (5)
- Human Computer Interaction (4)
- Roboter (4)
- Robotik (4)
- Virtual Reality (4)
- Augmented Reality (3)
- Education in Optics and Photonics (3)
- Energiemanagement (3)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (139)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (90)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (49)
- Fakultät Wirtschaft (W) (44)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (16)
- INES - Institut für nachhaltige Energiesysteme (14)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (12)
- CRT - Campus Research & Transfer (8)
- ACI - Affective and Cognitive Institute (6)
- IMLA - Institute for Machine Learning and Analytics (6)
Open Access
- Closed Access (208)
- Open Access (113)
- Bronze (11)
- Closed (1)
- Diamond (1)
- Gold (1)
Printed electronics (PE) circuits have several advantages over silicon counterparts for the applications where mechanical flexibility, extremely low-cost, large area, and custom fabrication are required. The custom (personalized) fabrication is a key feature of this technology, enabling customization per application, even in small quantities due to low-cost printing compared with lithography. However, the personalized and on-demand fabrication, the non-standard circuit design, and the limited number of printing layers with larger geometries compared with traditional silicon chip manufacturing open doors for new and unique reverse engineering (RE) schemes for this technology. In this paper, we present a robust RE methodology based on supervised machine learning, starting from image acquisition all the way to netlist extraction. The results show that the proposed RE methodology can reverse engineer the PE circuits with very limited manual effort and is robust against non-standard circuit design, customized layouts, and high variations resulting from the inherent properties of PE manufacturing processes.
Printed electrolyte-gated oxide electronics is an emerging electronic technology in the low voltage regime (≤1 V). Whereas in the past mainly dielectrics have been used for gating the transistors, many recent approaches employ the advantages of solution processable, solid polymer electrolytes, or ion gels that provide high gate capacitances produced by a Helmholtz double layer, allowing for low-voltage operation. Herein, with special focus on work performed at KIT recent advances in building electronic circuits based on indium oxide, n-type electrolyte-gated field-effect transistors (EGFETs) are reviewed. When integrated into ring oscillator circuits a digital performance ranging from 250 Hz at 1 V up to 1 kHz is achieved. Sequential circuits such as memory cells are also demonstrated. More complex circuits are feasible but remain challenging also because of the high variability of the printed devices. However, the device inherent variability can be even exploited in security circuits such as physically unclonable functions (PUFs), which output a reliable and unique, device specific, digital response signal. As an overall advantage of the technology all the presented circuits can operate at very low supply voltages (0.6 V), which is crucial for low-power printed electronics applications.
Electrolyte-gated, printed field-effect transistors exhibit high charge carrier densities in the channel and thus high on-currents at low operating voltages, allowing for the low-power operation of such devices. This behavior is due to the high area-specific capacitance of the device, in which the electrolyte takes the role of the dielectric layer of classical architectures. In this paper, we investigate intrinsic double-layer capacitances of ink-jet printed electrolyte-gated inorganic field-effect transistors in both in-plane and top-gate architectures by means of voltage-dependent impedance spectroscopy. By comparison with deembedding structures, we separate the intrinsic properties of the double-layer capacitance at the transistor channel from parasitic effects and deduce accurate estimates for the double-layer capacitance based on an equivalent circuit fitting. Based on these results, we have performed simulations of the electrolyte cutoff frequency as a function of electrolyte and gate resistances, showing that the top-gate architecture has the potential to reach the kilohertz regime with proper optimization of materials and printing process. Our findings additionally enable accurate modeling of the frequency-dependent capacitance of electrolyte/ion gel-gated devices as required in the small-signal analysis in the circuit simulation.
Printed electronics (PE) is a fast growing technology with promising applications in wearables, smart sensors and smart cards since it provides mechanical flexibility, low-cost, on-demand and customizable fabrication. To secure the operation of these applications, True Random Number Generators (TRNGs) are required to generate unpredictable bits for cryptographic functions and padding. However, since the additive fabrication process of PE circuits results in high intrinsic variation due to the random dispersion of the printed inks on the substrate, constructing a printed TRNG is challenging. In this paper, we exploit the additive customizable fabrication feature of inkjet printing to design a TRNG based on electrolyte-gated field effect transistors (EGFETs). The proposed memory-based TRNG circuit can operate at low voltages (≤ 1 V ), it is hence suitable for low-power applications. We also propose a flow which tunes the printed resistors of the TRNG circuit to mitigate the overall process variation of the TRNG so that the generated bits are mostly based on the random noise in the circuit, providing a true random behaviour. The results show that the overall process variation of the TRNGs is mitigated by 110 times, and the simulated TRNGs pass the National Institute of Standards and Technology Statistical Test Suite.
Printed Electronics is perceived to have a major impact in the fields of smart sensors, Internet of Things and wearables. Especially low power printed technologies such as electrolyte gated field effect transistors (EGFETs) using solution-processed inorganic materials and inkjet printing are very promising in such application domains. In this paper, we discuss a modeling approach to describe the variations of printed devices. Incorporating these models and design flows into our previously developed printed design system allows for robust circuit design. Additionally, we propose a reliability-aware routing solution for printed electronics technology based on the technology constraints in printing crossovers. The proposed methodology was validated on multiple benchmark circuits and can be easily integrated with the design automation tools-set.
In the domain of printed electronics (PE), field-effect transistors (FETs) with an oxide semiconductor channel are very promising. In particular, the use of high gate-capacitance of the composite solid polymer electrolytes (CSPEs) as a gate-insulator ensures extremely low voltage requirements. Besides high gate capacitance, such CSPEs are proven to be easily printable, stable in air over wide temperature ranges, and possess high ion conductivity. These CSPEs can be sensitive to moisture, especially for high surface-to-volume ratio printed thin films. In this paper, we provide a comprehensive experimental study on the effect of humidity on CSPE-gated single transistors. At the circuit level, the performance of ring oscillators (ROs) has been compared for various humidity conditions. The experimental results of the electrolyte-gated FETs (EGFETs) demonstrate rather comparable currents between 30%-90% humidity levels. However, the shifted transistor parameters lead to a significant performance change of the RO frequency behavior. The study in this paper shows the need of an impermeable encapsulation for the CSPE-gated FETs to ensure identical performance at all humidity conditions.
With this generation of devices, Virtual Reality (VR) has actually made it into the living rooms of end-users. These devices feature 6-DOF tracking, allowing them to move naturally in virtual worlds and experience them even more immersively. However, for a natural locomotion in the virtual, one needs a corresponding free space in the real environment. The available space is often limited, especially in everyday environments and under normal spatial conditions. Furnishings and objects of daily life can quickly become obstacles for VR users if they are not cleared away. Since the idea behind VR is to place users into a virtual world and to hide the real world as much as possible, invisible objects represent potential obstacles. The currently available systems offer only rudimentary assistance for this problem. If a user threatens to leave the space previously defined for use, a visual boundary is displayed to allow orientation within the space. These visual metaphors are intended to prevent users from leaving the safe area. However, there is no detection of potentially dangerous objects within this part of space. Objects that have not been cleared away or that have been added in the meantime may still become obstacles. This thesis shows how possible obstacles in the environment can be detected automatically with range imaging cameras and how users can be effectively warned about them in the virtual environment without significantly disturbing their sense of presence. Four different interactive visual metaphors are used to signalize the obstacles within the VE. With the help of a user study, the four signaling variants and the obstacle detection were evaluated and tested.
Smart Home or Smart Building applications are a growing market. An increasing challenge is to design energy efficient Smart Home applications to achieve sustainable and green homes. Using the example of the development of an Indoor Smart Gardening system with wireless monitoring and automated watering this paper is discussing in particular the design issue of energy autonomous working sensors and actuators for home automation. Most important part of the presented Smart Gardening system is a 3D printed smart flower pot for single plants. The smart flower pot has integrated a water reservoir for automated plant irrigation and an electronic for monitoring important plant parameters and the water level of the water reservoir. Energy harvesting with solar cells enables energy autonomous working of the flower pot. A low-power wireless interface also integrated in the flowerpot and an external gateway based on a Raspberry Pi 3 enables wireless networking of multiple of those flower pots. The gateway is used for evaluating the plant parameters and as a user interface. Particularly the architecture of the energy autonomous wireless flower pot will be considered, because fully energy autonomous sensors and actuators for home automation could not be implemented without special concepts for the energy supply and the overall electronic.
Radio frequency identification (RFID) antennas are popular for high frequency (HF) RFID, energy transfer and near field communication (NFC) applications. Particularly for wireless measurement systems the RFID/NFC technology is a good option to implement a wireless communication interface. In this context, the design of corresponding reader and transmitter antennas plays a major role for achieving suitable transmission quality. This work proves the feasibility of the rapid prototyping of a RFID/NFC antenna, which is used for the wireless communication and energy harvesting at the required frequency of 13.56 MHz. A novel and low-cost direct ink writing (DIW) technology utilizing highly viscous silver nanoparticle ink is used for this process. This paper describes the development and analysis of low-cost printed flexible RFID/NFC antennas on cost-effective substrates for a microelectronic vital parameter measurement system. Furthermore, we compare the measured technical parameters with existing copper-based counterparts on a FR4 substrate.
Smart Home-/Smart-Building-Anwendungen sind ein stetig wachsender Markt. Smart Gardening ist ein Beispiel dafür, Nutzern mehr Komfort und eine bessere Lebensqualität zu Hause oder in Bürogebäuden zu ermöglichen. Im Rahmen dieses Beitrags wird die Entwicklung eines Indoor-Smart-Gardening-Systems mit dem Fokus auf energieautarkes Arbeiten vorgestellt. Herzstück des Systems ist ein 3D-gedruckter Blumentopf für einzelne Pflanzen mit integrierter Elektronik zum Monitoring der wichtigsten Pflanzenparameter und einem integrierten Wasserreservoir mit Tauchpumpe für das automatisierte Bewässern der Pflanze. Energy Harvesting per Solarzellen ermöglicht ein energieautarkes Arbeiten des Blumentopfes. Eine selbstentwickelte Low-Power-Funkschnittstelle im Blumentopf und ein externes Gateway ermöglichen die drahtlose Vernetzung mehrerer Pflanzen. Das Gateway dient zur Auswertung der Pflanzenparameter, der Ansteuerung der im Netzwerk vorhandenen Blumentöpfe und als Benutzerinterface.
Kleinstlebewesen vorgestellt, das Vitalparameter erfasst und diese in einem FRAM-Speicher bis zum Auslesen abspeichert. Durch eine drahtlose RFID-/NFC-Ausleseschnittstelle kann die erfasste Körpertemperatur und der Puls der letzten Wochen ausgelesen werden. Alle Einstellungen des Messsystems können durch einen geeigneten RFID-Reader für Laptops oder durch Smartphones über die NFC-Schnittstelle geändert werden. Das vollständige Aufladen des nur 3 g leichten und 15 mm x 25 mm großen Messsystems erfolgt durch eine selbstgedruckte RFID-Reader-Antenne in Verbindung mit einem RFID-Reader und benötigt hierzu weniger als 21 Stunden. Bei vollständig aufgeladenem Energiespeicher ist ein Betrieb von 47 Tagen möglich. Dies wird durch ein speziell für das Messsystem konzipiertes Lade- und Powermanagement erreicht. Neben der Auswahl von energiesparenden Komponenten für die Hardware und deren bestmöglichen Nutzung, wurde die Software so optimiert, dass das Programm schnell und stromsparend abgearbeitet wird. Die Erweiterbarkeit und Anpassung wird durch das modulare Konzept auch in anderen Bereichen gewährleistet.
As engineering graduates and specialists frequently lack the advanced skills and knowledge required to run eco-innovation systematically, the paper proposes a new teaching method and appropriate learning materials in the field of eco-innovation and evaluates the learning experience and outcomes. This programme is aimed at strengthening student’s skills and motivation to identify and creatively overcome secondary eco-contradictions in case if additional environmental problems appears as negative side effects of eco-friendly solutions.
Based on a literature analysis and own investigations, authors propose to introduce a manageable number of eco-innovation tools into a standard one-semester design course in process engineering with particular focus on the identification of eco-problems in existing technologies, selection of the appropriate new process intensification technologies (knowledge-based engineering), and systematic ideation and problem solving (knowledge-based innovation and invention).
The proposed educational approach equips students with the advanced knowledge, skills and competences in the field of eco-innovation. Analysis of the student’s work allows one to recommend simple-to-use tools for a fast application in process engineering, such as process mapping, database of eco-friendly process intensification technologies, and up to 20 strongest inventive operators for solving of environmental problems. For the majority of students in the survey, even the small workload has strengthened their self-confidence and skills in eco-innovation
Process engineering industries are now facing growing economic pressure and societies' demands to improve their production technologies and equipment, making them more efficient and environmentally friendly. However unexpected additional technical and ecological drawbacks may appear as negative side effects of the new environmentally-friendly technologies. Thus, in their efforts to intensify upstream and downstream processes, industrial companies require a systematic aid to avoid compromising of ecological impact. The paper conceptualises a comprehensive approach for eco-innovation and eco- design in process engineering. The approach combines the advantages of Process Intensification as Knowledge-Based Engineering (KBE), inventive tools of Knowledge-Based Innovation (KBI), and main principles and best-practices of Eco-Design and Sustainable Manufacturing. It includes a correlation matrix for identification of eco-engineering contradictions and a process mapping technique for problem definition, database of Process Intensification methods and equipment, as well as a set of strongest inventive operators for eco-ideation.
The 40 Altshuller Inventive Principles with numerous sub-principles remain over decades the most frequently applied tool of the Theory of Inventive Problem Solving TRIZ for systematic idea generation. However, their application often requires a concentrated, creative and abstract way of thinking that can be fairly challenging for the newcomers to TRIZ. This paper describes an approach to reduce the abstraction level of inventive sub-principles and presents the results of the idea generation experiment conducted with three groups of undergraduate and graduate students from different years of study in mechanical and process engineering. The students were asked to generate and to record their individual ideas for three design problems using a pre-defined set of classical and modified sub-principles within 10 minutes. The overall outcomes of the experiment support the assumption that the less abstract wording of the modified sub-principles leads to higher number of ideas. The distribution of ideas between the fields of MATCHEM-IBD (Mechanical, Acoustic, Thermal, Chemical, Electrical, Magnetic, Intermolecular, Biological and Data processing) differs significantly between groups using modified and abstract sub-principles.
Classification of TRIZ Inventive Principles and Sub-Principles for Process Engineering Problems
(2019)
The paper proposes a classification approach of 40 Inventive Principles with an extended set of 160 sub-principles for process engineering, based on a thorough analysis of 155 process intensification technologies, 200 patent documents, 6 industrial case studies applying TRIZ, and other sources. The authors define problem-specific sub-principles groups as a more precise and productive ideation technique, adaptable for a large diversity of problem situations, and finally, examine the anticipated variety of ideation using 160 sub-principles with the help of MATCEM-IBD fields.
Growing demands for cleaner production and higher eco-efficiency in process engineering require a comprehensive analysis of technical and environmental outcomes of customers and society. Moreover, unexpected additional technical or ecological drawbacks may appear as negative side effects of new environ-mentally friendly technologies. The paper conceptualizes a comprehensive ap-proach for analysis and ranking of engineering and ecological requirements in process engineering in order to anticipate secondary problems in eco-design and to avoid compromising the environmental or technological goals. For this purpose, the paper presents a method based on integration of the Quality Func-tion Deployment approach with the Importance-Satisfaction Analysis for the requirements ranking. The proposed method identifies and classifies compre-hensively the potential engineering and eco-engineering contradictions through analysis of correlations within requirements groups such as stakehold-er requirements (SRs) and technical requirements (TRs), and additionally through cross-relationship between SRs and TRs.
In this article we outline the model development planned within the joint projectModel-based city planningand application in climate change (MOSAIK). The MOSAIK project is funded by the German FederalMinistry of Education and Research (BMBF) within the frameworkUrban Climate Under Change ([UC]2)since 2016. The aim of MOSAIK is to develop a highly-efficient, modern, and high-resolution urban climatemodel that allows to be applied for building-resolving simulations of large cities such as Berlin (Germany).The new urban climate model will be based on the well-established large-eddy simulation code PALM, whichalready has numerous features related to this goal, such as an option for prescribing Cartesian obstacles. Inthis article we will outline those components that will be added or modified in the framework of MOSAIK.Moreover, we will discuss the everlasting issue of acquisition of suitable geographical information as inputdata and the underlying requirements from the model's perspective.
The high peak power in comparison to the average transmit power is one of the major long-standing problems in multicarrier modulation and is known as the PAPR (peak to average power ratio) problem. Many PAPR reduction methods have been devised and their comparison is usually based on the complementary cumulative distribution function (CCDF) of the PAPR. While this comparison is straightforward and easy to compute, its relationship with system performance metrics like the (uncoded) BER or the word error rate (WER) for coded systems is considerably more involved. We evaluate the impact of the PAPR on performance metrics like uncoded BER, EVM (error vector magnitude), mutual information and the WER for soft decoding. In this context, we find that system performance is not necessarily degraded by an increasing PAPR. We show that a high number of subcarriers, despite the corresponding high PAPR, is actually not a problem for the system performance and provide a simple explanation for this seemingly counter-intuitive fact.
Medical devices accompany our everyday life and come across in situations of worse condition, in significant moments concerning the health or during routine checkups. To ensure flawless operations and error-free results it is essential to test applications and devices. High risks for patient’s health come with operating errors [33] so that the presented research project, called Professional UX, identifies signals and irritations caused by the interaction with a certain device by analyzing mimic, voice and eye tracking data during user experience tests. Besides, this paper will provide information on typical errors of interactive applications which are based on an empirical lab-based survey and the evaluated results achieved. The pictured proceeding of user experience tests and the following analysis can also be applied to other fields and serves as a support for the optimization of products and systems.
In the area of cloud computing, judging the fulfillment of service-level agreements on a technical level is gaining more and more importance. To support this we introduce privacy preserving set relations as inclusiveness and disjointness based ao Bloom filters. We propose to compose them in a slightly different way by applying a keyed hash function. Besides discussing the correctness of set relations, we analyze how this impacts the privacy of the sets content as well as providing privacy on the sets cardinality. Indeed, our solution proposes to bring another layer of privacy on the sizes. We are in particular interested how the overlapping bits of a Bloom filter impact the privacy level of our approach. We concretely apply our solution to a use case of cloud security audit on access control and present our results with real-world parameters.
In diesem Beitrag werden grundlegende Aspekte und Methoden der Data Science erläutert. Nach dem Vorgehensmodell CRISP-DM sind in den Phasen Data Unterstanding und Data Preparation vor allem Verfahren der Datenselektion, Datenvorverarbeitung und der explorativen Datenanalyse anzuwenden. Beim Modeling, der Hauptaufgabe der Data Science, kann man überwachte und unüberwachte Methoden sowie Reinforcement Learning unterscheiden. Auf die Evaluation der Güte eines Modells anhand von Qualitätsmaßen wird anschließend eingegangen. Der Beitrag schließt mit einem Ausblick auf weitere Themen wie Cognitive Computing.
Dissertation D. Dongol
Es ist schon beeindruckend, welche Fähigkeiten die Menschen den Computern mittlerweile geben konnten. Dennoch muss man nicht der Maschinenstürmerei (Luddismus) zuneigen, um durch das zuweilen überbordende Maß an Optimismus irritiert zu sein, das den Fähigkeiten von Algorithmen und künstlicher Intelligenz zuweilen zugeschrieben wird. Nahezu alle Wirtschaftsbereiche sollen durch sie alsbald „revolutioniert“ werden, "disruptive Veränderungen" werden prognostiziert. Politiker fordern und Max-Planck-Forscher kündigen jetzt die Entwicklung von „fairen“ Algorithmen an. Einige kritische Anmerkungen erscheinen angezeigt, denn fair kann ein Algorithmus nicht sein.
Das Geschäftsgeheimnisgesetz - Praxisrelevante Aspekte der Umsetzung der EU Richtlinie 2016/943
(2019)
Geschäftsgeheimnisse sind wertvoll. Mit dem neuen Geschäftsgeheimnisgesetz vom 18.4.2019 (Gesetz zum Schutz von Geschäftsgeheimnissen – GeschGehG, BGBl. I 2019, 466) ist die Know-how-Richtlinie (Richtlinie (EU) 2016/943 des Europäischen Parlaments und des Rates vom 8.6.2016 über den Schutz vertraulichen Know-hows und vertraulicher Geschäftsinformationen vor rechtswidrigem Erwerb sowie rechtswidriger Nutzung und Offenlegung) umgesetzt. Der bisher dezentral und weitgehend unspezifiziert (§§ 823 ff., 826, 1004 BGB) bestehende Geheimnisschutz ist nunmehr einheitlich und übersichtlich zusammengefasst. Stefan Ernst gibt einen Überblick über die Neuerungen gegenüber der bisherigen Rechtslage und Anhaltspunkte für Handlungsbedarf bei betroffenen Unternehmen.
One of the challenges for autonomous driving in general is to detect objects in the car's camera images. In the Audi Autonomous Driving Cup (AADC), among those objects are other cars, adult and child pedestrians and emergency vehicle lighting. We show that with recent deep learning networks we are able to detect these objects reliably on the limited Hardware of the model cars. Also, the same deep network is used to detect road features like mid lines, stop lines and even complete crossings. Best results are achieved using Faster R-CNN with Inception v2 showing an overall accuracy of 0.84 at 7 Hz.
Most machine learning methods require careful selection of hyper-parameters in order to train a high performing model with good generalization abilities. Hence, several automatic selection algorithms have been introduced to overcome tedious manual (try and error) tuning of these parameters. Due to its very high sample efficiency, Bayesian Optimization over a Gaussian Processes modeling of the parameter space has become the method of choice. Unfortunately, this approach suffers from a cubic compute complexity due to underlying Cholesky factorization, which makes it very hard to be scaled beyond a small number of sampling steps. In this paper, we present a novel, highly accurate approximation of the underlying Gaussian Process. Reducing its computational complexity from cubic to quadratic allows an efficient strong scaling of Bayesian Optimization while outperforming the previous approach regarding optimization accuracy. First experiments show speedups of a factor of 162 in single node and further speed up by a factor of 5 in a parallel environment.
Current training methods for deep neural networks boil down to very high dimensional and non-convex optimization problems which are usually solved by a wide range of stochastic gradient descent methods. While these approaches tend to work in practice, there are still many gaps in the theoretical understanding of key aspects like convergence and generalization guarantees, which are induced by the properties of the optimization surface (loss landscape). In order to gain deeper insights, a number of recent publications proposed methods to visualize and analyze the otimization surfaces. However, the computational cost of these methods are very high, making it hardly possible to use them on larger networks. In this paper, we present the GradVis Toolbox, an open source library for efficient and scalable visualization and analysis of deep neural network loss landscapes in Tesorflow and PyTorch. Introducing more efficient mathematical formulations and a novel parallelization scheme, GradVis allows to plot 2d and 3d projections of optimization surfaces and trajectories, as well as high resolution second order gradient information for large networks.
Recent deep learning based approaches have shown remarkable success on object segmentation tasks. However, there is still room for further improvement. Inspired by generative adversarial networks, we present a generic end-to-end adversarial approach, which can be combined with a wide range of existing semantic segmentation networks to improve their segmentation performance. The key element of our method is to replace the commonly used binary adversarial loss with a high resolution pixel-wise loss. In addition, we train our generator employing stochastic weight averaging fashion, which further enhances the predicted output label maps leading to state-of-the-art results. We show, that this combination of pixel-wise adversarial training and weight averaging leads to significant and consistent gains in segmentation performance, compared to the baseline models.
Deep generative models have recently achieved impressive results for many real-world applications, successfully generating high-resolution and diverse samples from complex datasets. Due to this improvement, fake digital contents have proliferated growing concern and spreading distrust in image content, leading to an urgent need for automated ways to detect these AI-generated fake images.
Despite the fact that many face editing algorithms seem to produce realistic human faces, upon closer examination, they do exhibit artifacts in certain domains which are often hidden to the naked eye. In this work, we present a simple way to detect such fake face images - so-called DeepFakes. Our method is based on a classical frequency domain analysis followed by basic classifier. Compared to previous systems, which need to be fed with large amounts of labeled data, our approach showed very good results using only a few annotated training samples and even achieved good accuracies in fully unsupervised scenarios. For the evaluation on high resolution face images, we combined several public datasets of real and fake faces into a new benchmark: Faces-HQ. Given such high-resolution images, our approach reaches a perfect classification accuracy of 100% when it is trained on as little as 20 annotated samples. In a second experiment, in the evaluation of the medium-resolution images of the CelebA dataset, our method achieves 100% accuracy supervised and 96% in an unsupervised setting. Finally, evaluating a low-resolution video sequences of the FaceForensics++ dataset, our method achieves 91% accuracy detecting manipulated videos.
Recent studies have shown remarkable success in image-to-image translation for attribute transfer applications. However, most of existing approaches are based on deep learning and require an abundant amount of labeled data to produce good results, therefore limiting their applicability. In the same vein, recent advances in meta-learning have led to successful implementations with limited available data, allowing so-called few-shot learning.
In this paper, we address this limitation of supervised methods, by proposing a novel approach based on GANs. These are trained in a meta-training manner, which allows them to perform image-to-image translations using just a few labeled samples from a new target class. This work empirically demonstrates the potential of training a GAN for few shot image-to-image translation on hair color attribute synthesis tasks, opening the door to further research on generative transfer learning.
Machine Learning als Schlüsseltechnologie für Digitalisierung: Wie funktioniert maschinelles Lernen?
(2019)
Apache Hadoop is a well-known open-source framework for storing and processing huge amounts of data. This paper shows the usage of the framework within a project of the university in cooperation with a semiconductor company. The goal of this project was to supplement the existing data landscape by the facilities of storing and analyzing the data on a new Apache Hadoop based platform.
Einleitung
(2019)
Industrie 4.0 bedeutet nicht nur einen Wandel der technischen Möglichkeiten und Arbeitsbedingungen, sondern auch einen Bedarf an neuen, sich kontinuierlich weiterentwickelnden Kompetenzen und die Bereitschaft der Beschäftigten, Veränderungen mitzugestalten. Spielerische Ansätze der Kompetenzentwicklung können v.a. bei weiterbildungsfernen Mitarbeitern hilfreich sein, um das komplexe Thema verständlich zu vermitteln. Der Beitrag beschreibt ein Seminarkonzept mit integriertem Brettspiel, mit dem Teilnehmer anhand eines fiktiven Unternehmens (Müller GmbH) die Transformation eines Unternehmens in die Industrie 4.0 spielerisch nachvollziehen. Dieses Konzept erweist sich in einer ersten Evaluation als durchaus vielversprechend.
Leitsätze des Verfassers:
1. Art. 85 DSGVO erlaubt wie die Vorgängerregelung in Art. 9 RL 95/46/EG nationale Gesetze mit Abweichungen von der DSGVO zu Gunsten der Verarbeitung zu journalistischen Zwecken. Er enthält damit eine Öffnungsklausel, die nicht nur neue Gesetze erlaubt, sondern auch bestehende Regelungen – soweit sie sich einfügen – erfassen kann.
2. Die umfangreichen Abwägungsmöglichkeiten im Rahmen des KUG erlauben eine Berücksichtigung auch der unionsrechtlichen Grundrechtspositionen.
Anmerkung zu OLG Köln, Beschluss vom 18.06.2018 – 15 W 27/18 (rechtskräftig; LG Köln). DSGVO Art. 85; RL 95/46/EG Art. 9; BGB §§ 823, 1004; KUG §§ 22, 23
Urteilsausspruch (Verfahrenssprache: Deutsch):
Art. 16 lit. e RL 2011/83/EU ist dahin auszulegen, dass eine Ware wie eine Matratze, deren Schutzfolie vom Verbraucher nach der Lieferung entfernt wurde, nicht unter den Begriff „versiegelte Waren …, die aus Gründen des Gesundheitsschutzes oder aus Hygienegründen nicht zur Rückgabe geeignet sind und deren Versiegelung nach der Lieferung entfernt wurde“ im Sinne dieser Vorschrift fällt.
EuGH, Urteil vom 27.03.2019 – Rs C-681/17 (BGH), ZIP 2019, 715 (LS) = BB 2019, 769
Leitsatz des Gerichts:
Die Übermittlung eines „presserechtlichen Informationsschreibens“ greift in der Regel nicht rechtswidrig in das Recht am eingerichteten und ausgeübten Gewerbebetrieb eines Presseunternehmens ein. Eine andere Beurteilung ist allerdings dann geboten, wenn das übersandte Informationsschreiben von vornherein ungeeignet ist, präventiven Rechtsschutz zu bewirken. Hiervon ist auszugehen, wenn es keine Informationen enthält, die dem Presseunternehmen die Beurteilung erlauben, ob Persönlichkeitsrechte durch eine etwaige Berichterstattung verletzt werden.
BGB § 823 Abs. 1, § 1004; ZPO § 253. BGH, Urteil vom 15.01.2019 – VI ZR 506/17 (OLG Frankfurt/M.), MDR 2019, 290 = NJW 2019, 781 = WM 2019, 473
Urteilsausspruch (Verfahrenssprache: Deutsch):
1. Art. 6 Abs. 1 lit. c RL 2011/83/EU ist zum einen dahin auszulegen, dass er einer nationalen Regelung … entgegensteht, nach der ein Unternehmer verpflichtet ist, vor Abschluss eines Vertrags mit einem Verbraucher im Fernabsatz oder außerhalb von Geschäftsräumen i. S. v. Art. 2 Nr. 7 und 8 dieser RL stets seine Telefonnummer anzugeben. Zum anderen impliziert diese Bestimmung keine Verpflichtung des Unternehmers, einen Telefon- oder Telefaxanschluss bzw. ein E-Mail-Konto neu einzurichten, damit die Verbraucher mit ihm in Kontakt treten können. Sie verpflichtet den Unternehmer nur dann zur Übermittlung der Telefon- oder Telefaxnummer bzw. seiner E-Mail-Adresse, wenn er über diese Kommunikationsmittel mit den Verbrauchern bereits verfügt.
2. Art. 6 Abs. 1 lit. c RL 2011/83/EU ist dahin auszulegen, dass diese Bestimmung zwar den Unternehmer verpflichtet, dem Verbraucher ein Kommunikationsmittel zur Verfügung zu stellen, das geeignet ist, die Kriterien einer direkten und effizienten Kommunikation zu erfüllen, doch steht diese Bestimmung dem nicht entgegen, dass der Unternehmer andere Kommunikationsmittel als die in ihr genannten zur Verfügung stellt, um diese Kriterien zu erfüllen.
EuGH, Urteil vom 10.07.2019 – Rs C-649/17 (BGH), ZIP 2019, 1431
Urteilsausspruch (Verfahrenssprache: Deutsch):
Art. 2 lit. c RL 2002/21/EG des EU-Parlaments und des Rates vom 7. 3. 2002 über einen gemeinsamen Rechtsrahmen für elektronische Kommunikationsnetze und -dienste (Rahmenrichtlinie) in der durch die RL 2009/140/EG des EU-Parlaments und des Rates vom 25. 11. 2009 geänderten Fassung ist dahin auszulegen, dass ein internetbasierter E-Mail-Dienst, der wie der von der Google LLC erbrachte Dienst GMail keinen Internetzugang vermittelt, nicht ganz oder überwiegend in der Übertragung von Signalen über elektronische Kommunikationsnetze besteht und daher keinen „elektronischen Kommunikationsdienst“ im Sinne dieser Bestimmung darstellt.
EuGH, Urteil vom 13.06.2019 – Rs C-193/18 (OVG Münster), NJW 2019, 2597
Störerhaftung des beworbenen Unternehmens bei unverlangter E-Mail-Werbung durch beauftragten Dritten
(2019)
Leitsätze des Verfassers:
1. Ein Unternehmen, das einen Dritten mit der Durchführung von Werbeaktionen beauftragt, haftet für die unverlangte Zusendung von Werbe-E-Mails im Rahmen einer solchen Werbeaktion.
2. Der Adressat unverlangter E-Mail-Werbung hat auch dann einen datenschutzrechtlichen Auskunftsanspruch gegen das beworbene Unternehmen, wenn die Werbung durch eine Drittfirma durchgeführt wurde.
LG Frankenthal (Pfalz), Urteil vom 10.07.2018 – 6 O 322/17 (nicht rechtskräftig, Az. des OLG Zweibrücken 4 U 114/18)
Online-Zahlungssystem der Deutschen Bahn unionsrechtswidrig ("Verein für Konsumenteninformation")
(2019)
Urteilsausspruch (Verfahrenssprache: Deutsch):
Art. 9 Abs. 2 VO (EU) Nr. 260/2012 ist dahin auszulegen, dass er einer Vertragsklausel … entgegensteht, die die Zahlung mittels einer Lastschrift, die auf Euro lautet und über das in der EU bestehende Lastschriftverfahren vorgenommen wird (SEPA-Lastschrift), ausschließt, wenn der Zahler seinen Wohnsitz nicht in dem Mitgliedstaat hat, in dem der Zahlungsempfänger seinen Sitz hat.
EuGH, Urteil vom 05.09.2019 – Rs C-28/18 (EuGH GA ZIP 2019, 1272; Oberster Gerichtshof (Österreich)), ZIP 2019, 1760
Data Science
(2019)
Data Science steht derzeit wie kein anderer Begriff für die Auswertung großer Datenmengen mit analytischen Konzepten des Machine Learning oder der künstlichen Intelligenz. Nach der bewussten Wahrnehmung der Big Data und dabei insbesondere der Verfügbarmachung in Unternehmen sind Technologien und Methoden zur Auswertung dort gefordert, wo klassische Business Intelligence an ihre Grenzen stößt.
Dieses Buch bietet eine umfassende Einführung in Data Science und deren praktische Relevanz für Unternehmen. Dabei wird auch die Integration von Data Science in ein bereits bestehendes Business-Intelligence-Ökosystem thematisiert. In verschiedenen Beiträgen werden sowohl Aufgabenfelder und Methoden als auch Rollen- und Organisationsmodelle erläutert, die im Zusammenspiel mit Konzepten und Architekturen auf Data Science wirken. Neben den Grundlagen werden unter anderem folgende Themen behandelt:
- Data Science und künstliche Intelligenz
- Konzeption und Entwicklung von Data-driven Products
- Deep Learning
- Self-Service im Data-Science-Umfeld
- Data Privacy und Fragen zur digitalen Ethik
- Customer Churn mit Keras/TensorFlow und H2O
- Wirtschaftlichkeitsbetrachtung bei der Auswahl und Entwicklung von Data Science
- Predictive Maintenance
- Scrum in Data-Science-Projekten
Zahlreiche Anwendungsfälle und Praxisbeispiele geben Einblicke in die aktuellen Erfahrungen bei Data-Science-Projekten und erlauben dem Leser einen direkten Transfer in die tägliche Arbeit.
Finding clusters in high dimensional data is a challenging research problem. Subspace clustering algorithms aim to find clusters in all possible subspaces of the dataset, where a subspace is a subset of dimensions of the data. But the exponential increase in the number of subspaces with the dimensionality of data renders most of the algorithms inefficient as well as ineffective. Moreover, these algorithms have ingrained data dependency in the clustering process, which means that parallelization becomes difficult and inefficient. SUBSCALE is a recent subspace clustering algorithm which is scalable with the dimensions and contains independent processing steps which can be exploited through parallelism. In this paper, we aim to leverage the computational power of widely available multi-core processors to improve the runtime performance of the SUBSCALE algorithm. The experimental evaluation shows linear speedup. Moreover, we develop an approach using graphics processing units (GPUs) for fine-grained data parallelism to accelerate the computation further. First tests of the GPU implementation show very promising results.
Die Wörz´sche Heuristik
(2019)
Die Erfindung betrifft eine Photovoltaik-Stromversorgungsvorrichtung, insbesondere vom öffentlichen Stromnetz unabhängige Photovoltaik-Stromversorgungsvorrichtung, mit einem positiven (204) und einem negativen (206) Lastanschluss für den Anschluss einer elektrischen Last, mit einer Mehrzahl von photovoltaischen Zellen (104) und einer wiederaufladbaren Batterie (5), welche wenigstens zwei in Serie geschaltete Batteriezellen (112) umfasst. Nach der Erfindung sind die photovoltaischen Zellen (104) zu einer der Anzahl der Batteriezellen (112) entsprechenden Anzahl von seriell verbundenen Teilstrings (108) verschaltet und jeder Teilstring (108) ist mit einem positiven Teilstringanschluss mit einem Pluspol und mit einem negativen Teilstringanschluss mit einem Minuspol einer zugeordneten Batteriezelle (112) oder mehreren zugeordneten parallel geschalteten Batteriezellen (112) verbunden. Dabei kann jeder Teilstring (108) zwischen dem positiven und negativen Teilstringanschluss eine maximale Leerlaufspannung erzeugen, die kleiner oder gleich einer vorgegebenen Ladeschlussspannung der zugeordneten Batteriezelle (112) oder der zugeordneten parallel geschalteten Batteriezellen (112) ist. Weiterhin betrifft die Erfindung eine Schaltungsanordnung zum Laden einer wiederaufladbaren Batterie, die zur Realisierung einer derartigen Photovoltaik-Stromversorgungsvorrichtung geeignet ist.
Heat generation that is coupled with electricity usage, like combined heat and power generators or heat pumps, can provide operational flexibility to the electricity sector. In order to make use of this in an optimized way, the flexibility that can be provided by such plants needs to be properly quantified. This paper proposes a method for quantifying the flexibility provided through a cluster of such heat generators. It takes into account minimum operational time and minimum down-time of heat generating units. Flexibility is defined here as the time period over which plant operation can be either delayed or forced into operation, thus providing upward or downward regulation to the power system on demand. Results for one case study show that a cluster of several smaller heat generation units does not provide much more delayed operation flexibility than one large unit with the same power, while it more than doubles the forced operation flexibility. Considering minimum operational time and minimum down-time of the units considerably limits the available forced and delayed operation flexibility, especially in the case of one large unit.
Commercial simulators can only reproduce electrocardiograms (ECG) of the normal and diseased heart rhythm in a simplified waveform and with a low number of channels. With the presented project, the variety of digitally archived ECGs, recorded during electrophysiological examinations, should be made usable as original analogue signals for research and teaching purposes by the development of a special printed circuit board for the mini-computer “Raspberry-Pi “.
Occluders made of the shape memory alloy Nitinol are commonly used to close Atrial Septal Defects (ASD). Until now, standard parameters are missing defining the mechanical properties of these implants. In this study,we developed a special measuring setup for the determination of the mechanical properties of customly available occluders (i.e. Occlutech Figulla®Flex II 29ASD12 and AGA AMPLATZER™9-ASD-012
Die Arbeit verfolgt das Ziel zu eruieren, welche Visual-Social-Mediakommunikationsstrategie, insbesondere unter Beobachtung der Visual-Social-Plattformen, aktuell am erfolgversprechendsten für die Hochzeitsmedienbranche ist.
Die neu gewonnenen Erkenntnisse der Ausarbeitung und die anschließenden Handlungsempfehlungen sollen als Leitfaden für eine sinnvolle und Erfolg versprechende Visual Social Marketingkommunikationsstrategie für Hochzeitsblogs/ -Blogazine genutzt werden können.
Der Leitfaden soll auf die Entwicklungen in der Zielgruppe eine passende Reaktion bieten und die Online-Marketingkommunikationsstrategie insbesondere der von Hochzeitsblogs und – Blogazine zukunftsfähig bereichern.
The development of secure software systems is of ever-increasing importance. While software companies often invest large amounts of resources into the upkeeping and general security properties of large-scale applications when in production, they appear to neglect utilizing threat modeling in the earlier stages of the software development lifecycle. When applied during the design phase of development, and continuously during development iterations, threat modeling can help in following a “Security by Design” approach. This approach allows issues relating to IT security to be found early during development, reducing the need for later improvement – and thus saving resources in the long term. In this thesis the current state of threat modeling is investigated. Based on this analysis, requirements for a new tool are derived. These requirements are then used to develop a new tool, called OVVL, which utilizes all main components of current threat modeling methodologies, as well as functionality not available in existing solutions. After documenting the development process and OVVL in general, this newly developed tool is used to conduct two case studies in the field of e-commerce and IoT.
Hochgenaue Systeme zur Positionsbestimmung spielen im heutigen Zeitalter für den privaten, kommerziellen aber auch militärischen Bereich eine immer wichtigere Rolle. Anwendungsgebiete wie Wandern, Geocaching, Mauterhebungssysteme, autonome Luft-, Land- und Seefahrt, sowie etliche militärische Verwendungen sind nur ein kleiner Überblick dieser Anwendungsmöglichkeiten.
Die durch die Anwendungsgebiete auftretende Notwendigkeit der Satellitennavigation, stellt meine Motivation dar, den Laborversuch Messtechnische Analyse eines Systems zur Satellitennavigation zu erneuern. Dieser Laborversuch soll den Studierenden des Studiengangs Elektrotechnik/Informationstechnik mit dem Schwerpunkt Kommunikationstechnik die Satellitennavigation anhand moderner Laboreinrichtung näherbringen.
Die nachfolgende Arbeit beschäftigt sich zu Beginn mit den allgemeinen theoretischen Grundlagen der Satellitennavigation, gefolgt von systemspezifischen Beschreibungen. Die weiteren Kapitel beinhalten die Versuchsbeschreibung, eine Musterlösung und Informationen für den betreuenden akademischen Mitarbeiter.
Des Weiteren wurden Messreihen aufgezeichnet, welche die einzelnen
Satellitennavigationssysteme qualitativ gegenüberstellen. Auf die Messreihen wird in dieser Thesis nicht eingegangen. Hierfür darf an dieser Stelle auf einen Beitrag in der Hochschulzeitschrift Forschung im Fokus verwiesen werden.
Die Funkschnittstelle nach dem Bluetooth Standard ist heutzutage nicht mehr aus dem Consumer-Markt wegzudenken. Auch durch die zukünftige Weiterentwicklung des Prinzips von IoT (Internet of Things) wird vor allem die Bluetooth Low Energy Technologie für Unternehmen bei der Entwicklung von Geräten mehr an Bedeutung gewinnen. Um die Studierenden im Bereich der Kommunikationstechnik auf das Thema Bluetooth vorzubereiten, wird der Versuch „Kurzstreckenkommunikation nach dem Bluetooth Standard“ im Telekommunikations-Labor an der Hochschule Offenburg angeboten. Der Versuch wurde im Rahmen dieser Bachelor-Thesis an die heutigen Anforderungen angepasst.
Die nachfolgende Bachelor-Thesis beinhaltet die gesamte Laboranleitung des Versuchs, welche in die drei Teile: Theoretische Grundlagen, vorbereitende Aufgaben und der Versuchsdurchführung aufgeteilt wird. Der Versuchsanleitung folgt ein Teil mit weiteren Anmerkungen für die akademischen Mitarbeiter, welche den Versuch betreuen. Hier wird sichergestellt, dass auch in Zukunft der Versuch problemlos weiter durchgeführt werden kann. Im Anhang befinden sich die Musterlösungen für die vorbereitentenden Aufgaben und der Versuchsdurchführung.
Aufbau/Ansteuerung/Kalibrierung/Pilotierung eines Lautsprecher-Halbkreises für Lokalisationstests
(2019)
Seit September 2018 ist die Hochschule Offenburg im Besitz einer Hörkabine, in der ein Schallquellenlokalisationstest im Rahmen dieser Bachelorarbeit aufgebaut wurde. Eine Schallquellenlokalisation ist im Alltag für Normalhörende in den meisten Fällen keine Schwierigkeit. Wir Menschen sind in der Lage mit einer Genauigkeit von 1° bis 2° eine Schallquelle zu lokalisieren (Feigenspan 2017,S.624). Entfällt jedoch das Hörvermögen auf einer Seite, so verschlechtert sich die Lokalisationsfähigkeit erheb-lich. Um Schallquellen präzise lokalisieren zu können, werden optimaler Weise beide Ohren benötigt. Heutzutage gibt es viele Hörsysteme, um diverse Hörstörungen zu therapieren. Den-noch bleibt die Lokalisationsfähigkeit für Menschen mit einseitiger Taubheit, bezie hungsweise asymmetrischen Hörverlust eine Herausforderung. Ein Schallquellenlo kalisationstest findet Anwendung in der Klinik, um eine bestmögliche Versor gung/Therapie durch Hörsysteme zu gewährleisten. Ziel dieser Bachelorarbeit war der Aufbau eines Lokalisationstestes nach Leitlinien einer wissenschaftlichen Publikation, sowie die Durchführung an fünf freiwilligen Normalhörenden. Die Realisierung umfasste den Aufbau der Lautsprecher, die An-steuerung mithilfe einer externen Soundkarte und MATLAB, eine Kalibrierung der Lautsprecher und die Durchführung der Tests.
Zum aktuellen Zeitpunkt sind alle Sensoren einer Herz-Lungen-Maschine des Unternehmens Getinge kabelgebunden. Dadurch besteht das Risiko, dass sich während einer OP Keime auf den Kabeln sammeln, die Kabel steigern den Zeitaufwand beim Reinigen und Konnektieren und lassen das Gesamtsystem unübersichtlich wirken.
Das Ziel dieser Arbeit ist es, ein Konzept zu entwickeln, wie die Datenübertragung von einem Sensor zu einer Herz-Lungen-Maschine drahtlos erfolgen kann. Dazu wurden elf gewichtete Anforderungen an einen Funkstandard für eine drahtlose Datenübertragung definiert. Bezüglich dieser Anforderungen wurden 15 Funkstandards anhand einer Literaturrecherche analysiert. Es stellte sich heraus, dass sich ZigBee, IEEE 802.15.6, Z-Wave und EnOcean für diese Anwendung eignen, wobei ZigBee im Vergleich zu den anderen Funkstandards als am besten geeignet bewertet wurde.
Um die Eigenschaften von ZigBee bezüglich der definierten Anforderungen zu verifizieren, wurde ein ZigBee-Prototyp implementiert und getestet. Für die Bereitstellung der Mess-Funktionalität für die Tests wurde ein Programm in C++ geschrieben. Mit Hilfe dieser Tests konnte die Erfüllung der Anforderungen von ZigBee bestätigt werden.
Auf dieser Grundlage ist es möglich, die drahtlose Datenübertragung zwischen Sensor und Herz-Lungen-Maschine auf Basis des ZigBee-Funkstandards zu entwickeln. Ausblickend ist es für die Entwicklung von drahtlosen Sensoren einer Herz-Lungen-Maschine ratsam, die Akzeptanz der Anwender zu erfragen und die regulatorischen Anforderungen für Funk bei Medizinprodukten zu erläutern.
Die Erfindung betrifft eine Ösophaguselektrodensonde bzw. einen Ösophaguskatheter 10 zur Bioimpedanzmessung und/oder zur Neurostimulation, eine Vorrichtung 100 zur transösophagealen kardiologischen Behandlung und/oder kardiologischen Diagnose und ein Verfahren zum Steuern oder Regeln einer Ablationseinrichtung zum Durchführen einer Herzablation. Die Ösophaguselektrodensonde 10 umfasst eine Bioimpedanzmesseinrichtung zur Messung der Bioimpedanz von zumindest einem Teil des die Ösophaguselektrodensonde 10 umgebenden Gewebes. Die Bioimpedanzmesseinrichtung umfasst mindestens eine erste Elektrode 12A und mindestens eine zweite Elektrode 12B, wobei die mindestens eine erste Elektrode 12A auf einer dem Herzen zugewandten Seite 14 der Ösophaguselektrodensonde 10 angeordnet ist, und die mindestens eine zweite Elektrode 12B auf einer vom Herzen abgewandten Seite 16 der Ösophaguselektrodensonde 10 angeordnet ist.Die Vorrichtung 100 umfasst die Ösophaguselektrodensonde 10 und eine Steuer- und/oder Auswerteinrichtung 30. Die Steuer- und/oder Auswerteinrichtung 30 ist eingerichtet, ein erstes Bioimpedanzmesssignal von der mindestens einen ersten Elektrode 12A und ein zweites Bioimpedanzmesssignal von der mindestens einen zweiten Elektrode 12B zu empfangen und zu vergleichen, und ein Kontrollsignal auf Basis des Vergleichs zu generieren. Das Kontrollsignal kann ein Signal zum Steuern oder Regeln einer Ablationseinrichtung zum Durchführen einer Herzablation sein.
Die vorliegende, schriftliche Dokumentation befasst sich mit der Entwicklung, Konstruktion und Ausarbeitung eines speziellen Sonderbetriebsmittels im Bereich der Umformtechnik.
Aus Gründen der Materialersparnis soll ein Stanzwerkzeug zur Herstellung von asymmetrischen Blech-Rohlingen dahingehend optimiert werden, dass die Schneid-Elemente pro Ar-beitsgang eine Drehung um 180° durchführen können. Durch diese Maßnahme soll erreicht werden, dass zwischen den ausgeschnittenen Rohlingen weniger Abfallmaterial anfällt, wo-durch Materialkosten im laufenden Fertigungsprozess eingespart werden können.
Die Arbeit beinhaltet das systematische Erfassen von Anforderungen und prozessbedingten Gegebenheiten, die Erarbeitung von Lösungskonzepten, sowie das Ausarbeiten eines aus-gewählten Konzepts als detaillierte Konstruktion. Letztgenannte umfasst das Erstellen funktions- und fertigungsgerechter Einzelkomponenten und Baugruppen, die Auslegung und Auswahl benötigter Zukauf-Komponenten, sowie das Ableiten fertigungsgerechter technischer Zeichnungen.
Als Nachweis der Funktion der erarbeiteten Vorrichtung werden sowohl eine Bewegungssimulation, als auch entsprechende Nachweisrechnungen der Bauteilfestigkeit unter Berücksichtigung wirkender Prozesskräfte durchgeführt.
Resultat dieser Arbeit ist eine erwiesenermaßen funktionsfähige Konstruktion, die sämtliche von Seiten des Auftraggebers gestellten Anforderungen erfüllt.
Das Team "magmaOffenburg" nimmt seit 2009 an der 3D-Simulationsliga des RoboCups teil. Wie gut das Laufen auf zwei Beinen in der verwendeten Simulationsumgebung "SimSpark" funktioniert ist einer der zentralen Faktoren für ein erfolgreiches Abschneiden. Bisher wird für das Laufen ausschließlich eine inverskinematische Walk-Engine verwendet.
In dieser Arbeit wird mit genetischen Algorithmen und einer modellfreien Parametrisierung Laufen komplett "from scratch" gelernt. Derselbe Ansatz wurde zuvor bereits erfolgreich für das Lernen von Kicks eingesetzt. Gegenüber der alten Walk-Engine zeichnet diesen Ansatz besonders aus, dass zum ersten Mal die Zehengelenke genutzt werden, welche eines der verfügbaren Robotermodelle besitzt. Dies ermöglicht einen natürlicheren und schnelleren Gang. Zwar ist die Stabilität des gelernten Laufens noch nicht vergleichbar mit dem bisherigen (der Spieler fällt etwa 26% häufiger hin), aber beispielsweise beim Vorwärtslaufen konnten mit einer Geschwindigkeit von 1.3 m/s statt 1 m/s Steigerungen von 30% erzielt werden.
Darüber hinaus wurde untersucht, wie dem Agenten im Anschluss an das gelernte Laufen wieder ein Übergang zur alten Walk-Engine gelingen kann. Der erfolgreichste Ansatz basiert ebenfalls wieder auf einer mit genetischen Algorithmen trainierten Bewegung. Er ist in etwa der Hälfte der Fälle erfolgreich.
Die öffentliche Diskussion über den Einsatz digitaler Medien in Schule und Unterricht verkennt die zugrundeliegenden Interessen. Seit über 30 Jahren wird jede neue Generation von Digitaltechnik in die Schulen gedrückt. 1984 waren es Personal Computer (PC), in den 1990er Jahren Laptops, aktuell sind es WLAN, Tablets und Smartphones. Die Argumente sind identisch: Angeblich sorgen die Geräte für moderneren, innovativeren Unterricht, höhere Motivation der Schüler/innen, bessere Lernergebnisse. Wissenschaftlich valide Studien belegen das Gegenteil. Der pädagogische Nutzen war und ist bis heute negativ. PISA-Koordinator Andreas Schleicher: „Wir müssen es als Realität betrachten, dass Technologie in unseren Schulen mehr schadet als nützt.“ (Schleicher, 2016) Der Aktionsrat Bildung bestätigt in einer Studie für die Vereinigung der Bayerischer Wirtschaft (vbw) „statistisch signifikant niedrigere Kompetenzen in den Domänen Mathematik und Naturwissenschaften“, wenn Grundschülerinnen und Grundschüler im Unterricht mindestens einmal wöchentlich Computer einsetzen im Vergleich zu Grundschulkindern, die seltener als einmal pro Woche Computer im Unterricht nutzten - und fordert trotzdem, die Schulen müssten schneller digitalisiert werden.
Es geht offensichtlich um Anderes. Es sind wirtschaftliche Interessen der IT-Wirtschaft und der Global Education Industries (GEI), die die Bildungsmärkte nach angelsächsischem Vorbild privatisieren und kommerzialisieren wollen. Es sind zugleich die Geschäftsmodelle der Daten-Ökonomie, die alle Lebensbereiche verdaten und Menschen per Algorithmus und kybernetischen Modellen steuern wollen – wie in den 1950er Jahren (Behaviorismus, programmiertes Lernen). Die Digitalisierung ist „nur“ die technische Infrastruktur zur Datenerhebung, die empirische Bildungsforschung das Instrumentarium zur Quantifizierung auch des Sozialen (Mau, 2018). Nach Arbeitsmarkt und Kommunikation stehen derzeit Bildung und Gesundheit auf der Agenda der Digitalisten. Das Problem: Werden soziale Systeme nach der binären Logik der IT umgebaut, verlieren sie alles Soziale. Daher ist die vordringliche Aufgabe der Pädagogik, die derzeit dominierenden Denkstrukturen von BWL und IT, Empirie, Kennzahlenfixierung und behavioristischen Lerntheorien als dysfunktionalen und a-sozialen Irrweg zu kennzeichnen und stattdessen Schule und Unterricht wieder vom Menschen und seinen Lernprozessen her zu denken.
Die Digitalisierung aller Lebensbereiche ist kein Technik-, sondern ein Systemwechsel. Alles, was wir im Netz tun, wird verdatet; idealiter prenatal bis postmortal. Dieser Datenpool wird mit immer ausgefeilteren Algorithmen des Big Data Mining analysiert und mit Methoden der Empirie, Statistik und Mustererkennung ausgewertet. Der Mensch wird zum Datensatz. Je früher Menschen psychometrisch vermessen werden können, desto exaktere Persönlichkeits-, Lern- und Leistungsprofile entstehen – und umso leichter ist die Einflussnahme. Das ist der Grund für die Forderung nach Digitaltechnik in KiTas und Grundschulen. Menschen werden daran gewöhnt zu tun, was Maschinen ihnen sagen. Das ist Gegenaufklärung aus dem Silicon Valley per App und Web. Wie Alternativen aussehen können, zeigt dieser Beitrag.
Über Chancen und Risiken von Computern an Schulen wird seit deren Einführung im Jahr 1984 kontrovers diskutiert. Neben Laptops und Tablets geht es heute um die Nutzung von Schulclouds und privaten Smartphones im Unterricht. Das Akronym dafür ist BYOD – »Bring Your Own Device«.
Dabei stellen sich grundsätzliche pädagogische und politische Fragen: Welcher Unterrichts- und Medienkonzepte bedarf es, um den Risiken der Digitalisierung vorzubeugen, die Schüler_innen aber zugleich an deren Chancen teilhaben zu lassen? Bei Netzanwendungen ist zudem der Datenschutz zu beachten, vor allem, wenn eigene Geräte genutzt werden sollen. So fördert das BMBF eine Schulcloud, in der Lehrkräfte und Schüler_innen wie bei Facebook Gruppen bilden, Dokumente austauschen und online darüber diskutieren können.
Das Buch greift die aktuelle Kontroverse auf und fragt nach den Zielen und Nebenwirkungen von »Bildung 4.0«. Was davon ist für die Unterrichtspraxis relevant? Und wessen Interessen werden bei welchen Konzepten vertreten?
Controlling ist ein Begriff aus der Wirtschaftslehre und bezeichnet nicht Kontrollle, sondern Prozeßsteuerung. Definierte Ziele werden durch kleinteilige Messungen und permanente Überwachung aller Arbeitsschritte und Handlungen der beteiligten Personen protokolliert und stetig optimiert. Dieses Konzept der Planungs-, Koordinations- und Kontrollaufgaben wird beim „Bildungs-Controlling“ auf Schulen und Hochschulen übertragen. Ziel ist dabei, entsprechend der Gary Beckerschen Humankapitaltheorie, die Produktion von Humankapital mit validierten Kompetenzen. Zwei Probleme gibt es dabei: Lernen und vor allem Verstehen lassen sich nicht automatisieren und auch nicht automatisiert prüfen. Und: Sozialsysteme unter dem Regime der Kennzahlen des Quality Management (QM) oder Total Quality Management (TQM) verlieren ihre Eigenschaft als soziale Systeme
Unternehmerische Entscheidungen sollten auf einer angemessene Informationsgrundlage basieren. Diese rechtliche Aufforderung stellt Geschäftsleiter in der Praxis vor erhebliche Herausforderungen, die insbesondere die Erstellung von Prognosen betreffen. Um hier einen Unterstützungsbeitrag zu leisten, wird eine Heuristik vorgestellt, die das Treffen prognosebezogener Informationsentscheidungen anleitet. Die Heuristik übernimmt aus der Multiattributiven Nutzentheorie die Empfehlung, Informationsentscheidungen als Gesamtheit aus Zielfunktion und Bewertungsfunktion zu modellieren. In der Zielfunktion werden die Ziele der Informationsentscheidungen von den allgemeinen Unternehmenszielen wie etwa dem Gewinn gelöst. Statt dessen wird auf die Bewirkung besonderer Qualitätseigenschaften von Informationen abgestellt; das sind Vollständigkeit, Genauigkeit und Zuverlässigkeit. Daraus ergeben sich die beiden grundlegenden Ziele von Informationsentscheidungen: „Maximierung der Informationsqualität“ und „Minimierung der Informationskosten“. Auf dieser Grundlage besteht für die Bewertungsfunktion die Herausforderung darin, die positiven Nutzenwirkungen aus einer Vergrößerung der Informationsqualität abzuwägen gegen die negativen Nutzenwirkungen, die aus einer damit verbundenen Vergrößerung der Informationskosten resultieren. Um diese Herausforderung zu bewältigen, wird ein iteratives Verfahren aus sequentiell zu treffenden und in diesem Sinne inkrementellen Informationsentscheidungen vorgeschlagen. Wertvoll ist diese Heuristik einerseits in entscheidungstheoretischer Hinsicht, weil sie vorliegende methodische Überlegungen zum Treffen von Informationsentscheidungen erweitert. Vor allem aber besitzt die Heuristik einen praktischen Wert für Geschäftsleiter, da ihre Anwendung bessere Voraussetzungen dafür schafft, der rechtlichen Pflicht zur ordentlichen und gewissenhaften Geschäftsführung zu genügen.
Wer sich als Pädagoge und Wissenschaftler mit dem Thema „Digitalisierung und Schule“ befasst, stellt fest, dass nur Wenige die Tragweite der beabsichtigten Transformation von Bildungseinrichtungen zu automatisierten, algorithmisch gesteuerten Lernfabriken realisieren. Dabei wird übersehen, dass mit Theorien und empirischen Modellen wie der „datengestützten Schulentwicklung“ und „Learning Analytics“ grundlegende Paradigmenwechsel verbunden sind, die das humane wie das christliche Menschenbild erschüttern. Mit Kybernetik und Behaviorismus auf der einen, mit der sogenannten „Künstlichen Intelligenz“ (KI) und darauf aufbauenden Geschäftsmodellen der Datenökonomie auf der anderen Seite, untergraben diese Beschulungsmodelle die Autonomie, das Selbstbestimmungsrecht und die Handlungsfreiheit des Menschen. Vertreter dieser Disziplinen behaupten, dass sowohl der einzelne Mensch wie Sozialgemeinschaften wie Maschinen programmiert und gesteuert werden können. Sie blenden aus, dass Mündigkeit und Selbstverantwortung das Ziel von Schule und Unterricht sind, nicht maschinell berechnete Verhaltenssteuerung und -manipulation. Diese Fehlentwicklungen sind nicht der Technik an sich geschuldet, die sich anders einsetzen ließe, sondern den Geschäftsmodellen der IT-Anbieter.
Numerische Physik
(2019)
Dieses Lehrbuch stellt die Numerische Physik anhand einer Vielzahl von Beispielen aus den Bereichen Mechanik, Elektrodynamik, Optik, Statistischer Physik und Quantenmechanik dar. Der Leser lernt hier nicht nur die wichtigsten numerischen Techniken in der Programmiersprache C++ kennen, sondern erhält auch neue Einblicke in die Physik, die konventionelle Zugänge nicht bieten. Das Werk schließt damit eine Lücke zwischen den Standardlehrbüchern der Theoretischen Physik und denen der reinen Programmierung.
Zu jedem der physikalischen Themen gibt es eine kurze Wiederholung des theoretischen Hintergrunds und anschließend werden ausgewählte Beispiele im Detail ausgearbeitet. Übungen am Ende des Kapitels bieten weitere Gelegenheit die Anwendungen des Gelernten zu vertiefen.
Das Buch richtet sich vornehmlich an Physikstudierende höherer Semester, die bereits über eine Basis in Theoretischer Physik verfügen und auch Grundkenntnisse in der Programmierung in C++ mitbringen.
Auf der Produktseite zum Buch auf springer.com finden sich alle Quelltexte zu den Programmen im Buchtext zum Download. Im Anhang erhalten Sie eine Zusammenstellung und Erläuterung frei verfügbarer Software, die sowohl dem Windows-Anwender als auch dem Linux-Freund alle Werkzeuge an die Hand gibt, die er zur Bearbeitung anspruchsvoller physikalischer Fragestellungen benötigt - von Compilern über numerische Bibliotheken bis hin zu Visualisierungstools.
Entwicklung und Implementierung einer Methode zur Funktions- und Verschleißprüfung von Sägeanlagen
(2019)
Die Firma KASTO Maschinenbau produziert Lagersysteme und Sägemaschinen und möchte in Zukunft mit Hilfe von prädiktiver Wartung einen Mehrwert für den Kunden, die firmeneigenen Servicetechniker und die Inbetriebnehmer generieren. Für diesen Weg in Richtung prädiktive Wartung werden in der vorliegenden Arbeit, zunächst mittels Recherche, Grundlagen definiert. Die anschließende Analyse verschiedener Bauteile und Baugruppen in der Lagertechnik und im Sägemaschinenbau führt zur Konkretisierung der Umsetzungsmöglichkeiten.
Im weiteren Verlauf der Arbeit werden die verschleißkritischen Bauteile eines KASTOwin-Bandsägeautomats behandelt. Durch die Analyse der einzelnen Verschleißformen und -erscheinungen an dessen Komponenten können Parameter zur Verschleiß-überwachung ermittelt werden. Die Überwachung dieser Prozesse soll dabei mit bestehender Sensorik durchgeführt werden und beschränkt sich deshalb hauptsächlich auf die Messeinrichtung der Frequenzumformer. Für die Komponenten Sägebandantrieb, Sägevorschubantrieb, Materialvorschubantrieb, Bandverlaufsensor, sowie das Hydrauliksystem werden entsprechende Methoden zur Funktions- und Verschleiß-prüfung ausgearbeitet.
Auf Basis dieser Methoden wird dann die Implementierung in Form eines SPS-Programms und einer dazu passenden, grafischen Benutzeroberfläche durchgeführt. Das bestehende SPS-Programm und die Benutzeroberfläche werden durch zusätzliche Programmteile ergänzt. Sämtliche Ergänzungen sind portabel und modular ausgelegt, sodass diese problemlos auch in anderen Sägemaschinen ergänzt werden können. Um kritische Verschleißsituationen nach deren Eintritt zu analysieren und daraus Schlüsse im Sinne der prädiktiven Wartung zu ziehen, ist die Sicherung aller Langzeitdaten von enormer Bedeutung. Da der remanente Speicher der SPS jedoch begrenzt ist, werden sämtliche Daten über die Visualisierung gesichert. Alle aufgenommen Daten werden sowohl grafisch als auch in Form von Werten visualisiert und können dem Kunden und Servicetechniker, sowie dem Inbetriebnehmer Aufschluss über den Zustand der Komponenten geben.
Letztlich werden die implementierten Abläufe an einer Vorführmaschine getestet. Es kann dabei die Funktion sämtlicher Prüfungen bestätigt werden
This paper describes a project absolved to increase the material flow through the LTCC production of the Bosch Anderson Plant in South Carolina, USA. To archive this goal the regarded value stream is introduced first. The bottleneck, which is limiting the material flow is found and eliminated in order to increase the output of the machine and consequently improve the material flow through the whole value stream. The completed projects made for this purpose result in a 13% increase. To control the material flow the inventory sizes are determined. The inventories, from which the size is desired to be determined, include climatization processes to dry the pastes that are applied in the previous process steps. Therefore, a separation of the parts in the production process climatization and the buffer is necessary first. After that the buffer can be eliminated and the inventory areas minimized. The results are smaller and controlled buffer sizes that make part of the floor space unnecessary. A welcomed side effect is the solution to a production problem of warped parts because of too long climatization times. Observations over time show that the results of the buffer limitations are just right to improve the material flow through the LTCC production.
Auf Grundlage der Computer-Aided-Design (CAD)-rekonstruierten ersten „Eisernen Hand“ des Götz von Berlichingen wird ein umgebautes, controllergesteuertes sensomotorisches Fingersystem auf seine Funktionalität beim Greifen von unterschiedlichen Gegenständen beschrieben und geprüft. Die elektronischen Finger, die den „Pinzettengriff“ nachahmen und automatisch bei dem zuvor eingestellten Anpressdruck abschalten, bewiesen eine bemerkenswerte Alltagstauglichkeit. Das vorgestellte Grundkonzept könnte eine Alternative bei der Entwicklung einfacher und kostengünstiger, aber dennoch gut einsatzfähiger bionischer Hände sein und zeigt einmal mehr, wie historische Ideen in die Gegenwart transferiert werden können.
Audio over IP
(2019)
Der Wandel im Bereich Tontechnik geht stetig weiter. Was vor über 100 Jahren begann, entwickelt sich heutzutage rasend voran. Das Ziel immer vor Augen: Ein Audiosignal soll in bestmöglichster Qualität, möglichst mit einer geringen Datenmenge, in kürzester Zeit von A nach B transportiert und anschließend konserviert werden.
Durch die Digitalisierung werden auch hier völlig neue Anwendungsbereiche und Szenarien ermöglicht, die weit über das klassische Recording oder die Studioinfrastruktur hinausgehen. Die Rede ist zum Beispiel von Klanginstallationen oder Konferenzszenarien. Audionetzwerke bieten durch die Nutzung beliebiger Quellen und Senken in der Produktionsumgebung eine signifikant flexiblere Signalverteilung, als dies noch mit klassischen Verteilern und Steckfeldern möglich war. Übertragungen und Vernetzungen in mehreren Gebäuden sind hiermit kein Problem. Allerdings unterscheidet sich diese Technologie in Punkto Stabilität, Datenrate, Netzwerk-Layer & Qualität deutlich von seinem Pendant, dem Internetstreaming.
Die vorliegende Bachelorarbeit beschreibt die Erstellung einer Anwendung, die es ermöglicht, einen Roboterarm mithilfe eines haptischen Geräts zu steuern. Zudem wird die Kraftrückkopplung des haptischen Geräts, abhängig von der wirkenden Kraft des Roboterarms, implementiert.
Zur Realisierung dieser Anforderungen wurden zwei Programme erstellt; diese beiden Programme sind über eine TCP Verbindung miteinander verbunden. Programm 1 stellt die haptische Umgebung bereit, Programm 2 die Robot Operating System Node, mit welcher die Daten zum Roboter gesendet und Daten vom Roboter empfangen werden können.
Die in dieser Arbeit erstellten Programme wurden mithilfe von Test Nodes überprüft und leiten die Position der haptischen Umgebung weiter. Die Kraftrückkopplung des haptischen Geräts ist ebenfalls vorhanden und integriert.
Ein Testlauf mithilfe eines simulierten Roboterarms konnte erfolgreich durchgeführt werden.
Unternehmen erzielen durch den Einsatz von Big Data-Analyse bereits heute eine Umsatzsteigerung, bei gleichzeitiger Kostensenkung. Trotzdem setzen lediglich 36% der mittelständischen Unternehmen in Deutschland auf Big-Data Initiativen. Diese Unternehmen sind sich nicht bewusst, welchen Datenschatz sie bereits besitzen, allerdings nicht gewinnbringend nutzen.
Ziel der Arbeit ist es, die Herausforderungen mit denen Unternehmen in der digitalen Transformation konfrontiert werden, sowie die Chancen, die sich durch den Einsatz von Datenanalyse ergeben, herauszuarbeiten.
Die Arbeit stellt einen Leitfaden für kleine und mittelständische Unternehmen dar, die erste Erfahrungen mit Big Data-Analytics machen möchten.
Webassembly is a new technology to create application in a new way. Webassembly is being developed since 2017 by the worldwide web consortium (w3c). The primary task of webassembly is to improve web applications.
Today, more and more applications are being created as web applications. Web applications have some advantages - they are platform independent and even mobile platforms can run them, and no installation is needed apart from a modern web browser.
Currently, web applications are being developed in JavaScript (JS), hypertext mark-up language 5 (HTML 5), and cascading style sheets (CSS).
These technologies are not made for huge web applications, but they should not be replaced by webassembly; rather, webassembly is an extension to the currently existing technology.
The purpose of webassembly is to fix or improve the problems in web application development.
This master’s thesis reviews all of the aspects and checks whether the promises of webassembly are kept and where problems still exist.
This book, now in its second, completely revised and updated edition, offers a critical approach to the challenging interpretation of the latest research data obtained using functional neuroimaging in whiplash injury. Such a comprehensive guide to recent and current international research in the field is more necessary than ever, given that the confusion regarding the condition and the medicolegal discussions surrounding it have increased further despite the publication of much literature on the subject. In recent decades especially the functional imaging methods – such as single-photon emission tomography, positron emission tomography, functional MRI, and hybrid techniques – have demonstrated a variety of significant brain alterations. Functional Neuroimaging in Whiplash Injury - New Approaches covers all aspects, including the imaging tools themselves, the various methods of image analysis, different atlas systems, and diagnostic and clinical aspects. The book will help physicians, patients and their relatives and friends, and others to understand this condition as a disease.
In recent times, the energy consumed by buildings facilities became considerable. Efficient local energy management is vital to deal with building power demand penalties. This operation becomes complex when a hybrid energy system is included in the power system. This study proposes new energy management between photovoltaic (PV) system, Battery Energy Storage System (BESS) and the power network in a building by controlling the PV/BESS inverter. The strategy is based on explicit model predictive control (MPC) to find an optimal power flow in the building for one-day ahead. The control algorithm is based on a simple power flow equation and weather forecast. Then, a cost function is formulated and optimised using genetic algorithms-based solver. The objective is reducing the imported energy from the grid preventing the saturation and emptiness of BESS. Including other targets to the control policy as energy price dynamic and BESS degradation, MPC can optimise dramatically the efficacy of the global building power system. The strategy is implemented and tested successfully using MATLAB/SimPowerSystems software, compared to classical hysteresis management, MPC has given 10% in energy cost economy and 25% improvement in BESS lifetime.
Gesellschaftliche, wirtschaftliche und technologische Umbrüche stellen das klassische Governance-Verständnis heute auf den Prüfstand. Sowohl organisationsintern als auch in den Beziehungen zu den Stakeholdern und der Umwelt zeigt sich immer mehr, dass Unternehmenssteuerung nur noch begrenzt möglich ist.
Wie der Spagat gelingt, im Unternehmen für ein stabilisierendes Mindestmaß an Orientierung zu sorgen, aber auch unter hoher Marktdynamik flexibel zu bleiben, beleuchtet Sybille Schwarz aus verschiedenen Blickwinkeln. Diese verknüpft sie zu einer multiperspektivischen Governance-Betrachtung.
• Die managementorientierte Perspektive: zu normativen, strategischen und unternehmenskulturellen Gestaltungsmöglichkeiten
• Die ökonomische Perspektive: zu Verhaltensmustern unter komplexen Markt- und Wettbewerbsbedingungen
• Die gesellschaftliche Perspektive: zu Veränderungen durch die Digitalisierung oder Fragen der Nachhaltigkeit
Eine Einladung zum Perspektivwechsel für Aufsichtsräte und Entscheidungsträger, um Chancen und Risiken eingesetzter Governance-Strukturen organisationsgerecht zu beurteilen.
In dieser Bachelor Thesis geht es um das Internet Protokoll Version 6, insbesondere um die Stateless Address Autoconfiguration (SLAAC). Hierfür wurde ein Netzwerk aufgebaut und entsprechend konfiguriert. Zur Veranschaulichung wurde daraufhin ein Laborversuch über eine Webschnittstelle realisiert, der den Ablauf von SLAAC und die Adressauflösung durchläuft. Schritt für Schritt kann so die Adressvergabe und die einzelnen Vorgänge verfolgt und die jeweiligen Aufgaben bearbeitet werden.
Diese Thesis befasst sich mit der Konzeption, Kommunikation und Umsetzung eines eigens ins Leben gerufenen Non-Profit Projekts namens green&easy. Der Name verdeutlicht den Ursprungsgedanken, aus dessen Überzeugung die Idee entstand: „green“ steht für einen nachhaltigen Lifestyle und „easy“ für den Gedanken, dass Umweltschutz nicht kompliziert oder belastend sein muss. Das Projekt ist der Versuch Umweltschutz mal anders anzugehen. Statt sich auf die Politik und wissenschaftliche Durchbrüche zu verlassen, setzt green&easy mit einem Buttom-Up-Ansatz bei den kleinen alltäglichen Handlungen an. Umweltschutz einfach und attraktiv zu machen, um den Einzelnen zum Handeln zu ermuti-gen – das ist das Ziel von green&easy.
Virtual reality in the hotel industry: assessing the acceptance of immersive hotel presentation
(2019)
In the hotel industry, it is crucial to reduce the inherent information asymmetry with regard to the goods offered. This asymmetry can be minimised through the use of smartphone-based virtual reality applications (SBVRs), which allow virtual simulation of real experiences and thus enable more efficient information retrieval. The aim of the study is to determine for the first time the user acceptance of these immersive hotel presentations for assessing the performance of a travel accommodation. For this purpose, the Technology Acceptance Model (TAM) was used to explain the acceptance behaviour for this new technology. A virtual reality application was specially developed, in which the participants could explore a hotel virtually. A total of 569 participants took part in the study. The structural equation model and the hypotheses were tested using a Partial Least Squares (PLS) analysis. The results illustrate that the immersive product experience leads to more efficient information gathering. The perceived usefulness significantly affects the attitude towards using the technology as well as the intention to use it. In contrast to the traditional TAM, the perceived ease of use of SBVRs has no effect on the perceived usefulness or attitude towards using the technology.
Die Bachelorarbeit soll sich im Kern mit Möglichkeiten beschäftigen, wie der Faktor Mensch für die Bedrohung durch Social Engineering reduziert werden kann. Um diese Thematik aufzugreifen und zielführend zu bearbeiten, müssen zunächst einige Grundlagen geklärt werden. Deshalb wird im ersten Teil der Arbeit der Begriff Social Engineering definiert und es werden Unterschiede und Abstufungen erklärt. Weiterführend wird das Vorgehen bei Social Engineering Angriffen bzw. Penetrantionstests und Red Teaming Aufträgen in diesem Bereich erläutert. Dies findet in Zusammenarbeit mit der Firma cirosec statt. Hier findet auch direkt ein Vergleich mit dem Vorgehen „nach Lehrbuch“ vom wohl bekanntesten Social Engineer Kevin Mitnick statt und die bekanntesten Angriffs-Möglichkeiten werden genannt und beschrieben. Abschließend soll eine Abgrenzung zwischen gezielten und gestreuten Angriffen getroffen werden, da diese beiden Szenarien essenzielle Unterschiede in der Effektivität von Gegenmaßnahmen aufweisen.
Im folgenden Teil werden ehemalige Projekte der Firma cirosec GmbH nach einer Anonymisierung, mit dem Ziel analysiert, neben dem Vorgehen auch die Angriffsvektoren, das menschliche Fehlverhalten und, vor allem, die technischen Probleme in den vorliegenden Beispielen zu finden. Anschließend wird aufgezeigt, warum groß angelegte Awareness-Kampagnen eventuell auch zu Problemen für ein Unternehmen führen können.
Ein großer Teil der Arbeiten über das Thema Social Engineering stellen den Menschen als Risikofaktor in das Zentrum der Aufmerksamkeit. In dieser Thesis soll aber genau das nicht passieren. Betrüger gibt es seit es Menschen gibt, denn die Naivität und Gutgläubigkeit von
selbigen wurde schon immer ausgenutzt.
Doch anstatt diese Charaktereigenschaften, die sich über Jahrhunderte im Zusammenleben etabliert haben und auch dafür notwendig sind, mit Awareness Kampagnen oder Schulungen zu unterbinden, soll hier ein anderer Ansatz verfolgt werden. Das Augenmerk soll mehr auf technische Probleme gelegt werden. Eine IT Landschaft muss in der Zukunft nicht so gebaut sein, dass Menschen Schulungen brauchen, um sicher damit umzugehen.
Stattdessen soll eine Optimierung dahingehend passieren, dass der Mensch überhaupt keine schwerwiegenden und sicherheitskritischen Fehler begehen kann.
Es wird sich die Frage gestellt, wo man als Gegenmaßnahme ansetzen muss und dazu werden die vorher analysierten Projektbeispiele erneut aufgegriffen.
Auf Basis dieser Informationen, und den genannten Social Engineering Angriffsarten, werden Maßnahmen, die größtenteils technischer Natur sind, vorgestellt, erklärt und es wird beschrieben, gegen welche Arten von Angriffen sie effektiv helfen könnten. Dies soll im Idealfall, in einer sinnvollen Kombination, eine vernünftige Verteidigung gegen Social Engineering-Angriffe bieten.
Schlussendlich soll sich in einer perfekten IT-Landschaft jeder Mitarbeiter, ob mit fundiertem oder verschwindend geringem Sicherheitsverständnis, problemlos bewegen können und nicht vor jedem Klick oder dem offen halten einer Tür hinterfragen müssen, ob er damit das gesamte Unternehmen gefährden könnte.
Die zunehmende Digitalisierung macht den Einsatz von E-Mail-Marketing in Unternehmen fast unumgänglich. Um einen effektiven Kundenkontakt zu gewährleisten müssen Unternehmen auf den Versand von Newslettern setzen, die in regelmäßigen Abständen an den Kundenstamm herausgeschickt werden. Ein Newsletter beinhaltet Informationen, die von Relevanz für die Kundschaft ist. Die Thematik kann ein Überblick über Geschehnisse des Unternehmens sein, aber auch Events und Rabattaktionen sind möglich. In der heutigen Zeit stehen eine Vielzahl an Tools zur Verfügung, um mit Hilfe von Newslettern den Kontakt zum Kunden und zur Kundin zu pflegen. Die Generierung von E-Mail-Adressen, sowie die Kampagnenerstellung sind solche Teilgebiete. Ebenso das Tracking und der automatisierte Versand der E-Mails. Längst nicht alle Unternehmen nutzen die Vorteile des Kommunikationskanals und von denjenigen, die den Kanal nutzen, ist fast jeder Zweite nicht zufrieden mit seiner E-Mail-Marketing Strategie.1 Außerdem gibt es eine Menge Richtlinien, die es zu beachten gilt, wenn das E-Mail-Marketing genutzt wird, ansonsten kann es zu Abmahnungen kommen.
Die vorliegende Bachelorthesis stellt ein Leitfaden für die Umsetzung von Newslettern im B2C-Bereich dar. Dabei bietet die Arbeit einen Rundumblick in das Thema, sodass Unternehmen dadurch in der Lage sind einen Newsletter aufzubauen und somit den Kontakt zu ihren Abonnenten und Abonnentinnen erfolgreich zu halten. Unterthemen, die in dieser Thesis beleuchtet werden, sind zum einen die Planung und Zielsetzung eines Newsletters, anschließend die erfolgreiche Generierung von E-Mail-Adressen. Zum anderen auch die technischen und rechtlichen Anforderungen an die Newsletter. Außerdem werden die Gestaltungselemente und das Controlling behandelt. Größtenteils werden die Fragen innerhalb dieser Thesis mit Hilfe von relevanter Fachliteratur beantwortet. Zusätzlich werden die Ergebnisse durch eine Umfrage, sowie eine Eye-Tracking Untersuchung unterstützt.
Die vorliegende Arbeit befasst sich mit der Fragestellung, inwiefern sich der Einsatz und die Produktion von Lernvideos an baden-württembergischen Berufsschulen aus der Per-spektive von Lehrpersonen auf Lehr- und Lernprozesse auswirken. Auf den ersten Blick ein sehr fokussierter Blick auf ein Randthema, auf eine von vielen didaktischen Möglich-keiten des Unterrichtens. Lernvideos – also irgendeine Methode, die sich aus den tech-nischen Möglichkeiten der digitalen Medien ergeben und eine zeitgemäße Weiterent-wicklung von Overhead-Projektor und Lehrbuch bedeuten. Dies wäre ein sehr verkürzter Blick, ja ein falscher auf dieses Thema. Nicht die technische Umsetzung, nicht die Er-gänzung des didaktischen Methodenpools steht im Vordergrund. Es geht um eine ganz grundsätzliche Sicht auf das Lehren und Lernen an Schulen, um die Kompetenzen, die bei den Schülern als output angestrebt werden, um die Anforderungen und Erwartun-gen welche die Gesellschaft – und vor allem die Arbeitswelt - zukünftig an die heran-wachsenden Generationen stellt.
DigitalPakt Schule der Bundesregierung , Industrie 4.0 , Berufsbildung 4.0 sind neue und umfassende Programme, um einen weiteren großen Schritt bei der so genannten digitalen Revolution zu gehen. Digitale Kompetenz, so formuliert das zuständige Minis-terium für Bildung und Forschung zur Begründung des DigitalPakts Schule, ist
„[…] von entscheidender Bedeutung für jeden und jede Einzelne, um digitale Medien selbst-bestimmt und verantwortungsvoll nutzen zu können und um gute Chancen auf dem Ar-beitsmarkt zu haben; und für die Gesellschaft, um Demokratie und Wohlstand im 21. Jahr-hundert zu erhalten.“
Auch innerhalb des Schulsystems wird seit langem geforscht und werden Handlungsempfehlungen herausgearbeitet, wie das System Schule auf die Digitalisierung aller Lebensbereiche reagieren muss. Später wird darauf noch näher eingegangen. Beispielhaft eine Aussage einer vom zuständigen Ministerium in Auftrag gegebenen Studie die festhält: Statt Wissensanhäufung und ‚Lernen auf Vorrat‘ sind andere Kompetenzen gefragt: In praxisbezogenen Problemstellungen soll Wissen angewendet werden. Dazu muss neues Wissen selbständig erarbeitet, neue Informationen recherchiert werden. Lernen und Arbeiten wachsen daher immer stärker zusammen.
Es geht also bei aller Integration der so genannten ‚Neuen Medien‘ in den Unterrichts-alltag an Schulen immer um die Prozess- und Ergebnisqualität des Lernprozesses.
Diese Vorgehensweise bietet auch ein Korrektiv in diesem Tempo der Veränderung, damit nicht jegliche Form der Digitalisierung per se als fortschrittlich und gut bewertet wird, sondern auf den qualitativen Prüfstand gestellt wird. Nicht die technische Mach-barkeit bestimmt den Fortschritt, sondern die Gütekriterien für eine gute Didaktik.
Ein weiterer Aspekt dieses Themenbereichs ist, dass bei der didaktischen Nut-zung von Lernvideos die Schule nicht Vorreiter oder gar Erfinder war. Die JIM-Studie aus dem Jahr 2016 zeigt, dass 87% der Jugendlichen und jungen Erwachsenen durchschnitt-lich 200 Minuten pro Tag im Internet surfen um sich zu informieren sowie zur Unterhal-tung. Weiter sehen sich 81% der Befragten mehrmals wöchentlich Videos im Internet an. Dabei steht die Nutzung des Online Portals YouTube an erster Stelle. Das Medium Film ist zusammenhängend als Leitmedium junger Erwachsener anzusehen und bedarf dementsprechend besonderer Aufmerksamkeit. Um nicht einer naiven Fortschrittsgläu-bigkeit zu verfallen soll daher der Einsatz von Lernvideos an baden-württembergischen Berufsschulen anhand einer qualitativen Forschung untersucht werden. Auch aufgrund der noch geringen Verbreitung dieser Lehr- und Lernform würde bei einer quantitativen Vorgehensweise kein ausreichendes Datenmaterial zur Verfügung stehen. Die vorlie-gende Arbeit fokussiert die Einbeziehung vorgefertigter Lernvideos in den Unterricht wie auch die eigene Herstellung und die damit verbundenen Lernprozesse. Da Lernvi-deos – zumindest von Ihrer Definition - eine sehr umfassende Möglichkeit selbstgesteu-erten Lernens beinhalten sollen, wird der Frage nachgegangen, ob Lernvideos auch im Rahmen von ‚Flipped Classroom‘ Anwendung finden können.
Aufgrund bisheriger Erfahrungen und theoretischen Auseinandersetzungen des Autors mit den Themen Film und digitale Medien wird der Arbeit folgende Hypothese vorweg-gestellt:
Der Einsatz und die Herstellung von Lernvideos im Unterricht an Berufsschu-len steigert die Prozess- wie auch die Ergebnisqualität des Unterrichts.
Die Auswertung wird zeigen, ob diese Lehr- und Lernmethode ein Baustein ist, die di-daktische Qualität des Unterrichts an die Anforderungen der digitalen Revolution anzu-passen.
Konkret soll die medienpädagogische Untersuchung auf Grundlage von 3 Forschungs-fragen durchgeführt werden.
1. Wie beeinflusst der Einsatz und die Herstellung von Lernvideos im Unterricht an beruflichen Schulen die Lehrer/Schüler Interaktion und wie verändert sich die Rolle der Lehrperson?
2. Wie wirken sich der Einsatz und die Herstellung von Lernvideos auf die Qualität des Unterrichts aus und lässt sich ein höherer Lernerfolg bei den Schülerinnen und Schülern feststellen?
3. Welche Rahmenbedingungen müssen an den Berufsschulen vorhanden sein, um diese Lehr- und Lernmethode gut integrieren zu können.
Aufbau und Ablauf dieser medienpädagogischen Untersuchung gliedert sich wie folgt: In Kapitel 2 findet eine Auseinandersetzung mit den mannigfaltigen Begrifflichkeiten statt, die in der Diskussion verwendet werden. Digitale Kompetenz, Medienkompetenz, Medi-enbildung, Medienpädagogik, sind Begriffe, die teilweise synonym verwendet werden, dadurch aber nicht zu Klarheit und Präzision führen. Oftmals entstehen aufgrund dieses Problems Verwirrungen, die für den Bereich beruflicher Praxis wenig hilfreich sind.
In Ableitung daraus soll das Thema in der bildungspolitischen Diskussion veror-tet werden, aber auch untersucht, inwieweit Gütekriterien für guten Unterricht in die Arbeit mit digitalen Medien integriert werden können. Im 3. Kapitel wird genauer auf die theoretischen Erkenntnisse und Forderungen der Lerntheorie eingegangen, mit Hilfe der Aspekte konstruktivistisches, kooperatives und selbstgesteuertes Lernen. Daraus folgernd, wie dieses Verständnis über Lernprozesse bei der Arbeit mit Lernvideos im Unterricht didaktisch umgesetzt werden kann. Im 4. Kapitel wird, ausgehend von einer kurzen theoretischen Begründung der qualitativen Sozialforschung, das Forschungsdes-ign beschrieben und ein Leitfaden für die Experteninterviews entwickeln. Nach Auswer-tung der transkribierten Gespräche werden die gewonnen Erkenntnisse auf die For-schungsfragen und die Erkenntnisse des Theorieteils bezogen.
Wünschenswert wäre, wenn diese Arbeit einen kleinen Baustein in die Diskussion eingebringen kann, wie die Formen heutiger Wissens- und Informationsverarbeitung sowie die prognostizierten Anforderungen der Arbeitswelt, in die Didaktik schulischen Lernens eingehen können.
Diese Arbeit handelt von der Entwicklung zweier zukunfts- und handlungsorientierter e-Learning Module für das Triebwerkswechselgerät „Cobra“. Dabei wird das didaktische Konzept für diese e-Learning Module entwickelt und reflektiert. Dies beinhaltet die Auseinandersetzung mit verschiedenen Lerntheorien und didaktischen Modellen. Neben diesen didaktischen Modellen findet die Instruktionstheorie nach Gagnè eine Anwendung. Um den Wissenserwerb zu prüfen werden Aufgaben unter Berücksichtigung der Taxonomien nach Bloom entwickelt. Ausschnitte aus den e-Learning Modulen geben einen Einblick in die Umsetzung des didaktischen Konzeptes.
Im Rahmen dieser Masterthesis wird ein quasi energieautarkes, nicht-invasives Messsystem für Kleinstlebewesen entwickelt, das Vitalparameter erfasst und diese in einem FRAM-Speicher bis zum Auslesen abspeichert. Durch eine drahtlose RFID-/NFC-Ausleseschnittstelle kann die erfasste Körpertemperatur und der Puls der letzten Wochen ausgelesen werden. Alle Einstellungen des Messsystems können durch einen geeigneten RFID-Reader für Laptops mit eigens entwickelter grafischer Nutzeroberfläche geändert werden. Das vollständige Aufladen des nur 3,3 g leichten und 15 mm x 25 mm großen Messsystems erfolgt durch eine selbstgedruckte RFID-Reader-Antenne in Verbindung mit einem RFID-Reader und benötigt hierzu weniger als 29 Stunden. Bei vollständig aufgeladenem Energiespeicher ist ein Betrieb von 47 Tagen möglich. Dies wird durch ein speziell für das Messsystem konzipiertes Lade- und Powermanagement erreicht. Neben der Auswahl von energiesparenden Komponenten für die Hardware und deren bestmöglichen Nutzung, wurde die Software so optimiert, dass das Programm schnell und stromsparend abgearbeitet wird. Die Erweiterbarkeit und Anpassung wird durch das modulare Konzept auch in anderen Bereichen gewährleistet.
Intels Software Guard Extension (SGX) ist eine Technologie, die einen umfassenden Datenschutz verspricht. SGX wurde 2013 als Softwaremodell für die isolierte Ausführung von Anwendungen veröffentlicht.
Mit Intel SGX können Container in einem geschützten Speicherbereich erstellt werden. Diese Container werden Enclave genannt. Es ist nicht möglich den Speicher-
bereich der Enclave auszulesen oder in ihn zu schreiben. Die Enclave soll Integrität und Verfügbarkeit der Daten sicherstellen, auch wenn diese auf einem nicht vertrauenswürdigen Host ausgeführt werden.
In dieser Arbeit soll zunächst ein Überblick über die Funktionsweise und das Potenzial von Intel Software Guard Extension gegeben werden. Vor allem soll analysiert werden
wie Datenbanken mit Hilfe von SGX gesichert werden können und wie groß die Performance einbüßen mit SGX sind.
Aufbauend auf den Grundlagen von Intel SGX und EnclaveDB soll anschließend eine sichere Datenbank erstellt werden. Hierzu wird EnclaveDB von Microsoft analysiert und auf Basis dieser Datenbank eine neue Datenbank erschaffen, die Daten verschlüsselt in der Datenbank speichert ohne, dass diese in Klartext vom Host ausgelesen werden können. Zum Schluss wird die Performance von EnclaveDB und der erstellten Datenbank so gut es geht verglichen.
Die ältere Bevölkerung wächst kontinuierlich an. Dadurch erhöht sich auch der Bedarf an Pflegeleistungen und Pflegepersonal stetig. Allerdings herrscht ein großer Mangel an Pflegekräften. Die vorliegende Arbeit liegt dieser Problematik zugrunde. Ein Aspekt für eine mögliche Problemlösung ist der Einsatz sozialer Roboter, zur Betreuung älterer Menschen und Unterstützung des Pflegepersonals. Ziel dieser Arbeit war es daher, die Akzeptanz älterer Menschen und dem Personal in verschiedenen Pflegeeinrichtungen gegenüber sozialen Robotern sowie gewünschte Fähigkeiten dessen zu untersuchen.
Zu diesem Zweck wurden zum einen 67 ältere Personen mithilfe eines Fragebogens zur Thematik befragt. Zum anderen wurden sieben qualitative Interviews mit Angestellten in Pflegeheimen geführt.
In this paper pathophysiological interrelated deactivation/activation phenomena are set out in the example of whiplash injury. These phenomena could have been underestimated in previous positron emission tomography studies as their focus was on hypoperfusion rather than hyperperfusion. In addition, statistical parametric mapping analysis of cerebral studies is normally not fine-tuned to special interesting areas rather than to obvious clusters of difference.
In dieser Arbeit soll untersucht werden, wie lernförderlich eine Digital Storytelling Website im Unterrichtskontext für Schülerinnen und Schüler sein kann.
Hierfür wird das Thema Bioenergiedorf verwendet, wobei die Funktionsweise anhand des real existierenden Bioenergiedorfs Untermaßholderbach mittels der zu erstellenden Digital Storytelling Website anschaulich erklärt werden soll.
Ziel der hierzu zugehörigen Ausführungen ist es, die Konzeption sowie die Umsetzung dieser Thematik innerhalb einer Digital Storytelling Website, unter Berücksichtigung entsprechender Anforderungen und Aspekte für den Unterrichtskontext, nachvollziehbar darzulegen. Hierbei sollen besonders die Gedanken zu den verschiedenen mediendidaktischen und kognitionspsychologischen Modellen hervorgehoben werden, welche der entwickelten Website zugrunde liegen.
Die vorliegende Master-Thesis befasst sich mit dem Thema Handel. In der Arbeit wird der Bereich des Multi-Channel-Handels genauer durchleuchtet. Es wird aufgezeigt, wie der Zukunft des Handels weltweit und in Deutschland aussehen wird.
Der Handel wird besonders heute sehr vom Konsumierendenverhalten beeinflusst. Unternehmen passen sich mehr als je zuvor an Wünsche und Anforderungen der Zielgruppe an. Dies ist wichtig für Handelsunternehmen um wettbewerbsfähig und profitabel zu bleiben, vor allem in einem immer aggressiver werdenden Wettbewerbskampf um Konsumierende. In dieser Arbeit wird dargestellt, wie sich die Customer Journey und der Kaufprozess der Konsumierenden verändert hat und flexibler geworden ist. Es gibt nicht mehr nur einen Weg, wie potentielle Verkaufsinteressierende zu Kundschaft wird. Die Kundschaft lässt sich nicht mehr von Unternehmen leiten, sondern möchte eigenständig und selbstbestimmt zwischen verschiedenen Absatzkanälen und Endgeräten wechseln. Daher ist ein verknüpftes Multi-Channel-System für Handelsunternehmen wichtig. In dieser Arbeit soll zudem gezeigt werden, dass die Omni-Channel-Strategie die Strategie der Zukunft ist und wie der Begriff des New Retail sowohl den Online-Handel, als auch den stationären Handel prägen wird.
Online-Handelsunternehmen wie Amazon, Alibaba und Bonprix haben bereits verstanden, dass der stationäre Handel nicht „ausstirbt“, sondern durch eine intelligente Verknüpfung mit dem Online-Handel sehr zukunftsweisend gemacht werden kann. Daher wird in dieser Arbeit auch gezeigt, wie sich pure E-Commerce-Unternehmen in den Innenstädten und Einkaufszentren in den USA, China und Deutschland ausbreiten und damit eine Omni-Channel-Strategie schaffen.
Durch den stark wachsenden Klinikcampus des Universitätsklinikums Freiburg ist die zentrale Versorgung mit medizinischem Sauerstoff an ihrer Kapazitätsgrenze angelangt. Es handelt sich um ein großflächiges, teilweise über viele Jahrzehnte altes Ringleitungssystem, an das immer wieder neue Kliniken und Institute angeschlossen wurden.
Das Ziel der vorliegenden Masterarbeit ist eine umfangreiche Untersuchung und Beurteilung von Sicherheits- und Kapazitätsparametern der zentralen medizinischen Gasversorgung. Hierzu erfolgte zunächst eine Literaturrecherche zum aktuellen Stand der Technik. Danach wurde eine Umfrage an insgesamt 14 deutschen Universitätskliniken mit ähnlicher Ringleitungstopologie durchgeführt. Es zeigte sich, dass in den meisten Fällen bisher noch keine detaillierte Analyse des eigenen Ringleitungssystems für medizinische Zwecke durchgeführt wurde.
An der Universitätsklinik Freiburg erfolgte die Analyse des Ringleitungssystems mit Hilfe der nicht-invasiven Clamp-On Messmethode für Gase. Dabei wurde als erstes festgestellt, dass die Strömungsgeschwindigkeiten innerhalb des Ringleitungssystems im Mittel so niedrig sind, dass keine Brandgefährdung vom z.B. durch die Selbstentzündung von Sauerstoff für die Klinik zu erwarten ist. Es stellte sich weiter heraus, dass für die Notversorgung der einzelnen Kliniken und Institute die Dimensionierung der Flaschenbatterien in lokalen Gasunterzentralen deutlich zu gering ist und dort nachgebessert werden sollte. Im Hinblick auf die o.g. Umfrage ist diese Masterarbeit sicher auch für andere Universitätskliniken bzw. Kliniken mit Campusinfrastruktur mit ähnlicher Ringleitungstopologie interessant.
Es wird eine Fallstudie vorgestellt, die die Visualisierung von Geschäftsdaten nach dem International Business Communication Standard IBCS (Hichert & Faisst 2016 / 2017) auf der cloudbasierten Plattform SAP Analytics Cloud umsetzt. Mit der Fallstudie soll die Frage beantwortet werden, ob IBCS im Rahmen einer Lehreinheit mit hohem praktischem Anteil mit SAP Analytics Cloud umgesetzt werden kann. Darüber hinaus soll der generelle Einsatz von SAP Analytics Cloud für die Lehre im Analytics-Umfeld evaluiert werden.
Vorgestellt wird ein Konzept zur biologischen Methanisierung von Wasserstoff direkt in Biogasreaktoren, mit dem durch Membranbegasung der Methangehalt des Biogases auf > 96 % erhöht werden kann. Essentiell zum Erreichen solch hoher Methanwerte sind die Einhaltung eines optimalen pH-Bereichs und die Vermeidung von H2-Akkumulation. Im Falle einer Limitierung der Methanbildungsrate durch den eigentlichen anaeroben Abbauprozess der Biomasse ist auch eine externe Zufuhr von CO2 zur weiteren Methanbildung denkbar. Das Verfahren soll weiter optimiert und in einem von der Deutschen Bundesstiftung Umwelt geförderten Projekt in der Biogasanlage einer regionalen Käserei in der Praxis getestet werden. Die hier angestrebte Kombination aus dezentraler Abfallverwertung und Eigenenergieerzeugung eines lebensmittelverarbeitenden Betriebs unter Einbindung in ein intelligentes Erneuerbare Energien - Konzept soll einen zusätzlichen Mehrwert liefern.