Refine
Year of publication
Document Type
- Conference Proceeding (1253)
- Article (reviewed) (687)
- Bachelor Thesis (604)
- Article (unreviewed) (566)
- Part of a Book (460)
- Contribution to a Periodical (287)
- Book (242)
- Master's Thesis (208)
- Other (142)
- Working Paper (105)
Conference Type
- Konferenzartikel (950)
- Konferenz-Abstract (156)
- Konferenzband (77)
- Sonstiges (42)
- Konferenz-Poster (32)
Language
- German (2867)
- English (1981)
- Other language (5)
- Russian (3)
- Multiple languages (2)
- French (1)
- Spanish (1)
Keywords
- Mikroelektronik (62)
- Digitalisierung (48)
- Marketing (47)
- Social Media (40)
- COVID-19 (37)
- E-Learning (35)
- RoboCup (33)
- Kommunikation (32)
- Künstliche Intelligenz (32)
- Dünnschichtchromatographie (29)
Institute
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (1118)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (1103)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (917)
- Fakultät Wirtschaft (W) (650)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (565)
- Fakultät Medien (M) (ab 22.04.2021) (384)
- INES - Institut für nachhaltige Energiesysteme (245)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (161)
- Zentrale Einrichtungen (81)
- IMLA - Institute for Machine Learning and Analytics (79)
Open Access
- Closed Access (1708)
- Open Access (1693)
- Closed (756)
- Bronze (345)
- Diamond (92)
- Gold (77)
- Hybrid (50)
- Grün (16)
In this contribution, we present a novel 3D printed multi-material, electromagnetic vibration harvester. The harvester is based on a cantilever design and utilizes an embedded constantan wire within a matrix of polyethylene terephthalate glycol (PETG). A prototype has been manufactured with a combination of a fused filament fabrication (FFF) printer and a robot with a custom-made tool.
3D printing offers customisation capabilities regarding suspensions for oscillators of vibration energy harvesters. Adjusting printing parameters or geometry allows to influence dynamic properties like resonance frequency or bandwidth of the oscillator. This paper presents simulation results and measurements for a spiral shaped suspension printed with polylactic acid (PLA) and different layer heights. Eigenfrequencies have been simulated and measured and damping ratios have been experimentally determined.
We present a novel approach that utilizes BLE packets sent from generic BLE capable radios to synthesize an FSK-(like) addressable wake-up packet. A wake-up receiver system was developed from off-the-shelf components to detect these packets. It makes use of two differential signal paths separated by passive band-pass filters. After the rectification of each channel a differential amplifier compares the signals and the resulting wake-up signal is evaluated by an AS3933 wake-up receiver IC. Overall, the combination of these techniques contributes to a BLE compatible wake-up system which is more robust than traditional OOK wake-up systems. Thus, increasing wake-up range, while still maintaining a low energy budget. The proof-of-concept setup achieved a sensitivity of -47.8 dBm at a power consumption of 18.5 uW during passive listening. The system has a latency of 31.8 ms with a symbol rate of 1437 Baud.
This work compares the performance of Bluetooth Mesh implementations on real chipsets against the ideal implementation of the specification. Measurements are taken in experimental settings and reveal non-idealities in the underlying Bluetooth Low Energy specification in real chipsets and in the implementation of Mesh, which introduces an unruly transmission as well as reception behavior. These effects lead to an impact on transmission rate, reception rate, latency, as well as a more significant impact on the average power consumption.
A novel Bluetooth Low Energy advertising scan algorithm is presented for hybrid radios that are additionally capable to measure energy on Bluetooth channels, e.g. as they would need to be compliant with IEEE 802.15.4. Scanners applying this algorithm can achieve a low latency whilst consuming only a fraction of the power that existing mechanisms can achieve at a similar latency. Furthermore, the power consumption can scale with the incoming network traffic and in contrast to the existing mechanisms, scanners can operate without any frame loss given ideal network conditions. The algorithm does not require any changes to advertisers, hence, stays compatible with existing devices. Performance evaluated via simulation and experiments on real hardware shows a 37 percent lower power consumption compared to the best existing scan setting while even achieving a slightly lower latency which proves that this algorithm can be used to improve the quality of service of connection-less Bluetooth communication or reduce the connection establishment time of connection-oriented communication.
Neural networks have a number of shortcomings. Amongst the severest ones is the sensitivity to distribution shifts which allows models to be easily fooled into wrong predictions by small perturbations to inputs that are often imperceivable to humans and do not have to carry semantic meaning. Adversarial training poses a partial solution to address this issue by training models on worst-case perturbations. Yet, recent work has also pointed out that the reasoning in neural networks is different from humans. Humans identify objects by shape, while neural nets mainly employ texture cues. Exemplarily, a model trained on photographs will likely fail to generalize to datasets containing sketches. Interestingly, it was also shown that adversarial training seems to favorably increase the shift toward shape bias. In this work, we revisit this observation and provide an extensive analysis of this effect on various architectures, the common L_2-and L_-training, and Transformer-based models. Further, we provide a possible explanation for this phenomenon from a frequency perspective.
Assessing the robustness of deep neural networks against out-of-distribution inputs is crucial, especially in safety-critical domains like autonomous driving, but also in safety systems where malicious actors can digitally alter inputs to circumvent safety guards. However, designing effective out-of-distribution tests that encompass all possible scenarios while preserving accurate label information is a challenging task. Existing methodologies often entail a compromise between variety and constraint levels for attacks and sometimes even both. In a first step towards a more holistic robustness evaluation of image classification models, we introduce an attack method based on image solarization that is conceptually straightforward yet avoids jeopardizing the global structure of natural images independent of the intensity. Through comprehensive evaluations of multiple ImageNet models, we demonstrate the attack's capacity to degrade accuracy significantly, provided it is not integrated into the training augmentations. Interestingly, even then, no full immunity to accuracy deterioration is achieved. In other settings, the attack can often be simplified into a black-box attack with model-independent parameters. Defenses against other corruptions do not consistently extend to be effective against our specific attack.
Project website: https://github.com/paulgavrikov/adversarial_solarization
Following the traditional paradigm of convolutional neural networks (CNNs), modern CNNs manage to keep pace with more recent, for example transformer-based, models by not only increasing model depth and width but also the kernel size. This results in large amounts of learnable model parameters that need to be handled during training. While following the convolutional paradigm with the according spatial inductive bias, we question the significance of \emph{learned} convolution filters. In fact, our findings demonstrate that many contemporary CNN architectures can achieve high test accuracies without ever updating randomly initialized (spatial) convolution filters. Instead, simple linear combinations (implemented through efficient 1×1 convolutions) suffice to effectively recombine even random filters into expressive network operators. Furthermore, these combinations of random filters can implicitly regularize the resulting operations, mitigating overfitting and enhancing overall performance and robustness. Conversely, retaining the ability to learn filter updates can impair network performance. Lastly, although we only observe relatively small gains from learning 3×3 convolutions, the learning gains increase proportionally with kernel size, owing to the non-idealities of the independent and identically distributed (\textit{i.i.d.}) nature of default initialization techniques.
Modern CNNs are learning the weights of vast numbers of convolutional operators. In this paper, we raise the fundamental question if this is actually necessary. We show that even in the extreme case of only randomly initializing and never updating spatial filters, certain CNN architectures can be trained to surpass the accuracy of standard training. By reinterpreting the notion of pointwise ($1\times 1$) convolutions as an operator to learn linear combinations (LC) of frozen (random) spatial filters, we are able to analyze these effects and propose a generic LC convolution block that allows tuning of the linear combination rate. Empirically, we show that this approach not only allows us to reach high test accuracies on CIFAR and ImageNet but also has favorable properties regarding model robustness, generalization, sparsity, and the total number of necessary weights. Additionally, we propose a novel weight sharing mechanism, which allows sharing of a single weight tensor between all spatial convolution layers to massively reduce the number of weights.
It is common practice to apply padding prior to convolution operations to preserve the resolution of feature-maps in Convolutional Neural Networks (CNN). While many alternatives exist, this is often achieved by adding a border of zeros around the inputs. In this work, we show that adversarial attacks often result in perturbation anomalies at the image boundaries, which are the areas where padding is used. Consequently, we aim to provide an analysis of the interplay between padding and adversarial attacks and seek an answer to the question of how different padding modes (or their absence) affect adversarial robustness in various scenarios.
Currently, many theoretical as well as practically relevant questions towards the transferability and robustness of Convolutional Neural Networks (CNNs) remain unsolved. While ongoing research efforts are engaging these problems from various angles, in most computer vision related cases these approaches can be generalized to investigations of the effects of distribution shifts in image data. In this context, we propose to study the shifts in the learned weights of trained CNN models. Here we focus on the properties of the distributions of dominantly used 3×3 convolution filter kernels. We collected and publicly provide a dataset with over 1.4 billion filters from hundreds of trained CNNs, using a wide range of datasets, architectures, and vision tasks. In a first use case of the proposed dataset, we can show highly relevant properties of many publicly available pre-trained models for practical applications: I) We analyze distribution shifts (or the lack thereof) between trained filters along different axes of meta-parameters, like visual category of the dataset, task, architecture, or layer depth. Based on these results, we conclude that model pre-training can succeed on arbitrary datasets if they meet size and variance conditions. II) We show that many pre-trained models contain degenerated filters which make them less robust and less suitable for fine-tuning on target applications. Data & Project website: https://github.com/paulgavrikov/cnn-filter-db.
Deep learning models are intrinsically sensitive to distribution shifts in the input data. In particular, small, barely perceivable perturbations to the input data can force models to make wrong predictions with high confidence. An common defense mechanism is regularization through adversarial training which injects worst-case perturbations back into training to strengthen the decision boundaries, and to reduce overfitting. In this context, we perform an investigation of 3 × 3 convolution filters that form in adversarially- trained models. Filters are extracted from 71 public models of the ℓ ∞ -RobustBench CIFAR-10/100 and ImageNet1k leaderboard and compared to filters extracted from models built on the same architectures but trained without robust regularization. We observe that adversarially-robust models appear to form more diverse, less sparse, and more orthogonal convolution filters than their normal counterparts. The largest differences between robust and normal models are found in the deepest layers, and the very first convolution layer, which consistently and predominantly forms filters that can partially eliminate perturbations, irrespective of the architecture.
Recent work has investigated the distributions of learned convolution filters through a large-scale study containing hundreds of heterogeneous image models. Surprisingly, on average, the distributions only show minor drifts in comparisons of various studied dimensions including the learned task, image domain, or dataset. However, among the studied image domains, medical imaging models appeared to show significant outliers through "spikey" distributions, and, therefore, learn clusters of highly specific filters different from other domains. Following this observation, we study the collected medical imaging models in more detail. We show that instead of fundamental differences, the outliers are due to specific processing in some architectures. Quite the contrary, for standardized architectures, we find that models trained on medical data do not significantly differ in their filter distributions from similar architectures trained on data from other domains. Our conclusions reinforce previous hypotheses stating that pre-training of imaging models can be done with any kind of diverse image data.
An Empirical Investigation of Model-to-Model Distribution Shifts in Trained Convolutional Filters
(2021)
We present first empirical results from our ongoing investigation of distribution shifts in image data used for various computer vision tasks. Instead of analyzing the original training and test data, we propose to study shifts in the learned weights of trained models. In this work, we focus on the properties of the distributions of dominantly used 3x3 convolution filter kernels. We collected and publicly provide a data set with over half a billion filters from hundreds of trained CNNs, using a wide range of data sets, architectures, and vision tasks. Our analysis shows interesting distribution shifts (or the lack thereof) between trained filters along different axes of meta-parameters, like data type, task, architecture, or layer depth. We argue, that the observed properties are a valuable source for further investigation into a better understanding of the impact of shifts in the input data to the generalization abilities of CNN models and novel methods for more robust transfer-learning in this domain.
Conversion-Killer in Onlineshops - Identifikation von Kundenorientierung anhand von Mimikindikatoren
(2018)
Mimik als Ausdrucksform von Emotionen ist, seitdem es die Menschheit gibt, ein zentrales Verständigungsmittel in der Kommunikation. Da das Gegenüber in der Interaktion heute in vielen Situationen des täglichen Lebens eine Maschine ist, wäre es vorstellbar, dass die Mimik als Emotionsträger und Kommunikationsmittel seine Bedeutung verliert. Dies ist ein Irrtum: In der vorliegenden Untersuchung wird im Rahmen einer umfassenden Studie festgestellt, dass Mimik von der menschlichen Kommunikation schwer trennbar ist und auch in der Interaktion mit Maschinen unvermindert auftritt. Diese Erkenntnis kann Unternehmen helfen, den Mensch-Maschine-Dialog genau zu analysieren, um erfolgsmindernde Kundenirritationen zu eliminieren und die Abläufe optimal auf die Bedürfnisse der Nutzer anpassen zu können.
Entscheidungsfindung: Die Rolle der Kundenemotionen – Was Mimik über Emotion und Entscheidung verrät
(2018)
Emotionale Reaktionen von Nutzern auf Stimuli einer interaktiven Anwendung gelten als zentrale Indikatoren für positive oder negative User Experience. Oliver Gasts Untersuchung stellt ein Verfahren vor, das die Messung und Interpretation der Emotionen bei der Nutzung interaktiver Anwendungen ermöglicht. Denn der Erfolg von webbasierten Applikationen, wie z. B. Online-Shops, hängt in sehr hohem Maße von der Erfüllung der Erwartungen des einzelnen Nutzers ab. Mit den Ergebnissen seiner Untersuchung hat der Autor ein Modell erstellt und evaluiert, welches die relevanten Indikatoren für Mimik basierte Emotionsbewertung umfassend aufzeigt.
Instagram-Marketing: Erfolgsfaktoren und Handlungsempfehlungen am Beispiel der Kosmetikindustrie
(2015)
Das Ziel dieser Arbeit lag darin, Faktoren, die den Erfolg eines Instagram-Auftritts von Kosmetik produzierenden oder vertreibenden Unternehmen aus dem deutsch-sprachigen Raum steigern, zu ermitteln und auf Grundlage der Ergebnisse Handlungs-empfehlungen auszusprechen. Im Zuge dessen wurden sieben qualitative Befragungen von Experten durchgeführt und anschließend mit Hilfe der zusammen-fassenden Inhaltsanalyse nach Mayring ausgewertet. Aus der empirischen Studie geht hervor, dass Instagram bereits jetzt eine große Rolle im Social-Media-Mix einnimmt und Unternehmen primär Ziele des Brandings und der Markenrepräsentation auf Instagram verfolgen. Desweiteren konnten mit Hilfe der leitfadengestützten Experteninterviews 15 Faktoren identifiziert werden, die positiven Einfluss auf das Instagram-Marketing ausüben: Persönlichkeit, Qualität, Authentizität, Aktualität, Kanalmix, Hashtags, Videos, die Verknüpfung mit anderen Unternehmensbereichen, Transparenz, Relevanz, Influencer-Relations, Community, Bestätigung und Management. Als am bedeutend-sten haben sich die Punkte Persönlichkeit, Qualität und Relevanz gezeigt: Marken stehen demnach vor der Herausforderung, ästhetische, zielgruppenrelevante Inhalte, die an die Eigenheiten Instagrams als Plattform angepasst sind, zu veröffentlichen und auf Augenhöhe mit den Nutzern zu kommunizieren, ohne sich selbst als Marke zu verlieren. Ferner führte die Expertenbefragung zu der Erkenntnis, dass Instagram sowohl als Community als auch als Marketing-Tool weiterhin an Bedeutung gewinnen wird, vor allem im deutschen Raum und in der Beauty-Branche.
The Project "Schluckspecht" of the University of Offenburg consists of participating in the European marathon called "Shell Eco-Marathon"(SEM) which consists of designing and building from the beginning a vehicle with the greatest possible energy efficiency. The University of Offenburg has participated in this project since 1998.
The team that forms the Schluckspecht project is made up of around 30 students from the faculties of mechanical engineering, process engineering, electrical engineering, medical technology and computer science, as well as the degree in Audiovisual Communication. The team was founded in 1998 and since then students have been developing and building high efficiency vehicles to participate in the European marathon Shell Eco.
In this project, students can put into practice all the theoretical knowledge obtained during their studies. Also can be learned how to work interdisciplinarity as a team, a skill that for now, many companies or require or seek.
The following topics are discussed in the Schluckspecht project, which are also ideal for the work of students:
-Conception construction and production of high efficiency vehicles.
-Computational design and manufacture of lightweight components and sets.
-Development of lightweight components and sets from renewable raw materials.
-Construction and development of special test benches, for example: motor test bench.
-Implementation and optimization of control strategies for autonomous driving
-Mechanical and electrical integration of sensors for autonomous driving
-Ergonomic studies and optimization of the driver's cabin.
The objective of the project is to develop and manufacture research vehicles that make individual mobility as efficient as possible from an energy point of view. To achieve this, current and future issues of the industry are discussed. In this project, both the theoretical and practical part of the light construction of vehicles and the reduction of friction, the variety of propulsion concepts (electric thrusters, fuel cells, diesel/petrol engines, Stirling engines) and autonomous driving are investigated. The services of the University of Offenburg together with some external partners are grouped together to make this wonderful project work.
Surface treatment intensity monitoring is still an open and challenging nondestructive testing problem. For the estimation of residual stress with ultrasonic measurements, local linear and nonlinear elastic constants are needed as input. In this paper, nonlinear elastic-wave interactions (also called wave mixing or scattering) — namely, the generation of secondary ultrasonic waves in a nonlinear medium — are considered as a prospective means for near-surface nonlinear elastic parameter evaluation. The allowed interactions between bulk and surface waves, as well as the dependence of the scattering efficiency on the frequency and angle between source waves, were investigated through an analytical model, then compared with FEM simulations and experimental results. Finally, possible future steps for the development of the applied methods for the determination of near-surface higher-order elastic constants are discussed. In addition, several problem-relevant data processing procedures are presented.
Existing ultrasonic stress evaluation methods utilize the acoustoelastic effect for bulk waves propagating in volume, which is unsuitable for a surface treated material, possessing a significant variation in material properties with depth. With knowledge of nonlinear elastic parameters – third-order elastic constants (TOEC) close to the surface of the sample, the acoustoelastic effect might be used with surface acoustic waves. This work is focused on the development of an independent method of TOEC measurement using the effect of nonlinear surface acoustic waves scattering – i.e. the effect of elastic waves interaction in a nonlinear medium.
In this paper, the possible three wave interactions of surface guided waves and bulk waves are described and formulae for the efficiency of harmonic generation and mode mixing are derived. A comparison of the efficiency of surface waves scattering in an isotropic medium for different interaction types is carried out with the help of nonlinear perturbation theory. First results for surface and bulk wave mixing with known second- and third-order elastic constants are shown.
Ziel dieser wissenschaftlichen Arbeit war es, mit Hilfe einer Studie zu untersuchen, ob mit der am Vorfuß des Schuhs gebogenen Form positiver Einfluss auf die Biomechanik beim Laufen genommen werden kann. Nach Durchführung der markerbasierten Bewegungsana- lyse sowie einer Kraftmessung mittels instrumentiertem Laufband wurden hierzu über die Berechnungen der inversen Dynamik jeweils sowohl die Kinematik als auch die Kinetik der rechten unteren Extremität in der sagittalen Ebene ermittelt.
Sechzehn Versuchspersonen (25,3 ± 2,2 Jahre) absolvierten jeweils eine Laufeinheit von etwa 20 Sekunden Dauer in der Ebene mit einer flachen sowie mit einer am Vorfuß ge- bogenen Carbonfaser-Platte. Die gewählte Laufgeschwindigkeit betrug unabhängig der Bedingung 3,5 m/s. Letztlich konnte am Zehengrundgelenk ein Formeffekt betrachtet werden, wohingegen am Sprunggelenk eine Signifikanz dieses Effekts ausblieb. So war die Kinematik des Zehengrundgelenks in Form einer Reduktion der maximalen Dorsalflexi- on entlang der Stützphase bedeutsam durch die gebogene Form am Vorfuß beeinflusst. Ebenso wurden sowohl das maximale Plantarflexion-Moment als auch die generierte sowie absorbierte Leistung an diesem Gelenk während des Bodenkontaktes bedeutsam reduziert.
Aufgrund der vorliegenden Messergebnisse und des aktuellen Forschungsstandes wurde davon ausgegangen, dass die Reduktion der mechanischen Anforderungen am Zehengrund- gelenk in erster Linie infolge geringerer externer Hebelarme herbeigeführt werden konnten. Im Zusammenhang mit dem reduzierten Netto-Energieverlust wurde schließlich ein gerin- geres aktives Muskelvolumen der intrinsischen Fußmuskulatur vermutet. In Anbetracht des am Sprunggelenk ausgebliebenen Formeffekts deuteten die Daten demgegenüber jedoch nicht auf geringere Anforderungen dieses Gelenks infolge der gebogenen Form am Vorfuß hin. Diesbezüglich wurde vermutet, dass womöglich individuelle Antworten auf die Geome- trie der Mittelsohle in Form von einem aktiveren Abstoßen der Reduktion des externen Hebelarms entgegenwirkten.Nichtsdestotrotz deuteten die erhobenen Daten letztlich auf die Unterstützung der Vorteile einer erhöhten Biegesteifigkeit sowie in Teilen auf einen Ausbau dieser Effekte durch die Geometrie am Vorfuß hin.
Oxide semiconductors are highly promising candidates for the most awaited, next-generation electronics, namely, printed electronics. As a fabrication route for the solution-processed/printed oxide semiconductors, photonic curing is becoming increasingly popular, as compared to the conventional thermal curing method; the former offers numerous advantages over the latter, such as low process temperatures and short exposure time and thereby, high throughput compatibility. Here, using dissimilar photonic curing concepts (UV–visible light and UV-laser), we demonstrate facile fabrication of high performance In2O3 field-effect transistors (FETs). Beside the processing related issues (temperature, time etc.), the other known limitation of oxide electronics is the lack of high performance p-type semiconductors, which can be bypassed using unipolar logics from high mobility n-type semiconductors alone. Interestingly, here we have found that our chosen distinct photonic curing methods can offer a large variation in threshold voltage, when they are fabricated from the same precursor ink. Consequently, both depletion and enhancement-mode devices have been achieved which can be used as the pull-up and pull-down transistors in unipolar inverters. The present device fabrication recipe demonstrates fast processing of low operation voltage, high performance FETs with large threshold voltage tunability.
Diese Arbeit beschäftigt sich mit der Biomechanik der Halswirbelsäule (HWS) beim Umgang mit dem Smartphone. Die Kräfte, die auf Wirbelkörper, Wirbelgelenke, Bandscheiben, Muskeln und Bänder wirken, werden mit steigendem Flexionswinkel der HWS größer. Die Beschwerden hingegen, welche der Smartphone-Nacken hervorruft, sind meist akut und mit regelmäßiger Bewegung und der Stärkung der Nackenmuskulatur gut zu behandeln. Eine Therapie ist somit auch zur Vorbeugung geeignet. Doch die Langzeitauswirkungen sind nicht außer Acht zu lassen, denn durch die steigenden Nutzungsmöglichkeiten der Smartphones steigt auch der durchschnittliche tägliche Gebrauch stärker an. So wird vor allem die tägliche Bildschirmzeit bei Jugendlichen immer länger. Das aktuell noch akute Krankheitsbild des Smartphone-Nackens, das nur selten einen chronischen Verlauf nimmt und Langzeitschäden verursacht, könnte sich durch fehlende oder zu späte Maßnahmen zu einem größeren chronischen Krankheitsbild entwickeln.
Die Erfindung betrifft eine Vorrichtung mit deren Hilfe ein Gas, vorzugsweise Luft, erwärmt und dem Gas Feuchtigkeit und Schadstoffpartikel entzogen werden können. Die vorliegende Erfindung betrifft auch eine Speicherpatrone zum Speichern von thermischer Energie, die in einer erfindungsgemäßen Vorrichtung verwendet werden kann. Weiterhin betrifft die vorliegende Erfindung auch die Verwendung der erfindungsgemäßen Vorrichtung bzw. der erfindungsgemäßen Speicherpatrone zum Erwärmen von Gas oder zum Entfernen von Feuchtigkeit aus einem Gas. Ein Verfahren zum Erwärmen von Gas bzw. dem Entfernen von Feuchtigkeit aus einem Gas sowie ein Verfahren zum Regenerieren einer entladenen erfindungsgemäßen Speicherpatrone sind ebenso Gegenstand der vorliegenden Erfindung.
This thesis deals with the creation of a cross-platform application using Xamarin.Forms. The cross-platform application will cover three different platforms android, iOS, and UWP.
The application is the first concept of a possible feature for a companion application for LS telcom. There, the user can identify cell antennas using a map-view and a camera-view making the application an augmented reality application. Thus, the user can search for a specific cell and access various information that he would not be able to see with his eyes like for example the frequency of the transmitting cells.
The cell data is generated from three different sources, Cartoradio, OpenCelliD, and the LS telcom databrowser. Eventually, the decision was taken, that the main source should be the LS telcom databrowser which has multiple advantages over the other cell sources.
The cells on the map-view are placed using the extracted coordinates from the source data. However, the cells on the camera-view are placed with complex calculations using different formulas like the Haversine formula to calculate the distance between the cell and the user and the bearing to calculate the angle between the cell and the user. Various settings will allow the user to personalize the application according to his wishes.
Die vorliegende Bachelorarbeit behandelt das Thema „Attraktivität des Offenburger Weihnachtsmarktes als Event im Stadtmarketing“. Im ersten Teil werden Grundbegriffe und Konzepte vorgestellt und erläutert, warum Weihnachtsmärkte ein wichtiger Teil des Stadtmarketing sind. In Kooperation mit dem Stadtmarketing Offenburg wurde eine Befragung durchgeführt, um die Attraktivität des Offenburger Weihnachtsmarktes zu evaluieren. Schwerpunkte der Befragung waren Besuchsmodalitäten, Angebotsattraktivität, Aktionsräumliches Verhalten sowie Einzugsgebiet und soziodemografisches Profil der Besucher. Die Ergebnisse daraus werden im zweiten Teil der Arbeit vorgestellt. Im dritten Teil werden abschließend Empfehlungen und Ideen entwickelt, wie die Attraktivität des Offenburger Weihnachtsmarktes als Event im Stadtmarketing weiterhin auf hohem Niveau gehalten werden kann.
The instability of ultra-thin films of an electrolyte bordering a dielectric gas in an external tangential electric field is scrutinized. The solid wall is assumed to be either a conducting or charged dielectric surface. The problem has a steady one-dimensional solution. The theoretical results for a plug-like velocity profile are successfully compared with available experimental data. The linear stability of the steady-state flow is investigated analytically and numerically. Asymptotic long-wave expansion has a triple-zero singularity for a dielectric wall and a quadruple-zero singularity for a conducting wall, and four (for a conducting wall) or three (for a charged dielectric wall) different eigenfunctions. For infinitely small wave numbers, these eigenfunctions have a clear physical meaning: perturbations of the film thickness, of the surface charge, of the bulk conductivity, and of the bulk charge. The numerical analysis provides an important result: the appearance of a strong short-wave instability. At increasing Debye numbers, the short-wave instability region becomes isolated and eventually disappears. For infinitely large Weber numbers, the long-wave instability disappears, while the short-wave instability persists. The linear stability analysis is complemented by a nonlinear direct numerical simulation. The perturbations evolve into coherent structures; for a relatively small external electric field, these are large-amplitude surface solitary pulses, while for a sufficiently strong electric field, these are short-wave inner coherent structures, which do not disturb the surface.
Currently, immersive technologies are enjoying great popularity. This trend is reflected in technological advances and the emergence of new products for the mass market, such as augmented reality glasses. The range of applications for immersive technologies is growing with more efficient and affordable technologies and student adoption. Especially in education, the use will improve existing learning methods. Immersive application use visual, audio and haptic sensors to fully engage the user in a virtual environment. This impression is reinforced with the help of realistic visualizations and the opportunity for interaction. In particular, Augmented reality is characterized by a high degree of integration between reality and the inserted virtual objects. An augmented interactive simulation for the determination of the specific charge of an electron will be used as an example to demonstrate how such immersion can be created for users. A virtual Helmholtz coil is used to measure and calculate the e/m constant. The voltage at the cathode for generating the electron beam, but also the voltage of the homogeneous magnetic field for deflecting the electron beam, can be variably controlled by haptic user input. Based on these voltages, an immersive virtual electron beam is calculated and visualized. In this paper, the authors present the conceptual steps of this immersive application and address the challenges associated with designing and developing an augmented and interactive simulation.
The paper describes the implementation of practical laboratory settings in a virtual environment. With the entry of VR glasses into the mass market, there is a chance to establish educational and training applications for displaying some teaching materials and practical works. Therefore our project focuses on the realization of virtual experiments and environments, which gives users a deep insight into selected subfields of Optics and Photonics. Our goal is not to substitute the hand on experiments rather to extend them. By means of VR glasses, the user is offered the possibility to view the experiment from several angles and to make changes through interactive control functions. During the VR application, additional context-related information is displayed. By using object recognition, the specific graphics and texts for the respective object are loaded and supplemented at the appropriate place. Thus, complex facts are supported in an informative way. The prototype is developed using the Unity Engine and can thus be exported to different platforms and end devices. Another major advantage of virtual simulations to the real situation is the high degree of controllability as well as the easy repeatability. With slight modifications, entire experiments can be reused. Our research aims to acquire new knowledge in the field of e-learning in association with VR technology. Here we try to answer a core question of the compatibility of the individual media components.
Die Digitalisierung der Hochschullehre schreitet aktuell weiter voran. Mit dem Beginn der Corona-Pandemie und den Einschränkungen im öffentlichen Raum sind Studierende als auch Lehrende auf alternative Lehrmethoden angewiesen.
Das Ziel der vorliegenden Arbeit ist es, zu beantworten, inwiefern eine E-Lerning Anwendung unter Verwendung von Gamification Elementen realisiert werden kann. Zur Konzeption und Programmierung eines Prototypen und zur Generierung und Aufbereitung von Lehrinhalten unter Berücksichtigung mediendidaktischer Aspekte, wurde einen Laborversuch aus dem Bereich der Elektrotechnik zurückgegriffen. Zur Extraktion der Informationen wurden die Component Display Theorie und die Elaborationstheorie genutzt.
Anhand der gesammelten Lehrinhalte wurden mithilfe des Octalysis-Frameworks passende Gamification Elemente gewählt. Insbesondere wurden hier die positiven Motivatoren gewählt, in Kombination mit einem ausgewogenen Verhältnis zwischen intrinsischen und extrinsischen Antrieben.
Im Bereich der Schaltungsssimulation wurde auf das Open Source Projekt Spice-Sharp zugegriffen, welches auf der SPICE Bibliothek basiert.
Abschließend wurde die Unity Engine für die Realisierung des Prototyps verwendet. Mit diesem wird ein Grundlagenversuch aus der Elektrotechnik simuliert.
Als deutliche Erkenntnis zeigt sich, dass das Octalysis-Framework sinnvolle Spielelemente im Zusammenhang mit einer E-Learning Anwendung liefert.
Eine weitergehende Forschung im Bereich der Gamification von Simulationssoftware könnte mit einer Evaluation der vorgeschlagenen Spielelemente problemlos fortgeführt werden.
Licht war für die Menschheit schon immer ein Hilfsmittel zur Orientierung. Das Zusammenspiel zwischen hellen und schattierten Oberflächen macht eine räumliche Wahrnehmung erst möglich. Die Lokalisierung von Lichtquellen bietet darüber hinaus für zahlreiche Anwendungsfelder, wie beispielsweise Augmented Reality, ein großes Potential.
Das Ziel der vorliegenden Arbeit war es, ein neuronales Netzwerk zu entwickeln, welches mit Hilfe eines selbst generierten, synthetischen Datensatzes eine Lichtsetzung parametrisiert. Dafür wurden State-of-the-Art Netzwerke aus der digitalen Bildverarbeitung eingesetzt.
Zu Beginn der Arbeit mussten die Eigenschaften der Lichtsetzung extrahiert werden. Eine weitere fundamentale Anforderung war die Aufbereitung des Wissens von Deep Learning.
Für die Generierung des synthetischen Datensatzes wurde eigens ein Framework entwickelt, welches auf der Blender Engine basiert.
Anschließend wurden die generierten Bilder und Metadaten in einem abgewandelten VGG16- und ResNet50-Netz trainiert, validiert und evaluiert.
Eine gewonnene Erkenntnis ist, dass sich künstlich generierte Daten eignen um ein neuronales Netz zu trainieren. Des Weiteren konnte gezeigt werden, dass sich mit Hilfe von Deep Learning Lichtsetzungsparameter extrahieren lassen.
Eine weiterführende Forschungsaufgabe könnte mit dem vorgeschlagenen Ansatzdie Lichtinszenierung von Augmented Reality Anwendungen verbessern.
The aim of this study is to identify indicators at country level that could prove useful in improving the effectiveness of fraud detection in European Structural and Investment Funds. The chapter analyses EU funds, belonging to the period 2014–2020, from and the study suggests the convenience of tracking funds, especially in countries with higher GDP and higher transparency levels, and the lesser relevance of the number of irregularities for countries with higher GDP and those receiving larger funds. Fraud and fraud detection rates in individual funds vary significantly across states. Federal states, such as the Federal Republic of Germany, are comparatively successful in detecting fraud in EU funds.
Ziel dieser Arbeit war die Konzeption und Gestaltung einer Unboxing Experience für ein E-Commerce Startup im Bereich der gehobenen Convenience Food Branche unter Berücksichtigung der zu erreichenden Unternehmensziele und der fokussierten Zielgruppe des Unternehmens. Hierfür wurde zunächst der Begriff Unboxing im Kontext von Marketing und Onlinehandel sowie die Bedeutung verwandter Trends wie des Unboxing-Videos erörtert. Anschließend wurden das Unternehmen und die relevante Zielgruppe in Form von Personas vorgestellt. Durch die konkrete Definition der vorgegebenen Unternehmensziele konnte auch die spätere Gestaltung hierauf aufbauen. Schließlich wurden bereits vorhandene Best Practices recherchiert und analysiert, um Ideen und Anhaltspunkte zu schaffen. Die Konzeption ist in die einzelnen Gestaltungsgegenstände und deren schrittweise Ausarbeitung unterteilt. Das Ergebnis soll eine ästhetisch ansprechende und das Unternehmen widerspiegelnde Unboxing Experience sein, bestehend aus einem bedruckten Versandkarton, einer Produktbroschüre und einer Dankes- bzw. Grußkarte in zwei verschiedenen Ausführungen. Jede Komponente erfüllt hierbei einen Zweck im Unternehmenskontext. Insgesamt konnte aus den drei Einzelkomponenten eine in der Gesamtkomposition ansprechende Unboxing Experience geschaffen werden, die die Hochwertigkeit der Produkte unterstreicht und das Auspacken zu einem Erlebnis macht.
Privacy is the capacity to keep some things private despite their social repercussions. It relates to a person’s capacity to control the amount, time, and circumstances under which they disclose sensitive personal information, such as a person’s physiology, psychology, or intelligence. In the age of data exploitation, privacy has become even more crucial. Our privacy is now more threatened than it was 20 years ago, outside of science and technology, due to the way data and technology highly used. Both the kinds and amounts of information about us and the methods for tracking and identifying us have grown a lot in recent years. It is a known security concern that human and machine systems face privacy threats. There are various disagreements over privacy and security; every person and group has a unique perspective on how the two are related. Even though 79% of the study’s results showed that legal or compliance issues were more important, 53% of the survey team thought that privacy and security were two separate things. Data security and privacy are interconnected, despite their distinctions. Data security and data privacy are linked with each other; both are necessary for the other to exist. Data may be physically kept anywhere, on our computers or in the cloud, but only humans have authority over it. Machine learning has been used to solve the problem for our easy solution. We are linked to our data. Protect against attackers by protecting data, which also protects privacy. Attackers commonly utilize both mechanical systems and social engineering techniques to enter a target network. The vulnerability of this form of attack rests not only in the technology but also in the human users, making it extremely difficult to fight against. The best option to secure privacy is to combine humans and machines in the form of a Human Firewall and a Machine Firewall. A cryptographic route like Tor is a superior choice for discouraging attackers from trying to access our system and protecting the privacy of our data There is a case study of privacy and security issues in this thesis. The problems and different kinds of attacks on people and machines will then be briefly talked about. We will explain how Human Firewalls and machine learning on the Tor network protect our privacy from attacks such as social engineering and attacks on mechanical systems. As a real-world test, we will use genomic data to try out a privacy attack called the Membership Inference Attack (MIA). We’ll show Machine Firewall as a way to protect ourselves, and then we’ll use Differential Privacy (DP), which has already been done. We applied the method of Lasso and convolutional neural networks (CNN), which are both popular machine learning models, as the target models. Our findings demonstrate a logarithmic link between the desired model accuracy and the privacy budget.
3D Produktpräsentationen im Internet sind komplexe Rich Media Anwendungen, bei deren Erstellung es viel zu beachten gilt. Diese Arbeit beleuchtet verschiedene Aspekte zur Erstellung von 3D Produktpräsentationen. Das Zielmedium Internet, die Gestaltung von 3D Produkten und Layouts, die Interaktivität von 3D Produktseiten, Technologien zu Erstellung, technische Hürden des Mediums, Visionen und ein Projektablauf sowie eine Perspektive zur Entwicklung von 3D Produktpräsentationen sind die inhaltlichen Schwerpunkte der Arbeit.
Die freie Software OpenSSH erlaubt den sicheren Fernzugriff auf entfernte Rechner über das Netzwerk oder Internet und kommt auf vielen Linux-Rechnern zum Einsatz. OpenSSH ermöglicht verschiedene Wege der Authentifizierung, unter anderem mit Hilfe von asymmetrischen Schlüsseln. Im Standardfall existiert hierbei für jedes Nutzerkonto auf dem Zielrechner eine Datei mit den public-Keys der zugriffsberechtigten Nutzer, welche manuell gepflegt wird. Diese Art der Zugriffskontrolle wird jedoch schnell unübersichtlich, sobald viele Mitarbeiter auf viele Server zugreifen dürfen. Um den Überblick über zugriffsberechtigte Nutzer zu behalten, ist es deshalb notwendig, zur Verwaltung eine zusätzliche Software einzusetzen. Im Rahmen dieser Arbeit soll eine solche Verwaltungssoftware konzipiert werden. Nach einer Analyse bestehender Systeme werden die Gründe für die Wahl eines der Tools dargestellt sowie die anschließende Weiterentwicklung der gewählten Software dokumentiert.
Eine reine Passwortauthentifizierung, wie sie im Hochschulumfeld eingesetzt wird, bringt Sicherheitsrisiken mit sich. Ziel dieser Arbeit ist es zu analysieren, wie die Sicherheit in der Praxis mittels einer Zwei-Faktor-Authentifizierung erhöht werden kann und in welcher Weise die Einführung eines Single-Sign-On Konzept zum Erreichen dieses Ziels beiträgt. Es konnte gezeigt werden, dass eine Shibboleth IdP Installation als zentraler Zugangspunkt für Single-Sign-On sowie eine daran angebundene privacyIDEA-Instanz die Umsetzung der Zwei-Faktor-Authentifizierung für einige aber nicht alle Dienste ermöglicht.
Zunehmender städtischer und regionaler Güterverkehr belastet die Anwohner, Verkehrsteilnehmer und die Umwelt. Das Projekt LogIKTram verfolgt das Ziel, regionalen Güterverkehr von der Straße auf die Schiene zu verlagern und somit eine Entlastung zu erzielen. Diese Idee soll am Beispiel einer Gütertram in der Region Karlsruhe erprobt werden. Dafür entwickelt die Hochschule Offenburg unter anderem ein Logistikkonzept und ein Planungsmodell. Beides wird in einer IKT-Plattform umgesetzt.
Bislang gibt es keine Güterstraßenbahnsysteme, die im urbanen Warentransport im Realbetrieb eingesetzt werden. Bestehende Konzepte sind auf einzelne Branchen, ausgewählte Transportgüter oder einzelne Verlader ausgerichtet. Untersuchungen zu Güterstraßenbahnprojekten konzentrieren sich auf individuelle Kunden (zum Beispiel "CarGo Tram" Dresden). Für die Realisierung einer Güterstraßenbahn im urbanen Raum wäre zu klären, welche Anforderungen potenzielle Nutzer haben und wie diese Anforderungen in ein logistisches Konzept integriert werden können. In einer multiplen Fallstudie werden drei Unternehmen aus verschiedenen Branchen analysiert. Aufgrund heterogener Anforderungen wird ein modulares Logistikkonzept vorgeschlagen. Der Beitrag entstand im Rahmen des Projektes "LogIKTram: Logistikkonzept und IKT-Plattform für stadtbahnbasierten Gütertransport".
Druckluft ist verdichtete atmosphärische Luft und wird in der Industrie sowie im Handwerk als Energieträger genutzt. Den vielfältigen Vorteilen stehen aber auch einige Nachteile gegenüber, wobei der wichtigste der Preis ist. Druckluft gilt als eine der teuersten Energieformen und die Energiekosten stellen den größten Kostenfaktor bei der Produktion dar. In der vorliegenden Arbeit soll eine modellprädiktive Regelung eines Druckluftsystems entworfen und implementiert werden. Das ökonomische Regelziel besteht darin, die Energiekosten bei der Erzeugung von Druckluft zu senken. Die Implementierung umfasst unterschiedliche Varianten eines Druckluftsystems. Dazu zählen folgende Auslegungsvarianten:
• Ein Druckluftsystem mit frequenzgeregeltem Kompressor
o Mit einem Schraubenkompressor
o Mit zwei Schraubenkompressoren
• Ein Druckluftsystem mit binärgeregeltem Kompressor
o Schraubenkompressor
o Kolbenkompressor
Basierend auf den erstellten Modellen wird ein modellprädiktiver Regler entworfen und implementiert. Die modellprädiktive Regelung leistet einen entscheidenden Beitrag zur Prozessoptimierung. Der Optimierungsalgorithmus erhöht bei niedrigen Strompreisen das Druckniveau im Behälter und profitiert bei hohen Preisen vom gespeicherten Luftvolumen. Die Flexibilität des Systems ist begrenzt. Mit zunehmender Behältergröße konvergieren die Kosten der Drucklufterzeugung gegen einen parameterabhängigen Wert des Systems. Außerdem bestimmen die Systemparameter die Lösbarkeit des Optimierungsproblems. Im Vergleich zu den frequenzgeregelten Kompressoren sind die binärgeregelten Kompressoren nur unter modifizierten Annahmen einsetzbar, ansonsten kann das Optimierungsproblem nicht gelöst werden.
Weitsprung mit und ohne Unterschenkelprothese – gleiche Sportart, unterschiedliche Disziplinen
(2022)
With our society moving towards Industry 4.0, an increasing number of tasks and procedures in manual workplaces are augmented with a digital component. While the research area of Internet-of-Things focuses on combining physical objects with their digital counterpart, the question arises how the interface to human workers should be designed in such Industry 4.0 environments. The project motionEAP focuses on using Augmented Reality for creating an interface between workers and digital products in interactive workplace scenarios. In this paper, we summarize the work that has been done in the motionEAP project over the run-time of 4 years. Further, we provide guidelines for creating interactive workplaces using Augmented Reality, based on the experience we gained.
With projectors and depth cameras getting cheaper, assistive systems in industrial manufacturing are becoming increasingly ubiquitous. As these systems are able to continuously provide feedback using in-situ projection, they are perfectly suited for supporting impaired workers in assembling products. However, so far little research has been conducted to understand the effects of projected instructions on impaired workers. In this paper, we identify common visualizations used by assistive systems for impaired workers and introduce a simple contour visualization. Through a user study with 64 impaired participants we compare the different visualizations to a control group using no visual feedback in a real world assembly scenario, i.e. assembling a clamp. Furthermore, we introduce a simplified version of the NASA-TLX questionnaire designed for impaired participants. The results reveal that the contour visualization is significantly better in perceived mental load and perceived performance of the participants. Further, participants made fewer errors and were able to assemble the clamp faster using the contour visualization compared to a video visualization, a pictorial visualization and a control group using no visual feedback.
Die vorliegende, schriftliche Dokumentation befasst sich mit der Entwicklung, Konstruktion und Ausarbeitung eines speziellen Sonderbetriebsmittels im Bereich der Umformtechnik.
Aus Gründen der Materialersparnis soll ein Stanzwerkzeug zur Herstellung von asymmetrischen Blech-Rohlingen dahingehend optimiert werden, dass die Schneid-Elemente pro Ar-beitsgang eine Drehung um 180° durchführen können. Durch diese Maßnahme soll erreicht werden, dass zwischen den ausgeschnittenen Rohlingen weniger Abfallmaterial anfällt, wo-durch Materialkosten im laufenden Fertigungsprozess eingespart werden können.
Die Arbeit beinhaltet das systematische Erfassen von Anforderungen und prozessbedingten Gegebenheiten, die Erarbeitung von Lösungskonzepten, sowie das Ausarbeiten eines aus-gewählten Konzepts als detaillierte Konstruktion. Letztgenannte umfasst das Erstellen funktions- und fertigungsgerechter Einzelkomponenten und Baugruppen, die Auslegung und Auswahl benötigter Zukauf-Komponenten, sowie das Ableiten fertigungsgerechter technischer Zeichnungen.
Als Nachweis der Funktion der erarbeiteten Vorrichtung werden sowohl eine Bewegungssimulation, als auch entsprechende Nachweisrechnungen der Bauteilfestigkeit unter Berücksichtigung wirkender Prozesskräfte durchgeführt.
Resultat dieser Arbeit ist eine erwiesenermaßen funktionsfähige Konstruktion, die sämtliche von Seiten des Auftraggebers gestellten Anforderungen erfüllt.
In dieser Arbeit werden über die ökonomischen Anwendungsfälle des epidemiologischen SIR-Modell nach dem Ansatz von Robert J. Shiller in Narrative Economics reflektiert. Im genaueren werden die Hype-Zyklen, welche von der US-amerikanischen Firma für Marktforschungsanalysen Gartner regulär herausgebracht werden, untersucht.
Im spezifischen unterliegt Gartner Hype-Zyklen ein Modell, welche die aufkommenden Technologien graphisch und statistisch darstellt, um diese in Kategorien von kommerzieller Erfolgsversprechen einordnen zu können. Narrative und generelle Marktbewegungen werden mitunter in Betracht gezogen und in dieser Arbeit wird auf die Narrative, welche um aufkommende Technologien existieren, eingegangen. Hier setzt das SIR-Modell ein, welches dem Fachgebiet der Epidemiologie entnommen wird und für die Ausbreitung von Narrativen zur Erklärung zugezogen werden soll.
Eine zentrale Frage der Arbeit ist, wie sich die Änderungen der Probengeometrien, in Abhängigkeit der Versuchs- und Regelparameter, auf die Messergebnisse auswirken. Ziel ist es, Referenzlösungen für eine optimale und reproduzierbare Versuchsdurchführung zu erstellen. Gegebenenfalls muss dabei von der Norm ISO 37 abgewichen werden. Des Weiteren wird die optische Dehnungsmessung untersucht und auf die Versuche angepasst.
Robots and automata are key elements of every vision and forecast of life in the near and distant future. However, robots and automata also have a long history, which reaches back into antiquity. Today most historians think that one of the key roles of robots and automata was to amaze or even terrify the audience: They were designed to express something mythical, magical, and not explainable. Moreover, the visions of robots and their envisioned fields of application reflect the different societies. Therefore, this short history of robotics and (especially) anthropomorphic automata aims to give an overview of several historical periods and their perspective on the topic. In a second step, this work aims to encourage readers to reflect on the recent discussion about fields of application as well as the role of robotics today and in the future.
Über Jahrhunderte hinweg erfolgte die Versorgung mit Arzneimitteln über stationäre Apotheken. Dort besteht ein direkter Kontakt zu Apothekern sowie Pharmazeutisch-technischen Assistenten (PTA). Bereits in den letzten Jahren hat sich dieser traditionell verankerte Ansatz deutlich gewandelt. Durch die bundesweite Legalisierung des Arzneimittelversandhandels gemäß § 43 Abs. 1 Arzneimittelgesetz (AMG) zu Beginn des Jahres 2004 sind verschreibungspflichtige und nicht verschreibungspflichtige Arzneimittel fortan nur noch wenige Klicks entfernt und können jederzeit bequem von Zuhause aus an eine Wunschadresse geordert werden. Unerheblich, ob aus gesundheitlichen oder zeitlichen Beweggründen oder aufgrund des Komforts, die Versorgung mit Arzneimitteln über Online-Apotheken erleichtert den Alltag für eine Vielzahl von Menschen.
Ein wesentlicher Meilenstein für das Aufkommen der Online-Apotheke war die Digitalisierung des Apothekenmarktes. Der E-Commerce ist dabei als Innovationstreiber ein wichtiger Aspekt, denn er ist verstärkt auf dem Vormarsch und gewinnt immer mehr an Bedeutung. Moderne Vertriebsstrukturen und die breitere Adressatenorientierung durch das Internet ermöglichen es Online-Apotheken, auf größere Kundenkreise zurückzugreifen. Dies bestätigt eine kürzlich durchgeführte Studie des Bundesverbands Informationswirtschaft, Telekommunikation und neue Medien (Bitkom). Danach kaufen 58 Prozent der Deutschen regelmäßig ihre Arzneimittel in einer Online-Apotheke. Insoweit kann davon ausgegangen werden, dass dieser Markt über eine starke Nachfrage verfügt. Weiteren Aufschwung erleben Online-Apotheken derzeit durch die COVID-19-Pandemie. Aufgrund von Social Distancing wird der Arzneimittelkauf im Internet vermehrt angenommen. Digitale Lösungen, wie das elektronische Rezept (E-Rezept), werden die Relevanz von Online-Apotheken zukünftig weiter antreiben.
Da die Bleche in der automatisierten Umformtechnik stets mit Eigenspannungen und Verformungen angeliefert werden, ist dem eigentlichen Prozess ein Biegewechselrichten vorgestellt. Dadurch sollen vorhandene Eigenspannungen abgebaut und die Bleche gleichbleibende Eigenschaften, unabhängig vom Anlieferungszustand, bekommen. Ziel dieser Bachelorthesis ist es den Prozess des Biegewechselrichtens mit einem FEM-Programm zu modellieren. Hierzu ist es wichtig, die notwendigen Grundlagen im Bereich der Werkstoffmechanik, des Richtvorgangs, der FE-Methode und dem Umgang mit dem FE-Programm ABAQUS zu verstehen. Damit soll dann ein lauffähiges Modell mit ABAQUS erstellt werden und erste Untersuchungen über den Verlauf der Spannungen und Dehnungen im Werkstoff durchgeführt werden.
Im Fahrzeug stehen große Wärmeströme zur Verfügung, die nicht genutzt werden. Die Energie des Abgases weist gegenüber der des Motor/Kühlsystems eine wesentlich höhere Arbeitsfähigkeit auf. Untersuchungen zielen dahin, diese thermische Energie zum Beispiel mithilfe eines thermoelektrischen Generators wieder in das System einzukoppeln und als Energiequelle für Verbraucher zu nutzen.
Diese Bachelorarbeit untersucht die Möglichkeiten der Persistierung und anschließenden Analyse verschiedener Messwerte in einer geeigneten Software-Architektur. Zunächst wird dazu die genaue Aufgabenstellung betrachtet. Im Anschluss soll die geplante Software-Architektur und die vorgesehene Kommunikationsart erklärt werden. Um das entwickelte Produkt einfach zur Verfügung stellen zu können, sollen die Tools Vagrant, Puppet und Docker gemeinsam genutzt werden. Nachdem im Anschluss auf die eingesetzte Servertechnologie eingegangen wurde, beschäftigt sich die Arbeit mit der Persistierung der Messdaten. Hierzu werden die verschiedenen Arten verfügbarer Datenbanktechnologien erläutert und darauf aufbauend eine Auswahl getroffen. Als letzten Teil der Anwendung wird auf die Demonstrationsapplikation eingegangen. Hier werden wieder die nötigen Anforderungen erörtert und die Umsetzung beschrieben.
Anhand der gewonnenen Erkenntnisse wird abschließend ein Fazit der verwendeten Technologien und der Architektur verfasst. Hier soll die Eignung der verwendeten Technologien zur Lösung des Problems überprüft und bewertet werden.
Abschließend wird noch ein Ausblick auf die zukünftige Entwicklung in diesem Bereich gegeben.
Manuelle Montagen erfahren eine zunehmende Variantenvielfalt und abnehmende Losgrößen, und das bei steigenden Anforderungen bezüglich Qualität und Produktivität. Statische Montageanweisungen kommen hierbei an ihre Grenzen. Doch welche Systeme bieten für manuelle Montagen eine geeignete Assistenz an? Im vorliegenden Artikel werden auf dem Markt vorhandene Montageassistenzsysteme eingeteilt und bewertet, um Aussagen zu ihrer Eignung zu treffen. Anschließend wird ihr Unterstützungspotenzial am Beispiel eines Arbeitsplatzes untersucht und bewertet.
Plastics are used today in many areas of the automotive, aerospace and mechanical engineering industries due to their lightweight potential and ease of processing. Additive manufacturing is applied more and more frequently, as it offers a high degree of design freedom and eliminates the need for complex tools. However, the application of additively manufactured components made of plastics have so far been limited due to their comparatively low strength. For this reason, processes that offer additional reinforcement of the plastic matrix using fibers made of high-strength materials have been developed. However, these components represent a composite of different materials produced on the basis of fossil raw materials, which are difficult to recycle and generally not biodegradable.
Therefore, this paper will explore the potential for new composite materials whose matrix consists of a bio-based plastic. In this investigation, it is assumed that the matrix is reinforced with a fibrous material made of natural fiber to significantly increase the strength. This potential material should offer a lightweight yet strong structure and be biodegradable after use under controlled conditions. Therefore, the state of the art in the use of bio-based materials in 3D printing is first presented. In order to determine the economic boundary conditions, the growth potentials for bio-based materials are analyzed. Also, the recycling prospects for bio-based plastics will also be highlighted. The greenhouse gas emissions and land use to be expected when using bio-based materials are also estimated. Finally, the degradability of the composites is discussed.
Der Komplexitätsbeitrag als Kriterium für Entscheidungen zur Bereinigung technischer Produkte
(2020)
Die Bereinigung der Produktpalette wird meistens anhand des Umsatzanteils und des Deckungsbeitrags im Zuge der Einführung von Nachfolgeprodukten entschieden. Im vorliegenden Beitrag wird ein Kriterium eingeführt und hergeleitet, das den Beitrag eines Produkts zur Komplexität auf Basis logistikrelevanter Produkteigenschaften quantifiziert. Die Anwendung des Kriteriums wird anhand der Ergebnisse aus einem Praxisbeispiel aufgezeigt.
Sustainable Production
(2023)
Qualität hat einen genauen Wert - Wie Qualitätsentscheidungen an Ihrem Wertbeitrag gemessen werden
(2018)
Qualität hat ihren Preis, doch ihr Nutzen wird meist qualitativ begründet. Unternehmen stehen daher vor der Herausforderung, den Nutzen oder Wert von Qualität anhand bestimmter Parameter zu bewerten. Ein Modell zur Wertbeitragsrechnung von Qualitätsmaßnahmen wurde an der Hochschule Offenburg entwickelt und bei Trumpf in der Praxis getestet.
Die Vorteile des Einzelstückflusses haben zu einer Verschiebung der Grenzen zwischen den Montageorganisationen in Richtung des Fließprinzips geführt. Im vorliegenden Artikel werden quantitative Kriterien zur Fließlinieneignung als Entscheidungshilfe aus montageorganisatorischer Sicht vorgestellt. Neben der Eignung anhand der Überlappung von Endmontagevorgängen werden die schwankungsbedingte und verteilungsbedingte Fließlinieneignung vorgestellt. Ihre Anwendung wird anhand eines Algorithmus und anhand der Ergebnisse aus einem Praxisbeispiel gezeigt.
Lernziele:
Die Leser
• kennen die Bestandteile und Aufgaben der Produktion;
• wissen, welche Ansätze die Vision einer 100 % nachhaltigen Produktion hinsichtlich Material- und Energieverwendung beinhalten;
• verfügen über den Einblick, welche Stufen auf dem Weg zur nachhaltigen Produktion zu nehmen sind;
• wissen auch anhand von Beispielen, welche Ansätze zur Umsetzung einer nachhaltigen Produktion bestehen;
• kennen im Überblick die Ansätze zur Messung von Nachhaltigkeit in der Produktion.
Künstliche Intelligenzen, Deep Learning und Machine-Learning-Algorithmen sind im digitalen Zeitalter zu einem Punkt gekommen, in dem es schwer ist zu unterscheiden, welche Informationen und Quellen echt sind und welche nicht. Der Begriff „Deepfakes“ wurde erstmals 2017 genutzt und hat bereits 2018 mit einer App bewiesen, wie einfach es ist, diese Technologie zu verwenden um mit Videos, Bildern oder Ton Desinformationen zu verbreiten, politische Staatsoberhäupter nachzuahmen oder unschuldige Personen zu deformieren. In der Zwischenzeit haben sich Deepfakes bedeutend weiterentwickelt und stellen somit eine große Gefahr dar.
Diese Arbeit bietet eine Einführung in das Themengebiet Deepfakes. Zudem behandelt sie die Erstellung, Verwendung und Erkennung von Deepfakes, sowie mögliche Abwehrmaßnahmen und Auswirkungen, welche Deepfakes mit sich bringen.
Grundlagen der Organisation
(2019)
Eine betriebswirtschaftliche Theorie der Organisationsgestaltung hat Strukturmodelle zu entwickeln, die als Grundlage für Organisationsentscheidungen des Managements geeignet sind. Es geht dabei um die Bewältigung der elementaren Anforderungen, die bei interpersoneller Arbeitsteilung zwangsläufig durch die Trennung zusammenhängender Aufgabenkomplexe und die Einbeziehung einer Mehrzahl von Personen mit jeweils individuellen Zielen entstehen. Bei der Verfolgung dieses Anliegens orientiert sich auch die Neuauflage der "Grundlagen der Organisation" unverändert am bewährten entscheidungstheoretischen Konzept der Organisationsgestaltung, das einen fundierten anwendungsbezogen Zugang zum Verständnis und zur Lösung komplexer Organisationsprobleme eröffnet.
Automobile premium brands operate globally, which is undoubtedly required, because, for the most part, domestic markets are either decreasing or stagnating. China has become today the most important and biggest car market. Recently selling has become challenging because urban areas are well penetrated, and in poorly penetrated rural areas, incomes are low. This is particularly alarming for German brands, because of their premium orientation. Simultaneously, the after-sales market in China has been growing continuously. As a result, this market has a huge potential, which is likewise attractive because it has been scientifically proven across industries that after-sales services are high-margin profit drivers. Despite its great significance, the Chinese automobile after-sales market remains insufficiently researched, especially in terms of critical success factors and cultural influences, which therefore was the starting point for a study. The results will presented and interpreted now in this new working-paper.
Das Controlling ist auch in der Zeitschriftenbranche gerade vor dem Hintergrund der zu beobachtenden Umsatzeinbrüche, die durch die Finanz- und Wirtschaftskrise, aber auch durch die Strukturkrise verursacht sind, ein wichtiges Element der Unternehmensführung. Das operative Controlling, mit dem sich dieses White Paper beschäftigt, liefert die Grundlagen für die Planung und Kontrolle von Kosten und Erlösen für die einzelnen Zeitschriftenobjekte und damit für den Erfolg der Zeitschriftenverlage. Am Anfang führt das White Paper kurz in das Thema Controlling ein. Es werden der Führungsprozess in einem Unternehmen beschrieben und die Funktion des Controllings in diesem Prozess erläutert.
In the last years, social robots have become a trending topic. Indeed, robots which communicate with us and mimic human behavior patterns are fascinating. However, while there is a massive body of research on their design and acceptance in different fields of application, their market potential has been rarely investigated. As their future integration in society may have a vast disruptive potential, this work aims at shedding light on the market potential, focusing on the assistive health domain. A study with 197 persons from Italy (age: M = 67.87; SD = 8.87) and Germany (age: M = 62.15; SD = 6.14) investigates cultural acceptance, desired functionalities, and purchase preferences. The participants filled in a questionnaire after watching a video illustrating some examples of social robots. Surprisingly, the individual perception of health status, social status as well as nationality did hardly influence the attitude towards social robots, although the German group was somewhat more reluctant to the idea of using them. Instead, there were significant correlations with most dimensions of the Almere model (like perceived enjoyment, sociability, usefulness and trustworthiness). Also, technology acceptance resulted strongly correlated with the individual readiness to invest money. However, as most persons consider social robots as “Assistive Technological Devices” (ATDs), they expected that their provision should mirror the usual practices followed in the two Countries for such devices. Thus, to facilitate social robots’ future visibility and adoption by both individuals and health care organisations, policy makers would need to start integrating them into official ATDs databases.
In this work the nonlinear behavior of layered surface acoustic wave (SAW) resonators is studied with the help of finite element (FE) computations. The full calculations depend strongly on the availability of accurate tensor data. While there are accurate material data for linear computations, the complete sets of higher-order material constants, needed for nonlinear simulations, are still not available for relevant materials. To overcome this problem, scaling factors were used for each available nonlinear tensor. The approach here considers piezoelectricity, dielectricity, electrostriction, and elasticity constants up to the fourth order. These factors act as a phenomenological estimate for incomplete tensor data. Since no set of fourth-order material constants for LiTaO3 is available, an isotropic approximation for the fourth-order elastic constants was applied. As a result, it was found that the fourth-order elastic tensor is dominated by one-fourth order Lamé constant. With the help of the FE model, derived in two different, but equivalent ways, we investigate the nonlinear behavior of a SAW resonator with a layered material stack. The focus was set to third-order nonlinearity. Accordingly, the modeling approach is validated using measurements of third-order effects in test resonators. In addition, the acoustic field distribution is analyzed.
This work focuses on the dependencies between typical design parameters of surface acoustic wave (SAW) resonators and the nonlinear emitted signals of second and third order. The parameters metalization ratio and pitch are used as examples, but the approach can be extended to other design parameters as well. It is shown, that the interaction between the nonlinear current generation and the linear admittance is defining the measured nonlinear power signals. It is also discussed, that changes in linear properties get more pronounced in nonlinear responses. Therefore, slight effects on linear parameters will have significant influence on the observed nonlinearity.
Increasing power density causes increased self-generation of harmonics and intermodulation. As this leads to violations of the strict linearity requirements, especially for carrier aggregation (CA), the nonlinearity must be considered in the design process of RF devices. This raises the demand of accurate simulation models. Linear and nonlinear P-Matrix/COM models are used during the design due to their fast simulation times and accurate results. However, the finite element method (FEM) is useful to get a deeper insight in the device's nonlinearities, as the total field distributions can be visualized. The FE method requires complete sets of material tensors, which are unknown for most relevant materials in nonlinear micro-acoustics. In this work, we perform nonlinear FEM simulations, which allow the calculation of nonlinear field distributions of a lithium tantalate based layered SAW system up to third order. We aim at achieving good correspondence to measured data and determine the contributions of each material layer to the nonlinear signals. Therefore, we use approximations circumventing the issue of limited higher order tensor data. Experimental data for the third order nonlinearity is shown to validate the presented approach.
Erfolgsfaktorenforschung
(2018)
Kostenrechnung
(2015)
Running stability is the ability to withstand naturally occurring minor perturbations during running. It is susceptible to external and internal running conditions such as footwear or fatigue. However, both its reliable measurability and the extent to which laboratory measurements reflect outdoor running remain unclear. This study aimed to evaluate the intra- and inter-day reliability of the running stability as well as the comparability of different laboratory and outdoor conditions. Competitive runners completed runs on a motorized treadmill in a research laboratory and overground both indoors and outdoors. Running stability was determined as the maximum short-term divergence exponent from the raw gyroscope signals of wearable sensors mounted to four different body locations (sternum, sacrum, tibia, and foot). Sacrum sensor measurements demonstrated the highest reliabilities (good to excellent; ICC = 0.85 to 0.91), while those of the tibia measurements showed the lowest (moderate to good; ICC = 0.55 to 0.89). Treadmill measurements depicted systematically lower values than both overground conditions for all sensor locations (relative bias = -9.8% to -2.9%). The two overground conditions, however, showed high agreement (relative bias = -0.3% to 0.5%; relative limits of agreement = 9.2% to 15.4%). Our results imply moderate to excellent reliability for both overground and treadmill running, which is the foundation of further research on running stability.
Für langfaserverstärkte Thermoplaste (LFT) wird ein repräsentatives Volumenelement (RVE) für FEM-Simulationen generiert. Dies geschieht unter Berücksichtigung von mikrostrukturellen Kenngrößen wie Faserorientierungsverteilung, -volumengehalt und -längenverteilung, die für einen charakteristischen Werkstoffzustand experimentell ermittelt wurden. Mittels Mikrostruktursimulationen wird das Kriechverhalten von LFT untersucht. Das viskoelastische Verhalten der Matrix wird experimentell an Substanzproben aus Polypropylen ermittelt und in die RVE-Simulationen mit einem modifizierten Burgers-Modell implementiert. Schließlich werden die Rechnungen mit verschiedenen, fiktiven sowie experimentell ermittelten Faserlängenverteilungen mit Kriechversuchen am LFT verglichen. Es zeigt sich eine starke Abhängigkeit des Kriechverhaltens von der Faserlänge und eine hohe Prognosegüte der Simulationen, die die experimentell ermittelte Längenverteilung berücksichtigen.
1924: Während eines Besuchs in Wien gerät Zweigs Ich-Erzähler in einen Regenschauer und flüchtet sich in ein nahegelegenes Kaffeehaus. Dort erinnert er sich an Jakob Mendel - ‚Buchmendel‘. Ein jüdischer Büchersammler und ein Genie der antiquarischen Wissenschaft, der tagein, tagaus im Cafe Gluck gesessen hatte und seine Arbeit dort verrichtete.
Dank eines nahezu fotografischen Gedächtnis‘, vertreibt er Bücher an Studenten, Buchsammler oder Händler in ganz Europa.
Der Erzähler macht sich nun, 20 Jahre später, auf die Suche, um das Schicksal seines früheren Bekannten in Erfahrung zu bringen. Glücklicherweise ist Frau Sporschil, die Toilettenfrau, noch im Dienst und berichtet ihm, was Mendel während und nach dem ersten Weltkrieg zu erleiden hatte. Mit der Geschichte thematisiert Stefan Zweig nicht nur das Schicksal eines besonderen Menschen, sondern prangert auch die unmenschlichen und absurden Verfolgungen verschiedener Bevölkerungsgruppen in Europa während des ersten Weltkriegs an.
Die vorliegende Arbeit beschäftigt sich mit der Konzepterstellung zur Realisierung eines E-Learning-Kurses. Dieses wird am Beispiel der Vorlesung Offset- und Tiefdrucktechnik entwickelt. Ziel war es, ein Feinkonzept und ein Storyboard zu erstellen. Die Ergebnisse sollen zur späteren Umsetzung in Moodle verwendet werden. Diese Umsetzung erfolgt, wie vor Beginn der Arbeit festgelegt, erst nach Abschluss dieser Arbeit.
Der Aufbau und die Inhalte des Grob- und Feinkonzeptes orientieren sich zu großen Teilen an den Vorgaben von Daniela Mair, E-Learning - Das Drehbuch und Niegemann et al., Kompen- dium E-Learning. Vor der Konzepterstellung werden zunächst einige geschichtliche Fakten zur Entwicklung von E-Learning aufgeführt. Anschließend werden die Bestandteile von E-Learning- Anwendungen und die Möglichkeiten der Software Moodle betrachtet, bevor das Pflichtenheft mit Style Guide und die Konzepte entwickelt werden.
Die Vorlesungsinhalte wurden in zwölf Lektionen mit anschließenden Übungsaufgaben unterteilt. Sie orientieren sich an Themen und Reihenfolge der Präsenzveranstaltungen. Der Kurs soll, den Studierenden vor allem die Möglichkeit zur selbstständigen Wiederholung und Prüfungsvorbe- reitung bieten. Das Storyboard wurde für drei Lektionen erstellt, um die geplante Gestaltung darstellen zu können. Es ist ein umfangreiches Konzept entstanden, das alle zu beachtenden Richtlinien umfasst, um einen strukturierten Moodle-Kurs umzusetzen.
Die vorliegende Arbeit beschäftigt sich am Beispiel der Vorlesung Risikomanagement mit der Konzepterstellung eines Blended Learning Szenarios. Die Vorlesung wird im Studiengang Unternehmens- und IT-Sicherheit der Hochschule Offenburg angeboten. Ziel ist es, das Konzept einer Probeveranstaltung zu erstellen, diese Veranstaltung durchzuführen und anschließend zu evaluieren. Die Ergebnisse und Learnings, welche aus der Veranstaltung
gezogen werden können, werden anschließend verwendet, um Handlungsempfehlungen für die Umsetzung eines Blended Learning Szenarios abzuleiten. Eine Umsetzung kann
nach einer inhaltlichen Konzeption, also erst nach Abschluss dieser Arbeit erfolgen. Das entwickelte Lernszenario baut auf den an der Hochschule Offenburg eingesetzten und lizenzierten Werkzeugen auf, dem LMS Moodle und der Virtual Classroom Software Adobe
Connect. Zusätzlich wurden weitere Werkzeuge recherchiert, diese sollen den Dozierenden die Erstellung von Lernmedien erleichtern, beispielhaft werden sie in den erstellten Lernlektionen eingesetzt. Vor der Konzepterstellung werden zunächst die Begriffe des E-Learning und Blended
Learning definiert. Das Konzept des Selbststudiums in der Hochschullehre wird anschließend anhand der Veröffentlichung „Begleitetes Selbststudium“ von Landwehr
und Müller beschrieben. Schließlich werden die Rahmenbedingungen der Lern-, Gedächtnis- und Motivationspsychologischen Grundlagen zur Entwicklung eines Blended Learning Szenarios definiert. Aufbauend auf diesen Grundlagen wird die Probeveranstaltung im Rahmen der Veranstaltung geplant und durchgeführt. Die Dokumentation der einzelnen Planungsschritte wird ausführlich dargestellt. Es wurden zwei unterschiedliche Veranstaltungsteile geplant, eine ca. 45-minütige Selbststudieneinheit, welche mit Online-Lernmaterialien umgesetzt wird sowie eine Präsenzveranstaltung.
Diese wurde mit Adobe Connect, ebenfalls online, durchgeführt. Die erste Veranstaltung soll den Studierenden zur selbstständigen Erarbeitung von Vorlesungsinhalten dienen und verschiedene Lernmedien präsentieren. Der zweite Veranstaltungsteil dient der Vorstellung von Adobe Connect. Aus der Reflexion der Veranstaltungen wurde ein Leitfaden abgeleitet, welcher einige zu beachtende Handlungsempfehlungen zusammenfasst, um ein Blended Learning Szenario erfolgreich umzusetzen.
Das Team „Schluckspecht“ stellte sich im September 2010 einer besonderen Herausforderung. Neben der jährlichen Teilnahme am Shell Eco-Marathon ging das Team mit einem neu entwickelten Elektrofahrzeug an den Start der South Africa Solar Challenge. Für die Nutzung von Akkumulatoren als Energielieferant im Leichtfahrzeug „Schluckspecht E“ (im weiteren Verlauf als Batterien bezeichnet) wurde ein neues Strukturkonzept in Zusammenarbeit der Hochschule Offenburg mit dem Fraunhofer-Institut für Kurzzeitdynamik, Ernst-Mach-Institut, EMI entwickelt.
In the year 2009 several data privacy scandals have hit the headlines where major corporations had a legitimate need for detecting fraud conducted by their own employees, but chose inappropriate measures for data screening. This contribution presents architectures and pseudonymization technology for privacy compliant fraud screening or fraud detection, in order to reduce the number of undiscovered fraud cases and to reduce the time to discovery.
Considering the literature for aqueous rechargeable Zn//MnO2 batteries with acidic electrolytes using the doctor blade coating of the active material (AM), carbon black (CB), and binder polymer (BP) for the positive electrode fabrication, different binder types with (non-)aqueous solvents were introduced so far. Furthermore, in most of the cases, relatively high passive material (CB+BP) shares ~30 wt% were applied. The first part of this work focuses on different selected BPs: polyacrylonitrile (PAN), carboxymethyl cellulose (CMC), styrene butadiene rubber (SBR), cellulose acetate (CA), and nitrile butadiene rubber (NBR). They were used together with (non-)aqueous solvents: DI-water, methyl ethyl ketone (MEK), and dimethyl sulfoxide (DMSO). By performing mechanical, electrochemical and optical characterizations, a better overall performance of the BPs using aqueous solvents was found in aqueous 2 M ZnSO4 + 0.1 M MnSO4 electrolyte (i.e., BP LA133: 150 mAh·g−1 and 189 mWh·g−1 @ 160 mA·g−1). The second part focuses on the mixing ratio of the electrode components, aiming at the decrease of the commonly used passive material share of ~30 wt% for an industrial-oriented electrode fabrication, while still maintaining the electrochemical performance. Here, the absolute CB share and the CB/BP ratio are found to be important parameters for an application-oriented electrode fabrication (i.e., high energy/power applications).
Background: Assistive Robotic Arms are designed to assist physically disabled people with daily activities. Existing joysticks and head controls are not applicable for severely disabled people such as people with Locked-in Syndrome. Therefore, eye tracking control is part of ongoing research. The related literature spans many disciplines, creating a heterogeneous field that makes it difficult to gain an overview.
Objectives: This work focuses on ARAs that are controlled by gaze and eye movements. By answering the research questions, this paper provides details on the design of the systems, a comparison of input modalities, methods for measuring the performance of these controls, and an outlook on research areas that gained interest in recent years.
Methods: This review was conducted as outlined in the PRISMA 2020 Statement. After identifying a wide range of approaches in use the authors decided to use the PRISMA-ScR extension for a scoping review to present the results. The identification process was carried out by screening three databases. After the screening process, a snowball search was conducted.
Results: 39 articles and 6 reviews were included in this article. Characteristics related to the system and study design were extracted and presented divided into three groups based on the use of eye tracking.
Conclusion: This paper aims to provide an overview for researchers new to the field by offering insight into eye tracking based robot controllers. We have identified open questions that need to be answered in order to provide people with severe motor function loss with systems that are highly useable and accessible.
Das TMKB-Modell beschreibt einen Weg, den persönlichen und unternehmerischen Erfolg im beruflichen Alltag effizient und nachhaltig zu erreichen. Hierbei steht TMKB für den Transfer von Methoden und Kompetenzen in den Beruf. Dieses Modell beachtet die Theorien der Kompetenzentwicklung im Kontext realer Problemstellungen in Unternehmen. Beispielhaft wird das TMKB-Modell in der ersten Stufe mit dem Schwerpunkt Lean- und Projektmanagement erläutert. Die Zielgruppe dieses Ansatzes lässt sich über die der Auszubildenden bis hin zu Studierenden und Berufserfahrenen erweitern.
Digitalisierung ist heute allgegenwärtig. Wo im Privaten bereitwillig neue digitale Tools, Apps und Funktionen genutzt werden, tun sich Unternehmen in der Umsetzung von Digitalisierungsprojekten oft schwer. Dieser Beitrag beleuchtet die Motive für Digitalisierungsvorhaben, ihre Hürden sowie die Auswirkung auf die Arbeitsbelastung von Mitarbeitenden und versucht in der Verknüpfung mit den Grundprinzipien des Kontinuierlichen Verbesserungsprozesses, Handlungsempfehlungen für eine erfolgreiche Umsetzung dieser abzuleiten.
This paper treats the Brillouin backscattering in a single mode optical fiber and its implications on the Brillouin Ring Laser Gyroscope (BRLG). The BRLG consists of a fiber ring cavity in which stimulated Brillouin scattering is induced and provides two resonant counterpropagating backscattered waves. If this cavity is rotating around its axis, the backscattered waves get different resonant frequencies because of the Sagnac effect. The frequency difference is proportional to the rotation rate (Omega) by inducing a frequency offset between the counterpropagating waves. Some reported Brillouin spectra exhibit several peaks, which means that one pump wave provides at least two backscattered waves with distinguishable frequencies. In order to understand this multi-backscattering and to take advantage of it for the BRLG, we present results of a simulation of the Brillouin backscattering in a single mode optical fiber.
This paper treats the interaction between acoustic modes and light (Brillouin scattering) in a single mode optical fibre. Different observed spectra of the Brillouin backscattering in several fibres have been already reported. In order to have a clear idea of the process, we made a simulation to be able to `draw' the theoretical Brillouin spectrum of an optical fibre and to identify the origin of the observed backscattered lines.
First, the model and the computation method used in our simulation are described. Second, the experimentally observed spectra of two real fibres are compared with their computed spectra. Real spectra and simulated spectra are in good agreement.
Our work provides an interesting tool to investigate the changes in the Brillouin spectrum when the input parameters (characteristics of an optical fibre) vary. This should give useful indications to people working on systems which use Brillouin backscattering.
Diese Bachelorthesis befasst sich mit der Testung eines an der TU München entwickelten Biosignalverstärkers zur Registrierung von auditorisch evozierten Potentialen. Ziel dieses Projekts ist die Charakterisierung dieses Verstärkers. Dabei soll geprüft werden, ob der Verstärker AEPs registrieren und um verstellbare Faktoren verstärken kann. Dafür wurde eine MATLAB – Software implementiert, die es erlaubt über eine Soundkarte akustische Signale mittels Kopfhörer auszugeben und zeitgleich die vom Verstärker registrierten Potentiale einzulesen, zu Mitteln und sie grafisch darzustellen.
Erste Versuche wurden mit der Loop Back Box von Interacoustics, einem Schwingkreis, der einen künstlichen Patienten simuliert, durchgeführt. Diese Versuchsreihen zeigten, dass reale Signale gemessen werden. Anschließend konnten Probandenmessungen mit dem Verstärker und Referenzmessungen mit der Eclipse von Interacoustics durchgeführt werden. Bei sämtlichen Messreihen zeigte sich im Vergleich der beiden Systeme hohe Ähnlichkeit der Kurvenverläufe. Insbesondere das zeitliche Auftreten der Jewett V, der größten gemessenen Amplitude, war nahezu identisch. Allerdings stimmen die Amplitudenwerte nicht überein. Während die Amplitude der Jewett V bei Messungen mit der Eclipse um die 1µV erreichte, war die Amplitude beim Verstärker nur ein bis zwei Nanovolt groß. Damit ist die Verstärkung um ein tausendfaches geringer als bei der Eclipse.
Anhand der gewonnenen Erkenntnisse konnten Hardware technische Optimierungen evaluiert und diskutiert werden.
Produkt-Controlling
(2021)
Zentraler Baustein des Marketing ist die „facettenreiche“ Produktpolitik. Im nachstehenden Beitrag wird zunächst die Einordnung der Produktpolitik in den Zielkatalog des Marketing und des Unternehmens skizziert. Das Produkt-Controlling wird verstanden als zielgerichtete Unterstützung der Managementaufgaben im Kontext der Produktpolitik mittels passender Instrumente – Instrumente, die der Phase der Produktentstehung wie der Marktzyklusphase zuzuordnen sind. Erkennbar wird: es gibt ein umfangreiches Set an Methoden, die das Marketing-Management unterstützen und die Sicherstellung der Marketing-Effektivität und Marketing-Effizienz gewährleisten. Die Komplexität des Produkt-Controllings bedingt sich auch durch den ausreichenden Einbezug preis-, qualitäts- und markenpolitischer Informationen in die Zielkontrolle.
Produkt-Controlling
(2017)
Zentraler Baustein des Marketing ist die „facettenreiche“ Produktpolitik. Im nachstehenden Beitrag wird zunächst die Einordnung der Produktpolitik in den Zielkatalog des Marketing und des Unternehmens skizziert. Das Produkt-Controlling wird verstanden als zielgerichtete Unterstützung der Managementaufgaben im Kontext der Produktpolitik mittels passender Instrumente – Instrumente, die der Phase der Produktentstehung wie der Marktzyklusphase zuzuordnen sind. Erkennbar wird: es gibt ein umfangreiches Set an Methoden, die das Marketing-Management unterstützen und die Sicherstellung der Marketing-Effektivität und Marketing-Effizienz gewährleisten. Die Komplexität des Produkt-Controllings bedingt sich auch durch den ausreichenden Einbezug preis-, qualitäts- und markenpolitischer Informationen in die Zielkontrolle.
Kritische Analyse des Geschäftsmodells von Amazon mit einem Fokus auf wettbewerbsrechtliche Aspekte
(2021)
Die Digitalisierung verändert unsere Gesellschaft, sie schafft beinahe unendliche Möglichkeiten und eröffnet neue Wege zur Nutzung von innovativen Ideen. Daraus hervorgegangen sind auch digitale Plattformen, welche heute nicht mehr wegzudenken sind und von nahezu jedem Konsumenten genutzt werden. Während der fortdauernden Coronapandemie haben digitale Plattformen und insbesondere digitale Marktplätze zunehmend an Bedeutung gewonnen, denn während Einzelhändler ihre Geschäfte vor Ort schließen mussten, blieb der Einkauf über digitale Angebote weiterhin möglich. Diesen Bedeutungszuwachs bestätigt auch der Umsatz von Amazon, einem Unternehmen, welches mit seinem digitalen Geschäftsmodell insbesondere für seinen digitalen Marktplatz bekannt ist, denn es verzeichnet im ersten Quartal 2021 ein Umsatzwachstum von 44 Prozent im Vergleich zum Vorjahreszeitraum. Es ist davon auszugehen, dass es sich dabei um eine Entwicklung handelt, welche fortdauern wird, denn das Verhalten von Verbrauchern wird sich durch die Erfahrungen, die sie im Laufe der Pandemie gesammelt haben, nachhaltig verändern. So wollen Menschen beispielsweise auch nach der Pandemie vermehrt online sein und insbesondere auch online einkaufen, da es bequemer und zeitsparender ist und online meist bessere Angebote verfügbar sind.
Ziel dieser Studie ist es, den Markt von FinTech Unternehmen in Deutschland unter Berücksichtigung der beteiligten Marktkräfte darzustellen. Hierfür sollen die theoretischen Grundlagen einer Marktanalyse dargelegt und darauf aufbauend eine Marktanalyse durchgeführt werden. Betrachtet werden sollen in diesem Zusammenhang auch die rechtlichen Rahmenbedingungen, die für FinTech Unternehmen in Deutschland einschlägig sind, da auch diese Einfluss auf das Marktgeschehen haben. Ziel ist es, bestehende Rechtsgrundlagen sowie Entwürfe von künftigen Rechtsvorschriften mittels Recherche zu identifizieren und zu analysieren. Betrachtet werden sollen dabei das deutsche Recht sowie das für Deutschland als Mitgliedstaat der EU geltende EU-Recht.
Learning to Walk With Toes
(2020)
This paper explains how a model-free (with respect to the robot model and the behavior to learn) approach can facilitate learning to walk from scratch. It is applied to a simulated Nao robot with toes. Results show an improvement of 30% in speed compared to a model without toes and also compared to our model-based approach, but with less stability.