Refine
Year of publication
Document Type
- Conference Proceeding (1253)
- Article (reviewed) (686)
- Bachelor Thesis (604)
- Article (unreviewed) (566)
- Part of a Book (460)
- Contribution to a Periodical (287)
- Book (242)
- Master's Thesis (208)
- Other (142)
- Working Paper (105)
Conference Type
- Konferenzartikel (950)
- Konferenz-Abstract (156)
- Konferenzband (77)
- Sonstiges (42)
- Konferenz-Poster (32)
Language
- German (2867)
- English (1980)
- Other language (5)
- Russian (3)
- Multiple languages (2)
- French (1)
- Spanish (1)
Keywords
- Mikroelektronik (62)
- Digitalisierung (48)
- Marketing (47)
- Social Media (40)
- COVID-19 (37)
- E-Learning (35)
- RoboCup (33)
- Kommunikation (32)
- Künstliche Intelligenz (32)
- Dünnschichtchromatographie (29)
Institute
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (1118)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (1103)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (917)
- Fakultät Wirtschaft (W) (649)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (565)
- Fakultät Medien (M) (ab 22.04.2021) (384)
- INES - Institut für nachhaltige Energiesysteme (245)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (161)
- Zentrale Einrichtungen (81)
- IMLA - Institute for Machine Learning and Analytics (78)
Open Access
- Closed Access (1708)
- Open Access (1692)
- Closed (756)
- Bronze (345)
- Diamond (92)
- Gold (77)
- Hybrid (49)
- Grün (16)
In this contribution, we present a novel 3D printed multi-material, electromagnetic vibration harvester. The harvester is based on a cantilever design and utilizes an embedded constantan wire within a matrix of polyethylene terephthalate glycol (PETG). A prototype has been manufactured with a combination of a fused filament fabrication (FFF) printer and a robot with a custom-made tool.
3D printing offers customisation capabilities regarding suspensions for oscillators of vibration energy harvesters. Adjusting printing parameters or geometry allows to influence dynamic properties like resonance frequency or bandwidth of the oscillator. This paper presents simulation results and measurements for a spiral shaped suspension printed with polylactic acid (PLA) and different layer heights. Eigenfrequencies have been simulated and measured and damping ratios have been experimentally determined.
We present a novel approach that utilizes BLE packets sent from generic BLE capable radios to synthesize an FSK-(like) addressable wake-up packet. A wake-up receiver system was developed from off-the-shelf components to detect these packets. It makes use of two differential signal paths separated by passive band-pass filters. After the rectification of each channel a differential amplifier compares the signals and the resulting wake-up signal is evaluated by an AS3933 wake-up receiver IC. Overall, the combination of these techniques contributes to a BLE compatible wake-up system which is more robust than traditional OOK wake-up systems. Thus, increasing wake-up range, while still maintaining a low energy budget. The proof-of-concept setup achieved a sensitivity of -47.8 dBm at a power consumption of 18.5 uW during passive listening. The system has a latency of 31.8 ms with a symbol rate of 1437 Baud.
This work compares the performance of Bluetooth Mesh implementations on real chipsets against the ideal implementation of the specification. Measurements are taken in experimental settings and reveal non-idealities in the underlying Bluetooth Low Energy specification in real chipsets and in the implementation of Mesh, which introduces an unruly transmission as well as reception behavior. These effects lead to an impact on transmission rate, reception rate, latency, as well as a more significant impact on the average power consumption.
A novel Bluetooth Low Energy advertising scan algorithm is presented for hybrid radios that are additionally capable to measure energy on Bluetooth channels, e.g. as they would need to be compliant with IEEE 802.15.4. Scanners applying this algorithm can achieve a low latency whilst consuming only a fraction of the power that existing mechanisms can achieve at a similar latency. Furthermore, the power consumption can scale with the incoming network traffic and in contrast to the existing mechanisms, scanners can operate without any frame loss given ideal network conditions. The algorithm does not require any changes to advertisers, hence, stays compatible with existing devices. Performance evaluated via simulation and experiments on real hardware shows a 37 percent lower power consumption compared to the best existing scan setting while even achieving a slightly lower latency which proves that this algorithm can be used to improve the quality of service of connection-less Bluetooth communication or reduce the connection establishment time of connection-oriented communication.
Neural networks have a number of shortcomings. Amongst the severest ones is the sensitivity to distribution shifts which allows models to be easily fooled into wrong predictions by small perturbations to inputs that are often imperceivable to humans and do not have to carry semantic meaning. Adversarial training poses a partial solution to address this issue by training models on worst-case perturbations. Yet, recent work has also pointed out that the reasoning in neural networks is different from humans. Humans identify objects by shape, while neural nets mainly employ texture cues. Exemplarily, a model trained on photographs will likely fail to generalize to datasets containing sketches. Interestingly, it was also shown that adversarial training seems to favorably increase the shift toward shape bias. In this work, we revisit this observation and provide an extensive analysis of this effect on various architectures, the common L_2-and L_-training, and Transformer-based models. Further, we provide a possible explanation for this phenomenon from a frequency perspective.
Assessing the robustness of deep neural networks against out-of-distribution inputs is crucial, especially in safety-critical domains like autonomous driving, but also in safety systems where malicious actors can digitally alter inputs to circumvent safety guards. However, designing effective out-of-distribution tests that encompass all possible scenarios while preserving accurate label information is a challenging task. Existing methodologies often entail a compromise between variety and constraint levels for attacks and sometimes even both. In a first step towards a more holistic robustness evaluation of image classification models, we introduce an attack method based on image solarization that is conceptually straightforward yet avoids jeopardizing the global structure of natural images independent of the intensity. Through comprehensive evaluations of multiple ImageNet models, we demonstrate the attack's capacity to degrade accuracy significantly, provided it is not integrated into the training augmentations. Interestingly, even then, no full immunity to accuracy deterioration is achieved. In other settings, the attack can often be simplified into a black-box attack with model-independent parameters. Defenses against other corruptions do not consistently extend to be effective against our specific attack.
Project website: https://github.com/paulgavrikov/adversarial_solarization
Following the traditional paradigm of convolutional neural networks (CNNs), modern CNNs manage to keep pace with more recent, for example transformer-based, models by not only increasing model depth and width but also the kernel size. This results in large amounts of learnable model parameters that need to be handled during training. While following the convolutional paradigm with the according spatial inductive bias, we question the significance of \emph{learned} convolution filters. In fact, our findings demonstrate that many contemporary CNN architectures can achieve high test accuracies without ever updating randomly initialized (spatial) convolution filters. Instead, simple linear combinations (implemented through efficient 1×1 convolutions) suffice to effectively recombine even random filters into expressive network operators. Furthermore, these combinations of random filters can implicitly regularize the resulting operations, mitigating overfitting and enhancing overall performance and robustness. Conversely, retaining the ability to learn filter updates can impair network performance. Lastly, although we only observe relatively small gains from learning 3×3 convolutions, the learning gains increase proportionally with kernel size, owing to the non-idealities of the independent and identically distributed (\textit{i.i.d.}) nature of default initialization techniques.
Modern CNNs are learning the weights of vast numbers of convolutional operators. In this paper, we raise the fundamental question if this is actually necessary. We show that even in the extreme case of only randomly initializing and never updating spatial filters, certain CNN architectures can be trained to surpass the accuracy of standard training. By reinterpreting the notion of pointwise ($1\times 1$) convolutions as an operator to learn linear combinations (LC) of frozen (random) spatial filters, we are able to analyze these effects and propose a generic LC convolution block that allows tuning of the linear combination rate. Empirically, we show that this approach not only allows us to reach high test accuracies on CIFAR and ImageNet but also has favorable properties regarding model robustness, generalization, sparsity, and the total number of necessary weights. Additionally, we propose a novel weight sharing mechanism, which allows sharing of a single weight tensor between all spatial convolution layers to massively reduce the number of weights.
It is common practice to apply padding prior to convolution operations to preserve the resolution of feature-maps in Convolutional Neural Networks (CNN). While many alternatives exist, this is often achieved by adding a border of zeros around the inputs. In this work, we show that adversarial attacks often result in perturbation anomalies at the image boundaries, which are the areas where padding is used. Consequently, we aim to provide an analysis of the interplay between padding and adversarial attacks and seek an answer to the question of how different padding modes (or their absence) affect adversarial robustness in various scenarios.
Currently, many theoretical as well as practically relevant questions towards the transferability and robustness of Convolutional Neural Networks (CNNs) remain unsolved. While ongoing research efforts are engaging these problems from various angles, in most computer vision related cases these approaches can be generalized to investigations of the effects of distribution shifts in image data. In this context, we propose to study the shifts in the learned weights of trained CNN models. Here we focus on the properties of the distributions of dominantly used 3×3 convolution filter kernels. We collected and publicly provide a dataset with over 1.4 billion filters from hundreds of trained CNNs, using a wide range of datasets, architectures, and vision tasks. In a first use case of the proposed dataset, we can show highly relevant properties of many publicly available pre-trained models for practical applications: I) We analyze distribution shifts (or the lack thereof) between trained filters along different axes of meta-parameters, like visual category of the dataset, task, architecture, or layer depth. Based on these results, we conclude that model pre-training can succeed on arbitrary datasets if they meet size and variance conditions. II) We show that many pre-trained models contain degenerated filters which make them less robust and less suitable for fine-tuning on target applications. Data & Project website: https://github.com/paulgavrikov/cnn-filter-db.
Deep learning models are intrinsically sensitive to distribution shifts in the input data. In particular, small, barely perceivable perturbations to the input data can force models to make wrong predictions with high confidence. An common defense mechanism is regularization through adversarial training which injects worst-case perturbations back into training to strengthen the decision boundaries, and to reduce overfitting. In this context, we perform an investigation of 3 × 3 convolution filters that form in adversarially- trained models. Filters are extracted from 71 public models of the ℓ ∞ -RobustBench CIFAR-10/100 and ImageNet1k leaderboard and compared to filters extracted from models built on the same architectures but trained without robust regularization. We observe that adversarially-robust models appear to form more diverse, less sparse, and more orthogonal convolution filters than their normal counterparts. The largest differences between robust and normal models are found in the deepest layers, and the very first convolution layer, which consistently and predominantly forms filters that can partially eliminate perturbations, irrespective of the architecture.
Recent work has investigated the distributions of learned convolution filters through a large-scale study containing hundreds of heterogeneous image models. Surprisingly, on average, the distributions only show minor drifts in comparisons of various studied dimensions including the learned task, image domain, or dataset. However, among the studied image domains, medical imaging models appeared to show significant outliers through "spikey" distributions, and, therefore, learn clusters of highly specific filters different from other domains. Following this observation, we study the collected medical imaging models in more detail. We show that instead of fundamental differences, the outliers are due to specific processing in some architectures. Quite the contrary, for standardized architectures, we find that models trained on medical data do not significantly differ in their filter distributions from similar architectures trained on data from other domains. Our conclusions reinforce previous hypotheses stating that pre-training of imaging models can be done with any kind of diverse image data.
An Empirical Investigation of Model-to-Model Distribution Shifts in Trained Convolutional Filters
(2021)
We present first empirical results from our ongoing investigation of distribution shifts in image data used for various computer vision tasks. Instead of analyzing the original training and test data, we propose to study shifts in the learned weights of trained models. In this work, we focus on the properties of the distributions of dominantly used 3x3 convolution filter kernels. We collected and publicly provide a data set with over half a billion filters from hundreds of trained CNNs, using a wide range of data sets, architectures, and vision tasks. Our analysis shows interesting distribution shifts (or the lack thereof) between trained filters along different axes of meta-parameters, like data type, task, architecture, or layer depth. We argue, that the observed properties are a valuable source for further investigation into a better understanding of the impact of shifts in the input data to the generalization abilities of CNN models and novel methods for more robust transfer-learning in this domain.
Conversion-Killer in Onlineshops - Identifikation von Kundenorientierung anhand von Mimikindikatoren
(2018)
Mimik als Ausdrucksform von Emotionen ist, seitdem es die Menschheit gibt, ein zentrales Verständigungsmittel in der Kommunikation. Da das Gegenüber in der Interaktion heute in vielen Situationen des täglichen Lebens eine Maschine ist, wäre es vorstellbar, dass die Mimik als Emotionsträger und Kommunikationsmittel seine Bedeutung verliert. Dies ist ein Irrtum: In der vorliegenden Untersuchung wird im Rahmen einer umfassenden Studie festgestellt, dass Mimik von der menschlichen Kommunikation schwer trennbar ist und auch in der Interaktion mit Maschinen unvermindert auftritt. Diese Erkenntnis kann Unternehmen helfen, den Mensch-Maschine-Dialog genau zu analysieren, um erfolgsmindernde Kundenirritationen zu eliminieren und die Abläufe optimal auf die Bedürfnisse der Nutzer anpassen zu können.
Entscheidungsfindung: Die Rolle der Kundenemotionen – Was Mimik über Emotion und Entscheidung verrät
(2018)
Emotionale Reaktionen von Nutzern auf Stimuli einer interaktiven Anwendung gelten als zentrale Indikatoren für positive oder negative User Experience. Oliver Gasts Untersuchung stellt ein Verfahren vor, das die Messung und Interpretation der Emotionen bei der Nutzung interaktiver Anwendungen ermöglicht. Denn der Erfolg von webbasierten Applikationen, wie z. B. Online-Shops, hängt in sehr hohem Maße von der Erfüllung der Erwartungen des einzelnen Nutzers ab. Mit den Ergebnissen seiner Untersuchung hat der Autor ein Modell erstellt und evaluiert, welches die relevanten Indikatoren für Mimik basierte Emotionsbewertung umfassend aufzeigt.
Instagram-Marketing: Erfolgsfaktoren und Handlungsempfehlungen am Beispiel der Kosmetikindustrie
(2015)
Das Ziel dieser Arbeit lag darin, Faktoren, die den Erfolg eines Instagram-Auftritts von Kosmetik produzierenden oder vertreibenden Unternehmen aus dem deutsch-sprachigen Raum steigern, zu ermitteln und auf Grundlage der Ergebnisse Handlungs-empfehlungen auszusprechen. Im Zuge dessen wurden sieben qualitative Befragungen von Experten durchgeführt und anschließend mit Hilfe der zusammen-fassenden Inhaltsanalyse nach Mayring ausgewertet. Aus der empirischen Studie geht hervor, dass Instagram bereits jetzt eine große Rolle im Social-Media-Mix einnimmt und Unternehmen primär Ziele des Brandings und der Markenrepräsentation auf Instagram verfolgen. Desweiteren konnten mit Hilfe der leitfadengestützten Experteninterviews 15 Faktoren identifiziert werden, die positiven Einfluss auf das Instagram-Marketing ausüben: Persönlichkeit, Qualität, Authentizität, Aktualität, Kanalmix, Hashtags, Videos, die Verknüpfung mit anderen Unternehmensbereichen, Transparenz, Relevanz, Influencer-Relations, Community, Bestätigung und Management. Als am bedeutend-sten haben sich die Punkte Persönlichkeit, Qualität und Relevanz gezeigt: Marken stehen demnach vor der Herausforderung, ästhetische, zielgruppenrelevante Inhalte, die an die Eigenheiten Instagrams als Plattform angepasst sind, zu veröffentlichen und auf Augenhöhe mit den Nutzern zu kommunizieren, ohne sich selbst als Marke zu verlieren. Ferner führte die Expertenbefragung zu der Erkenntnis, dass Instagram sowohl als Community als auch als Marketing-Tool weiterhin an Bedeutung gewinnen wird, vor allem im deutschen Raum und in der Beauty-Branche.
The Project "Schluckspecht" of the University of Offenburg consists of participating in the European marathon called "Shell Eco-Marathon"(SEM) which consists of designing and building from the beginning a vehicle with the greatest possible energy efficiency. The University of Offenburg has participated in this project since 1998.
The team that forms the Schluckspecht project is made up of around 30 students from the faculties of mechanical engineering, process engineering, electrical engineering, medical technology and computer science, as well as the degree in Audiovisual Communication. The team was founded in 1998 and since then students have been developing and building high efficiency vehicles to participate in the European marathon Shell Eco.
In this project, students can put into practice all the theoretical knowledge obtained during their studies. Also can be learned how to work interdisciplinarity as a team, a skill that for now, many companies or require or seek.
The following topics are discussed in the Schluckspecht project, which are also ideal for the work of students:
-Conception construction and production of high efficiency vehicles.
-Computational design and manufacture of lightweight components and sets.
-Development of lightweight components and sets from renewable raw materials.
-Construction and development of special test benches, for example: motor test bench.
-Implementation and optimization of control strategies for autonomous driving
-Mechanical and electrical integration of sensors for autonomous driving
-Ergonomic studies and optimization of the driver's cabin.
The objective of the project is to develop and manufacture research vehicles that make individual mobility as efficient as possible from an energy point of view. To achieve this, current and future issues of the industry are discussed. In this project, both the theoretical and practical part of the light construction of vehicles and the reduction of friction, the variety of propulsion concepts (electric thrusters, fuel cells, diesel/petrol engines, Stirling engines) and autonomous driving are investigated. The services of the University of Offenburg together with some external partners are grouped together to make this wonderful project work.
Surface treatment intensity monitoring is still an open and challenging nondestructive testing problem. For the estimation of residual stress with ultrasonic measurements, local linear and nonlinear elastic constants are needed as input. In this paper, nonlinear elastic-wave interactions (also called wave mixing or scattering) — namely, the generation of secondary ultrasonic waves in a nonlinear medium — are considered as a prospective means for near-surface nonlinear elastic parameter evaluation. The allowed interactions between bulk and surface waves, as well as the dependence of the scattering efficiency on the frequency and angle between source waves, were investigated through an analytical model, then compared with FEM simulations and experimental results. Finally, possible future steps for the development of the applied methods for the determination of near-surface higher-order elastic constants are discussed. In addition, several problem-relevant data processing procedures are presented.
Existing ultrasonic stress evaluation methods utilize the acoustoelastic effect for bulk waves propagating in volume, which is unsuitable for a surface treated material, possessing a significant variation in material properties with depth. With knowledge of nonlinear elastic parameters – third-order elastic constants (TOEC) close to the surface of the sample, the acoustoelastic effect might be used with surface acoustic waves. This work is focused on the development of an independent method of TOEC measurement using the effect of nonlinear surface acoustic waves scattering – i.e. the effect of elastic waves interaction in a nonlinear medium.
In this paper, the possible three wave interactions of surface guided waves and bulk waves are described and formulae for the efficiency of harmonic generation and mode mixing are derived. A comparison of the efficiency of surface waves scattering in an isotropic medium for different interaction types is carried out with the help of nonlinear perturbation theory. First results for surface and bulk wave mixing with known second- and third-order elastic constants are shown.
Ziel dieser wissenschaftlichen Arbeit war es, mit Hilfe einer Studie zu untersuchen, ob mit der am Vorfuß des Schuhs gebogenen Form positiver Einfluss auf die Biomechanik beim Laufen genommen werden kann. Nach Durchführung der markerbasierten Bewegungsana- lyse sowie einer Kraftmessung mittels instrumentiertem Laufband wurden hierzu über die Berechnungen der inversen Dynamik jeweils sowohl die Kinematik als auch die Kinetik der rechten unteren Extremität in der sagittalen Ebene ermittelt.
Sechzehn Versuchspersonen (25,3 ± 2,2 Jahre) absolvierten jeweils eine Laufeinheit von etwa 20 Sekunden Dauer in der Ebene mit einer flachen sowie mit einer am Vorfuß ge- bogenen Carbonfaser-Platte. Die gewählte Laufgeschwindigkeit betrug unabhängig der Bedingung 3,5 m/s. Letztlich konnte am Zehengrundgelenk ein Formeffekt betrachtet werden, wohingegen am Sprunggelenk eine Signifikanz dieses Effekts ausblieb. So war die Kinematik des Zehengrundgelenks in Form einer Reduktion der maximalen Dorsalflexi- on entlang der Stützphase bedeutsam durch die gebogene Form am Vorfuß beeinflusst. Ebenso wurden sowohl das maximale Plantarflexion-Moment als auch die generierte sowie absorbierte Leistung an diesem Gelenk während des Bodenkontaktes bedeutsam reduziert.
Aufgrund der vorliegenden Messergebnisse und des aktuellen Forschungsstandes wurde davon ausgegangen, dass die Reduktion der mechanischen Anforderungen am Zehengrund- gelenk in erster Linie infolge geringerer externer Hebelarme herbeigeführt werden konnten. Im Zusammenhang mit dem reduzierten Netto-Energieverlust wurde schließlich ein gerin- geres aktives Muskelvolumen der intrinsischen Fußmuskulatur vermutet. In Anbetracht des am Sprunggelenk ausgebliebenen Formeffekts deuteten die Daten demgegenüber jedoch nicht auf geringere Anforderungen dieses Gelenks infolge der gebogenen Form am Vorfuß hin. Diesbezüglich wurde vermutet, dass womöglich individuelle Antworten auf die Geome- trie der Mittelsohle in Form von einem aktiveren Abstoßen der Reduktion des externen Hebelarms entgegenwirkten.Nichtsdestotrotz deuteten die erhobenen Daten letztlich auf die Unterstützung der Vorteile einer erhöhten Biegesteifigkeit sowie in Teilen auf einen Ausbau dieser Effekte durch die Geometrie am Vorfuß hin.
Oxide semiconductors are highly promising candidates for the most awaited, next-generation electronics, namely, printed electronics. As a fabrication route for the solution-processed/printed oxide semiconductors, photonic curing is becoming increasingly popular, as compared to the conventional thermal curing method; the former offers numerous advantages over the latter, such as low process temperatures and short exposure time and thereby, high throughput compatibility. Here, using dissimilar photonic curing concepts (UV–visible light and UV-laser), we demonstrate facile fabrication of high performance In2O3 field-effect transistors (FETs). Beside the processing related issues (temperature, time etc.), the other known limitation of oxide electronics is the lack of high performance p-type semiconductors, which can be bypassed using unipolar logics from high mobility n-type semiconductors alone. Interestingly, here we have found that our chosen distinct photonic curing methods can offer a large variation in threshold voltage, when they are fabricated from the same precursor ink. Consequently, both depletion and enhancement-mode devices have been achieved which can be used as the pull-up and pull-down transistors in unipolar inverters. The present device fabrication recipe demonstrates fast processing of low operation voltage, high performance FETs with large threshold voltage tunability.
Diese Arbeit beschäftigt sich mit der Biomechanik der Halswirbelsäule (HWS) beim Umgang mit dem Smartphone. Die Kräfte, die auf Wirbelkörper, Wirbelgelenke, Bandscheiben, Muskeln und Bänder wirken, werden mit steigendem Flexionswinkel der HWS größer. Die Beschwerden hingegen, welche der Smartphone-Nacken hervorruft, sind meist akut und mit regelmäßiger Bewegung und der Stärkung der Nackenmuskulatur gut zu behandeln. Eine Therapie ist somit auch zur Vorbeugung geeignet. Doch die Langzeitauswirkungen sind nicht außer Acht zu lassen, denn durch die steigenden Nutzungsmöglichkeiten der Smartphones steigt auch der durchschnittliche tägliche Gebrauch stärker an. So wird vor allem die tägliche Bildschirmzeit bei Jugendlichen immer länger. Das aktuell noch akute Krankheitsbild des Smartphone-Nackens, das nur selten einen chronischen Verlauf nimmt und Langzeitschäden verursacht, könnte sich durch fehlende oder zu späte Maßnahmen zu einem größeren chronischen Krankheitsbild entwickeln.
Die Erfindung betrifft eine Vorrichtung mit deren Hilfe ein Gas, vorzugsweise Luft, erwärmt und dem Gas Feuchtigkeit und Schadstoffpartikel entzogen werden können. Die vorliegende Erfindung betrifft auch eine Speicherpatrone zum Speichern von thermischer Energie, die in einer erfindungsgemäßen Vorrichtung verwendet werden kann. Weiterhin betrifft die vorliegende Erfindung auch die Verwendung der erfindungsgemäßen Vorrichtung bzw. der erfindungsgemäßen Speicherpatrone zum Erwärmen von Gas oder zum Entfernen von Feuchtigkeit aus einem Gas. Ein Verfahren zum Erwärmen von Gas bzw. dem Entfernen von Feuchtigkeit aus einem Gas sowie ein Verfahren zum Regenerieren einer entladenen erfindungsgemäßen Speicherpatrone sind ebenso Gegenstand der vorliegenden Erfindung.
This thesis deals with the creation of a cross-platform application using Xamarin.Forms. The cross-platform application will cover three different platforms android, iOS, and UWP.
The application is the first concept of a possible feature for a companion application for LS telcom. There, the user can identify cell antennas using a map-view and a camera-view making the application an augmented reality application. Thus, the user can search for a specific cell and access various information that he would not be able to see with his eyes like for example the frequency of the transmitting cells.
The cell data is generated from three different sources, Cartoradio, OpenCelliD, and the LS telcom databrowser. Eventually, the decision was taken, that the main source should be the LS telcom databrowser which has multiple advantages over the other cell sources.
The cells on the map-view are placed using the extracted coordinates from the source data. However, the cells on the camera-view are placed with complex calculations using different formulas like the Haversine formula to calculate the distance between the cell and the user and the bearing to calculate the angle between the cell and the user. Various settings will allow the user to personalize the application according to his wishes.
Die vorliegende Bachelorarbeit behandelt das Thema „Attraktivität des Offenburger Weihnachtsmarktes als Event im Stadtmarketing“. Im ersten Teil werden Grundbegriffe und Konzepte vorgestellt und erläutert, warum Weihnachtsmärkte ein wichtiger Teil des Stadtmarketing sind. In Kooperation mit dem Stadtmarketing Offenburg wurde eine Befragung durchgeführt, um die Attraktivität des Offenburger Weihnachtsmarktes zu evaluieren. Schwerpunkte der Befragung waren Besuchsmodalitäten, Angebotsattraktivität, Aktionsräumliches Verhalten sowie Einzugsgebiet und soziodemografisches Profil der Besucher. Die Ergebnisse daraus werden im zweiten Teil der Arbeit vorgestellt. Im dritten Teil werden abschließend Empfehlungen und Ideen entwickelt, wie die Attraktivität des Offenburger Weihnachtsmarktes als Event im Stadtmarketing weiterhin auf hohem Niveau gehalten werden kann.
The instability of ultra-thin films of an electrolyte bordering a dielectric gas in an external tangential electric field is scrutinized. The solid wall is assumed to be either a conducting or charged dielectric surface. The problem has a steady one-dimensional solution. The theoretical results for a plug-like velocity profile are successfully compared with available experimental data. The linear stability of the steady-state flow is investigated analytically and numerically. Asymptotic long-wave expansion has a triple-zero singularity for a dielectric wall and a quadruple-zero singularity for a conducting wall, and four (for a conducting wall) or three (for a charged dielectric wall) different eigenfunctions. For infinitely small wave numbers, these eigenfunctions have a clear physical meaning: perturbations of the film thickness, of the surface charge, of the bulk conductivity, and of the bulk charge. The numerical analysis provides an important result: the appearance of a strong short-wave instability. At increasing Debye numbers, the short-wave instability region becomes isolated and eventually disappears. For infinitely large Weber numbers, the long-wave instability disappears, while the short-wave instability persists. The linear stability analysis is complemented by a nonlinear direct numerical simulation. The perturbations evolve into coherent structures; for a relatively small external electric field, these are large-amplitude surface solitary pulses, while for a sufficiently strong electric field, these are short-wave inner coherent structures, which do not disturb the surface.
Currently, immersive technologies are enjoying great popularity. This trend is reflected in technological advances and the emergence of new products for the mass market, such as augmented reality glasses. The range of applications for immersive technologies is growing with more efficient and affordable technologies and student adoption. Especially in education, the use will improve existing learning methods. Immersive application use visual, audio and haptic sensors to fully engage the user in a virtual environment. This impression is reinforced with the help of realistic visualizations and the opportunity for interaction. In particular, Augmented reality is characterized by a high degree of integration between reality and the inserted virtual objects. An augmented interactive simulation for the determination of the specific charge of an electron will be used as an example to demonstrate how such immersion can be created for users. A virtual Helmholtz coil is used to measure and calculate the e/m constant. The voltage at the cathode for generating the electron beam, but also the voltage of the homogeneous magnetic field for deflecting the electron beam, can be variably controlled by haptic user input. Based on these voltages, an immersive virtual electron beam is calculated and visualized. In this paper, the authors present the conceptual steps of this immersive application and address the challenges associated with designing and developing an augmented and interactive simulation.
The paper describes the implementation of practical laboratory settings in a virtual environment. With the entry of VR glasses into the mass market, there is a chance to establish educational and training applications for displaying some teaching materials and practical works. Therefore our project focuses on the realization of virtual experiments and environments, which gives users a deep insight into selected subfields of Optics and Photonics. Our goal is not to substitute the hand on experiments rather to extend them. By means of VR glasses, the user is offered the possibility to view the experiment from several angles and to make changes through interactive control functions. During the VR application, additional context-related information is displayed. By using object recognition, the specific graphics and texts for the respective object are loaded and supplemented at the appropriate place. Thus, complex facts are supported in an informative way. The prototype is developed using the Unity Engine and can thus be exported to different platforms and end devices. Another major advantage of virtual simulations to the real situation is the high degree of controllability as well as the easy repeatability. With slight modifications, entire experiments can be reused. Our research aims to acquire new knowledge in the field of e-learning in association with VR technology. Here we try to answer a core question of the compatibility of the individual media components.
Die Digitalisierung der Hochschullehre schreitet aktuell weiter voran. Mit dem Beginn der Corona-Pandemie und den Einschränkungen im öffentlichen Raum sind Studierende als auch Lehrende auf alternative Lehrmethoden angewiesen.
Das Ziel der vorliegenden Arbeit ist es, zu beantworten, inwiefern eine E-Lerning Anwendung unter Verwendung von Gamification Elementen realisiert werden kann. Zur Konzeption und Programmierung eines Prototypen und zur Generierung und Aufbereitung von Lehrinhalten unter Berücksichtigung mediendidaktischer Aspekte, wurde einen Laborversuch aus dem Bereich der Elektrotechnik zurückgegriffen. Zur Extraktion der Informationen wurden die Component Display Theorie und die Elaborationstheorie genutzt.
Anhand der gesammelten Lehrinhalte wurden mithilfe des Octalysis-Frameworks passende Gamification Elemente gewählt. Insbesondere wurden hier die positiven Motivatoren gewählt, in Kombination mit einem ausgewogenen Verhältnis zwischen intrinsischen und extrinsischen Antrieben.
Im Bereich der Schaltungsssimulation wurde auf das Open Source Projekt Spice-Sharp zugegriffen, welches auf der SPICE Bibliothek basiert.
Abschließend wurde die Unity Engine für die Realisierung des Prototyps verwendet. Mit diesem wird ein Grundlagenversuch aus der Elektrotechnik simuliert.
Als deutliche Erkenntnis zeigt sich, dass das Octalysis-Framework sinnvolle Spielelemente im Zusammenhang mit einer E-Learning Anwendung liefert.
Eine weitergehende Forschung im Bereich der Gamification von Simulationssoftware könnte mit einer Evaluation der vorgeschlagenen Spielelemente problemlos fortgeführt werden.
Licht war für die Menschheit schon immer ein Hilfsmittel zur Orientierung. Das Zusammenspiel zwischen hellen und schattierten Oberflächen macht eine räumliche Wahrnehmung erst möglich. Die Lokalisierung von Lichtquellen bietet darüber hinaus für zahlreiche Anwendungsfelder, wie beispielsweise Augmented Reality, ein großes Potential.
Das Ziel der vorliegenden Arbeit war es, ein neuronales Netzwerk zu entwickeln, welches mit Hilfe eines selbst generierten, synthetischen Datensatzes eine Lichtsetzung parametrisiert. Dafür wurden State-of-the-Art Netzwerke aus der digitalen Bildverarbeitung eingesetzt.
Zu Beginn der Arbeit mussten die Eigenschaften der Lichtsetzung extrahiert werden. Eine weitere fundamentale Anforderung war die Aufbereitung des Wissens von Deep Learning.
Für die Generierung des synthetischen Datensatzes wurde eigens ein Framework entwickelt, welches auf der Blender Engine basiert.
Anschließend wurden die generierten Bilder und Metadaten in einem abgewandelten VGG16- und ResNet50-Netz trainiert, validiert und evaluiert.
Eine gewonnene Erkenntnis ist, dass sich künstlich generierte Daten eignen um ein neuronales Netz zu trainieren. Des Weiteren konnte gezeigt werden, dass sich mit Hilfe von Deep Learning Lichtsetzungsparameter extrahieren lassen.
Eine weiterführende Forschungsaufgabe könnte mit dem vorgeschlagenen Ansatzdie Lichtinszenierung von Augmented Reality Anwendungen verbessern.
The aim of this study is to identify indicators at country level that could prove useful in improving the effectiveness of fraud detection in European Structural and Investment Funds. The chapter analyses EU funds, belonging to the period 2014–2020, from and the study suggests the convenience of tracking funds, especially in countries with higher GDP and higher transparency levels, and the lesser relevance of the number of irregularities for countries with higher GDP and those receiving larger funds. Fraud and fraud detection rates in individual funds vary significantly across states. Federal states, such as the Federal Republic of Germany, are comparatively successful in detecting fraud in EU funds.
Ziel dieser Arbeit war die Konzeption und Gestaltung einer Unboxing Experience für ein E-Commerce Startup im Bereich der gehobenen Convenience Food Branche unter Berücksichtigung der zu erreichenden Unternehmensziele und der fokussierten Zielgruppe des Unternehmens. Hierfür wurde zunächst der Begriff Unboxing im Kontext von Marketing und Onlinehandel sowie die Bedeutung verwandter Trends wie des Unboxing-Videos erörtert. Anschließend wurden das Unternehmen und die relevante Zielgruppe in Form von Personas vorgestellt. Durch die konkrete Definition der vorgegebenen Unternehmensziele konnte auch die spätere Gestaltung hierauf aufbauen. Schließlich wurden bereits vorhandene Best Practices recherchiert und analysiert, um Ideen und Anhaltspunkte zu schaffen. Die Konzeption ist in die einzelnen Gestaltungsgegenstände und deren schrittweise Ausarbeitung unterteilt. Das Ergebnis soll eine ästhetisch ansprechende und das Unternehmen widerspiegelnde Unboxing Experience sein, bestehend aus einem bedruckten Versandkarton, einer Produktbroschüre und einer Dankes- bzw. Grußkarte in zwei verschiedenen Ausführungen. Jede Komponente erfüllt hierbei einen Zweck im Unternehmenskontext. Insgesamt konnte aus den drei Einzelkomponenten eine in der Gesamtkomposition ansprechende Unboxing Experience geschaffen werden, die die Hochwertigkeit der Produkte unterstreicht und das Auspacken zu einem Erlebnis macht.
Privacy is the capacity to keep some things private despite their social repercussions. It relates to a person’s capacity to control the amount, time, and circumstances under which they disclose sensitive personal information, such as a person’s physiology, psychology, or intelligence. In the age of data exploitation, privacy has become even more crucial. Our privacy is now more threatened than it was 20 years ago, outside of science and technology, due to the way data and technology highly used. Both the kinds and amounts of information about us and the methods for tracking and identifying us have grown a lot in recent years. It is a known security concern that human and machine systems face privacy threats. There are various disagreements over privacy and security; every person and group has a unique perspective on how the two are related. Even though 79% of the study’s results showed that legal or compliance issues were more important, 53% of the survey team thought that privacy and security were two separate things. Data security and privacy are interconnected, despite their distinctions. Data security and data privacy are linked with each other; both are necessary for the other to exist. Data may be physically kept anywhere, on our computers or in the cloud, but only humans have authority over it. Machine learning has been used to solve the problem for our easy solution. We are linked to our data. Protect against attackers by protecting data, which also protects privacy. Attackers commonly utilize both mechanical systems and social engineering techniques to enter a target network. The vulnerability of this form of attack rests not only in the technology but also in the human users, making it extremely difficult to fight against. The best option to secure privacy is to combine humans and machines in the form of a Human Firewall and a Machine Firewall. A cryptographic route like Tor is a superior choice for discouraging attackers from trying to access our system and protecting the privacy of our data There is a case study of privacy and security issues in this thesis. The problems and different kinds of attacks on people and machines will then be briefly talked about. We will explain how Human Firewalls and machine learning on the Tor network protect our privacy from attacks such as social engineering and attacks on mechanical systems. As a real-world test, we will use genomic data to try out a privacy attack called the Membership Inference Attack (MIA). We’ll show Machine Firewall as a way to protect ourselves, and then we’ll use Differential Privacy (DP), which has already been done. We applied the method of Lasso and convolutional neural networks (CNN), which are both popular machine learning models, as the target models. Our findings demonstrate a logarithmic link between the desired model accuracy and the privacy budget.
3D Produktpräsentationen im Internet sind komplexe Rich Media Anwendungen, bei deren Erstellung es viel zu beachten gilt. Diese Arbeit beleuchtet verschiedene Aspekte zur Erstellung von 3D Produktpräsentationen. Das Zielmedium Internet, die Gestaltung von 3D Produkten und Layouts, die Interaktivität von 3D Produktseiten, Technologien zu Erstellung, technische Hürden des Mediums, Visionen und ein Projektablauf sowie eine Perspektive zur Entwicklung von 3D Produktpräsentationen sind die inhaltlichen Schwerpunkte der Arbeit.
Die freie Software OpenSSH erlaubt den sicheren Fernzugriff auf entfernte Rechner über das Netzwerk oder Internet und kommt auf vielen Linux-Rechnern zum Einsatz. OpenSSH ermöglicht verschiedene Wege der Authentifizierung, unter anderem mit Hilfe von asymmetrischen Schlüsseln. Im Standardfall existiert hierbei für jedes Nutzerkonto auf dem Zielrechner eine Datei mit den public-Keys der zugriffsberechtigten Nutzer, welche manuell gepflegt wird. Diese Art der Zugriffskontrolle wird jedoch schnell unübersichtlich, sobald viele Mitarbeiter auf viele Server zugreifen dürfen. Um den Überblick über zugriffsberechtigte Nutzer zu behalten, ist es deshalb notwendig, zur Verwaltung eine zusätzliche Software einzusetzen. Im Rahmen dieser Arbeit soll eine solche Verwaltungssoftware konzipiert werden. Nach einer Analyse bestehender Systeme werden die Gründe für die Wahl eines der Tools dargestellt sowie die anschließende Weiterentwicklung der gewählten Software dokumentiert.
Eine reine Passwortauthentifizierung, wie sie im Hochschulumfeld eingesetzt wird, bringt Sicherheitsrisiken mit sich. Ziel dieser Arbeit ist es zu analysieren, wie die Sicherheit in der Praxis mittels einer Zwei-Faktor-Authentifizierung erhöht werden kann und in welcher Weise die Einführung eines Single-Sign-On Konzept zum Erreichen dieses Ziels beiträgt. Es konnte gezeigt werden, dass eine Shibboleth IdP Installation als zentraler Zugangspunkt für Single-Sign-On sowie eine daran angebundene privacyIDEA-Instanz die Umsetzung der Zwei-Faktor-Authentifizierung für einige aber nicht alle Dienste ermöglicht.
Zunehmender städtischer und regionaler Güterverkehr belastet die Anwohner, Verkehrsteilnehmer und die Umwelt. Das Projekt LogIKTram verfolgt das Ziel, regionalen Güterverkehr von der Straße auf die Schiene zu verlagern und somit eine Entlastung zu erzielen. Diese Idee soll am Beispiel einer Gütertram in der Region Karlsruhe erprobt werden. Dafür entwickelt die Hochschule Offenburg unter anderem ein Logistikkonzept und ein Planungsmodell. Beides wird in einer IKT-Plattform umgesetzt.
Bislang gibt es keine Güterstraßenbahnsysteme, die im urbanen Warentransport im Realbetrieb eingesetzt werden. Bestehende Konzepte sind auf einzelne Branchen, ausgewählte Transportgüter oder einzelne Verlader ausgerichtet. Untersuchungen zu Güterstraßenbahnprojekten konzentrieren sich auf individuelle Kunden (zum Beispiel "CarGo Tram" Dresden). Für die Realisierung einer Güterstraßenbahn im urbanen Raum wäre zu klären, welche Anforderungen potenzielle Nutzer haben und wie diese Anforderungen in ein logistisches Konzept integriert werden können. In einer multiplen Fallstudie werden drei Unternehmen aus verschiedenen Branchen analysiert. Aufgrund heterogener Anforderungen wird ein modulares Logistikkonzept vorgeschlagen. Der Beitrag entstand im Rahmen des Projektes "LogIKTram: Logistikkonzept und IKT-Plattform für stadtbahnbasierten Gütertransport".
Druckluft ist verdichtete atmosphärische Luft und wird in der Industrie sowie im Handwerk als Energieträger genutzt. Den vielfältigen Vorteilen stehen aber auch einige Nachteile gegenüber, wobei der wichtigste der Preis ist. Druckluft gilt als eine der teuersten Energieformen und die Energiekosten stellen den größten Kostenfaktor bei der Produktion dar. In der vorliegenden Arbeit soll eine modellprädiktive Regelung eines Druckluftsystems entworfen und implementiert werden. Das ökonomische Regelziel besteht darin, die Energiekosten bei der Erzeugung von Druckluft zu senken. Die Implementierung umfasst unterschiedliche Varianten eines Druckluftsystems. Dazu zählen folgende Auslegungsvarianten:
• Ein Druckluftsystem mit frequenzgeregeltem Kompressor
o Mit einem Schraubenkompressor
o Mit zwei Schraubenkompressoren
• Ein Druckluftsystem mit binärgeregeltem Kompressor
o Schraubenkompressor
o Kolbenkompressor
Basierend auf den erstellten Modellen wird ein modellprädiktiver Regler entworfen und implementiert. Die modellprädiktive Regelung leistet einen entscheidenden Beitrag zur Prozessoptimierung. Der Optimierungsalgorithmus erhöht bei niedrigen Strompreisen das Druckniveau im Behälter und profitiert bei hohen Preisen vom gespeicherten Luftvolumen. Die Flexibilität des Systems ist begrenzt. Mit zunehmender Behältergröße konvergieren die Kosten der Drucklufterzeugung gegen einen parameterabhängigen Wert des Systems. Außerdem bestimmen die Systemparameter die Lösbarkeit des Optimierungsproblems. Im Vergleich zu den frequenzgeregelten Kompressoren sind die binärgeregelten Kompressoren nur unter modifizierten Annahmen einsetzbar, ansonsten kann das Optimierungsproblem nicht gelöst werden.
Weitsprung mit und ohne Unterschenkelprothese – gleiche Sportart, unterschiedliche Disziplinen
(2022)
With our society moving towards Industry 4.0, an increasing number of tasks and procedures in manual workplaces are augmented with a digital component. While the research area of Internet-of-Things focuses on combining physical objects with their digital counterpart, the question arises how the interface to human workers should be designed in such Industry 4.0 environments. The project motionEAP focuses on using Augmented Reality for creating an interface between workers and digital products in interactive workplace scenarios. In this paper, we summarize the work that has been done in the motionEAP project over the run-time of 4 years. Further, we provide guidelines for creating interactive workplaces using Augmented Reality, based on the experience we gained.
With projectors and depth cameras getting cheaper, assistive systems in industrial manufacturing are becoming increasingly ubiquitous. As these systems are able to continuously provide feedback using in-situ projection, they are perfectly suited for supporting impaired workers in assembling products. However, so far little research has been conducted to understand the effects of projected instructions on impaired workers. In this paper, we identify common visualizations used by assistive systems for impaired workers and introduce a simple contour visualization. Through a user study with 64 impaired participants we compare the different visualizations to a control group using no visual feedback in a real world assembly scenario, i.e. assembling a clamp. Furthermore, we introduce a simplified version of the NASA-TLX questionnaire designed for impaired participants. The results reveal that the contour visualization is significantly better in perceived mental load and perceived performance of the participants. Further, participants made fewer errors and were able to assemble the clamp faster using the contour visualization compared to a video visualization, a pictorial visualization and a control group using no visual feedback.
Die vorliegende, schriftliche Dokumentation befasst sich mit der Entwicklung, Konstruktion und Ausarbeitung eines speziellen Sonderbetriebsmittels im Bereich der Umformtechnik.
Aus Gründen der Materialersparnis soll ein Stanzwerkzeug zur Herstellung von asymmetrischen Blech-Rohlingen dahingehend optimiert werden, dass die Schneid-Elemente pro Ar-beitsgang eine Drehung um 180° durchführen können. Durch diese Maßnahme soll erreicht werden, dass zwischen den ausgeschnittenen Rohlingen weniger Abfallmaterial anfällt, wo-durch Materialkosten im laufenden Fertigungsprozess eingespart werden können.
Die Arbeit beinhaltet das systematische Erfassen von Anforderungen und prozessbedingten Gegebenheiten, die Erarbeitung von Lösungskonzepten, sowie das Ausarbeiten eines aus-gewählten Konzepts als detaillierte Konstruktion. Letztgenannte umfasst das Erstellen funktions- und fertigungsgerechter Einzelkomponenten und Baugruppen, die Auslegung und Auswahl benötigter Zukauf-Komponenten, sowie das Ableiten fertigungsgerechter technischer Zeichnungen.
Als Nachweis der Funktion der erarbeiteten Vorrichtung werden sowohl eine Bewegungssimulation, als auch entsprechende Nachweisrechnungen der Bauteilfestigkeit unter Berücksichtigung wirkender Prozesskräfte durchgeführt.
Resultat dieser Arbeit ist eine erwiesenermaßen funktionsfähige Konstruktion, die sämtliche von Seiten des Auftraggebers gestellten Anforderungen erfüllt.