Refine
Year of publication
Document Type
- Conference Proceeding (1253)
- Article (reviewed) (687)
- Bachelor Thesis (604)
- Article (unreviewed) (566)
- Part of a Book (460)
- Contribution to a Periodical (287)
- Book (242)
- Master's Thesis (208)
- Other (142)
- Working Paper (105)
Conference Type
- Konferenzartikel (950)
- Konferenz-Abstract (156)
- Konferenzband (77)
- Sonstiges (42)
- Konferenz-Poster (32)
Language
- German (2867)
- English (1981)
- Other language (5)
- Russian (3)
- Multiple languages (2)
- French (1)
- Spanish (1)
Keywords
- Mikroelektronik (62)
- Digitalisierung (48)
- Marketing (47)
- Social Media (40)
- COVID-19 (37)
- E-Learning (35)
- RoboCup (33)
- Kommunikation (32)
- Künstliche Intelligenz (32)
- Dünnschichtchromatographie (29)
Institute
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (1118)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (1103)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (917)
- Fakultät Wirtschaft (W) (650)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (565)
- Fakultät Medien (M) (ab 22.04.2021) (384)
- INES - Institut für nachhaltige Energiesysteme (245)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (161)
- Zentrale Einrichtungen (81)
- IMLA - Institute for Machine Learning and Analytics (79)
Open Access
- Closed Access (1708)
- Open Access (1693)
- Closed (756)
- Bronze (345)
- Diamond (92)
- Gold (77)
- Hybrid (50)
- Grün (16)
RETIS – Real-Time Sensitive Wireless Communication Solution for Industrial Control Applications
(2020)
Ultra-Reliable Low Latency Communications (URLLC) has been always a vital component of many industrial applications. The paper proposes a new wireless URLLC solution called RETIS, which is suitable for factory automation and fast process control applications, where low latency, low jitter, and high data exchange rates are mandatory. In the paper, we describe the communication protocol as well as the hardware structure of the network nodes for implementing the required functionality. Many techniques enabling fast, reliable wireless transmissions are used – short Transmission Time Interval (TTI), Time-Division Multiple Access (TDMA), MIMO, optional duplicated data transfer, Forward Error Correction (FEC), ACK mechanism. Preliminary tests show that reliable end-to-end latency down to 350 μs and packet exchange rate up to 4 kHz can be reached (using quadruple MIMO and standard IEEE 802.15.4 PHY at 250 kbit/s).
The primary objective of this thesis is to examine the lean accounting transformation, which involves applying lean management principles to the accounting domain. In recent years, various sectors, including manufacturing, healthcare, and services, have experienced success with lean management practices. Nevertheless, the implementation of lean accounting within financial management has not been as extensively explored. This research aims to bridge that gap by scrutinizing the benefits and potential drawbacks of adopting lean accounting practices in business operations.
This research uses a combination of qualitative techniques and an extensive literature review to better understand the present subject matter. By describing the ideas of lean management and standard accounting and highlighting the fundamental distinctions between the two systems, the literature study lays a theoretical framework. The case studies illustrate the benefits of adopting lean accounting processes with real-world examples of firms that have made the transition effectively.
In the quantitative analysis of lean accounting's impact, both financial and operational factors are examined extensively. The results indicate that companies embracing lean accounting practices experience significant improvements in productivity, cost reduction, and decisionmaking quality. By highlighting the potential gains to be made by incorporating lean techniques into accounting procedures, this study adds to the current body of information on lean management. The findings offer practical implications for accounting professionals, business leaders, and policymakers interested in leveraging lean accounting to drive organizational performance improvement. The thesis finishes with suggestions for further study in this area, lean accounting.
In der heutigen Zeit sind viele Menschen von Rückenschmerzen betroffen. Besonders in der Industrie, beispielsweise im Bereich der Logistik oder der Produktion, kommt es durch die gesundheitlichen Beschwerden zu Arbeits- und Produktionsausfällen. Um den Beschwerden vorzubeugen, werden Exoskelette entwickelt, die das Muskel-Skelett-System unterstützen.
Exoskelette sind am Körper getragene Assistenzsysteme, die mechanisch auf den Körper einwirken. Insbesondere reduzieren sie den Kompressionsdruck im Bereich des unteren Rückens. In diesem Zusammenhang wird mit der vorliegenden Bachelorarbeit die Entlastung der Lendenwirbel durch den Einfluss von Exoskelett-typischen Kräften, die im Bereich des Brustkorbs und der Oberschenkel wirken, untersucht. Dabei beschränkt sich die Untersuchung auf eine Anhebung, wie beispielsweise die Anhebung einer Kiste.
Mithilfe eines markerbasierten und nicht-invasiven 3D-Aufnahmeverfahrens wird eine Hebebewegung ohne Exoskelett aufgenommen. Die experimentelle Aufnahme wird in der Software OpenSim mit einem computerbasierten Skelettmodell verknüpft. Durch das Hinzufügen von Exoskelett-typischen Kräften, die auf das Skelettmodell beim Anheben wirken, wird die Krafteinwirkung während des Tragens eines Exoskeletts simuliert. Dabei entstehen Drehmomente im unteren Rückenbereich, die in dieser Arbeit analysiert werden.
Die Auswertung des nicht-invasiven Verfahrens liefert die Erkenntnis, dass der Einsatz eines Exoskeletts beim Anheben im Bereich der Lendenwirbel zu einer Verringerung der Drehmomente und somit zu einer Verringerung der Belastung des unteren Rückens führt.
Für die flächendeckende Einführung von IP-basierter Infrastruktur benötigt der WDR Werkzeuge zur Bewertung von Qualitätskriterien komplexer Mediennetzwerke. Zu diesem Zweck wurde die Web-Applikation "Netztest" entwickelt.
Die Applikation besitzt eine intuitive Benutzeroberfläche und ermöglicht eine Bedienung ohne Netzwerk-technisches Hintergrundwissen. Sie greift über die Programmierschnittstelle auf die Messfunktionen der Software "Fusion" von VIAVI Solutions zu. "Fusion" bietet umfassende Konfigurationsmöglichkeiten und ist für ein Nutzende ohne technisches Hintergrundwissen schwer einsetzbar. Die Applikation "Netztest" vereinfacht die Schnittstelle zum Nutzenden und begrenzt die Funktionsvielfalt auf für den Anwendungsfall passende Testkonfigurationen.
Zu Beginn dieser Arbeit werden mit Hilfe einer Anforderungsanalyse Optimierungsmöglichkeiten der Applikation aufgezeigt. Anschließend wird die Implementierung eines UDP-basierten Teststandards vorgenommen, da "Netztest" bisher nur einen TCP-basierten Test bot. Das verbindungslose Transportprotokoll UDP eignet sich insbesondere für die Übertragung von Audio- und Videodaten. Für den WDR als Produktionsunternehmen solcher Medien ist ein Durchsatztest, der auf UDP basiert daher unabdingbar.
Der Code der Anwendung wird so angepasst, dass beide Tests weitestgehend dieselben Funktionen verwenden und in Zukunft problemlos weitere Tests implementiert werden könnten. Nach dem Durchlaufen eines Tests werden die Ergebnisdaten graphisch dargestellt. Das Piktogramm einer Ampel zeigt dem oder der Nutzenden an, ob die gemessene Verbindung einsatzbereit, ausreichend oder nicht ausreichend ist.
Die Implementierung des Y.1564-Tests und damit das Ziel dieser Arbeit konnte erreicht werden, doch es gibt noch Schwachstellen und Verbesserungsmöglichkeiten, die vor einer Inbetriebnahme der Anwendung "Netztest" beseitigt werden müssten.
Industrie 4.0 bedeutet nicht nur einen Wandel der technischen Möglichkeiten und Arbeitsbedingungen, sondern auch einen Bedarf an neuen, sich kontinuierlich weiterentwickelnden Kompetenzen und die Bereitschaft der Beschäftigten, Veränderungen mitzugestalten. Spielerische Ansätze der Kompetenzentwicklung können v.a. bei weiterbildungsfernen Mitarbeitern hilfreich sein, um das komplexe Thema verständlich zu vermitteln. Der Beitrag beschreibt ein Seminarkonzept mit integriertem Brettspiel, mit dem Teilnehmer anhand eines fiktiven Unternehmens (Müller GmbH) die Transformation eines Unternehmens in die Industrie 4.0 spielerisch nachvollziehen. Dieses Konzept erweist sich in einer ersten Evaluation als durchaus vielversprechend.
Die Einführung der extrakorporalen Zirkulation unter Verwendung eines medikamentös induzierten Herzstillstands ermöglicht der Herzchirurgie die Herzoperationen, wie sie heute bekannt sind. Eine große Debatte besteht in der optimalen Zusammensetzung und Anwendungsweise der kardioplegischen Lösungen [6]. In der Helios Klinik für Herzchirurgie in Karlsruhe werden die kalte, kristalloide Kardioplegie nach Bretschneider und die modifizierte, kalte Blutkardioplegie nach Calafiore verwendet. Die vorliegende Arbeit beschäftigt sich mit der Frage, ob die Wahl der Kardioplegie Einwirkungen auf den intraoperativen und postoperativen Verlauf einer Bypass-Operation hat.
In der dazu angefertigten Studie wurden die Daten von 135 KHK Patienten retrospektiv erfasst und statistisch analysiert. Darunter wurden 81 Patienten mit der kalten Blutkardioplegie nach Calafiore behandelt und 53 Patienten mit der kristalloiden HTKLösung nach Bretschneider. Die demografischen Daten und Dringlichkeit der Operationen unterscheiden sich nicht signifikant voneinander. Bei den intraoperativen Parametern sind hinsichtlich der Hämoglobin-, Natrium-, und Kaliumkonzentration signifikante Unterschiede erkennbar. Weitere intraoperative Laborwerte zeigen keine Signifikanz. Die intraoperativen Parameter der Myokardprotektionsverfahren unterscheiden sich bezüglich der verabreichten Kardioplegiemenge. Bei postoperativen Parametern sind keine besonderen Signifikanzen notiert.
Die kristalloide Kardioplegie nach Bretschneider wie auch die modifizierte kalte Blutkardioplegie nach Calafiore sind sichere und effektive Verfahren. Einige Unterschiede konnten zugunsten der Blutkardioplegie nach Calafiore gefunden werden, die spezifisch für das jeweilige Verfahren sind. Zwingende Argumente für oder gegen eines dieser Verfahren konnten nicht gefunden werden.
Den Hauptbestandteil des Operationssystems stellt der Zugriff auf SD-Karten mit dem Dateisystem FAT16 von Microsoft dar. Für die Bedienung wurde ein Kommandozeileninterpreter implementiert. Als Ein- und Ausgabegerät dient ein PC mit einem speziellen Terminalprogramm, welcher über USB mit dem Emulationsboard des SIRIUS Softcores verbunden ist. Das System wird über die Eingabe von Befehlen am Terminal gesteuert.
Der SIRIUS Softcore kann nur vom Flash des Emulationsboards booten. Da das Betriebssystem selbst jedoch auf der SD-Karte gespeichert werden soll, ist ein Basis-Betriebssystem erforderlich, welches im Flash abgelegt ist. Das Basis-Betriebssystem lädt gleich nach dem Start das eigentliche Betriebssystem von der SD-Karte. Falls jedoch keine SD-Karte gesteckt ist, ermöglicht das Basis-Betriebssystem mit einem Kommandozeileninterpreter einige Grundfunktionen.
Der Cache-Speicher für den Softprozessor SIRIUS ist ein 4-fach assoziativer Cache-Speicher, der mit einem DDR-Interface auf einen externen Speicher zugreifen kann. Er verwaltet und beschleunigt Zugriffe vom Prozessor auf diesen Speicher. Der Cache-Speicher arbeitet intern mit 32 Bit und der doppelten Prozessortaktfrequenz und ermöglicht Systeme mit größeren Speicheranforderungen ohne signifikante Performanceverluste. Der Cache-Speicher wurde mit der Hardwarebeschreibungssprache VHDL erstellt und mit dem bestehenden Mikrocontrollersystem verbunden.
Das Gesamtsystem wurde zunächst simuliert und anschließend mit dem Cyclone III FPGA Starter Kit von Altera, welches ein 32 MB DDR-RAM-Modul zur Verfügung stellt, durch Ausführen eines Testprogramms erfolgreich verifiziert. Für den kompletten Cache-Speicher werden inklusive der Pins für den externen Oszillator und des Reset-Tasters 3805 Logik-Zellen, 27 M9K-Blöcke, 44 Pins und eine PLL benötigt.
Risk-based Cybermaturity Assessment Model - Protecting the company against ransomware attacks
(2023)
Ransomware has become one of the most catastrophic attacks in the previous decade, hurting businesses of all sorts worldwide. So, no organization is safe, and most companies are reviewing their ransomware defensive solutions to avoid business and operational hazards. IT departments are using cybersecurity maturity assessment frameworks like CMMC, C2M2, CMMI, NIST, CIS, CPP, and others to analyze organization security capabilities. In addition to maturity assessment models for the process layer and human pillar, there are much research on the analysis, identification, and defense of cyber threats in product/software layers that propose state-of-the-art approaches.
This motivates a comprehensive ransomware cyber security solution. Then, a crucial question arises: “How companies can measure the security maturity of controls in a specific danger for example for Ransomware attack?” Several studies and frameworks addressed this subject.
Complexity of understanding the ransomware attack, Lack of comprehensive ransomware defense solutions and Lack of cybermaturity assessment model for ransomware defense solutions are different aspects of problem statement in this study. By considering the most important limitations to developing a ransomware defense cybermaturity assessment method, this study developed a cybermaturity assessment methodology and implemented a Toolkit to conduct cyber security self-assessment specifically for ransomware attack to provide a clearer vision for enterprises to analyze the security maturity of controls regardless of industry or size.
BACKGROUND:
While hearing aids for a contralateral routing of signals (CROS-HA) and bone conduction devices have been the traditional treatment for single-sided deafness (SSD) and asymmetric hearing loss (AHL), in recent years, cochlear implants (CIs) have increasingly become a viable treatment choice, particularly in countries where regulatory approval and reimbursement schemes are in place. Part of the reason for this shift is that the CI is the only device capable of restoring bilateral input to the auditory system and hence of possibly reinstating binaural hearing. Although several studies have independently shown that the CI is a safe and effective treatment for SSD and AHL, clinical outcome measures in those studies and across CI centers vary greatly. Only with a consistent use of defined and agreed-upon outcome measures across centers can high-level evidence be generated to assess the safety and efficacy of CIs and alternative treatments in recipients with SSD and AHL.
METHODS:
This paper presents a comparative study design and minimum outcome measures for the assessment of current treatment options in patients with SSD/AHL. The protocol was developed, discussed, and eventually agreed upon by expert panels that convened at the 2015 APSCI conference in Beijing, China, and at the CI 2016 conference in Toronto, Canada.
RESULTS:
A longitudinal study design comparing CROS-HA, BCD, and CI treatments is proposed. The recommended outcome measures include (1) speech in noise testing, using the same set of 3 spatial configurations to compare binaural benefits such as summation, squelch, and head shadow across devices; (2) localization testing, using stimuli that rove in both level and spectral content; (3) questionnaires to collect quality of life measures and the frequency of device use; and (4) questionnaires for assessing the impact of tinnitus before and after treatment, if applicable.
CONCLUSION:
A protocol for the assessment of treatment options and outcomes in recipients with SSD and AHL is presented. The proposed set of minimum outcome measures aims at harmonizing assessment methods across centers and thus at generating a growing body of high-level evidence for those treatment options.
Die drei großen Hersteller von Cochlea-Implantat (CI)-Systemen ermöglichen es klinischen Audiologen, die Mikrofoneigenschaften der meisten CI-Sprachprozessoren zu prüfen. Dazu können bei diesen Sprachprozessoren Monitorkopfhörer angeschlossen und das/die Mikrofon(e) inklusive eines Teils der Signalvorverarbeitung abgehört werden. Präzise Angaben dazu, mit welchen Stimuli, bei welchem Pegel und nach welchem Kriterium diese Prüfung stattfinden soll, machen die CI-Hersteller nicht. Auf Basis dieser Prüfung soll der Audiologe dann über die Funktion der Mikrofone und damit darüber entscheiden, ob der betreffende Sprachprozessor an den Hersteller eingeschickt wird oder nicht.
Zur Objektivierung der CI-Sprachprozessor-Mikrofon-Prüfung haben wir eine Testbox entwickelt, mit der alle abhörbaren aktuellen CI-Sprachprozessoren der drei großen Hersteller geprüft werden können. Die Box wurde im 3D-Druck-Verfahren hergestellt. Der zu prüfende Sprachprozessor wird in die Messbox eingehängt und über einen darin verbauten Lautsprecher mit definierten Prüfsignalen (Sinustöne unterschiedlicher Frequenz) beschallt. Das Mikrofonsignal wird über das Kabel der Monitorkopfhörer herausgeführt und mit einer Shifting- and Scaling-Schaltung in einen Spannungsbereich transformiert, der für die AD-Wandlung mit einem Mikrokontroller (ATmega1280 verbaut auf einem Arduino Mega) geeignet ist. Derselbe Mikrokontroller übernimmt über einen eigens gebauten DA-Wandler die Ausgabe der Sinustöne über den Lautsprecher. Signalaufnahme und –wiedergabe erfolgen mit jeweils 38,5 kHz Samplingrate. Der für jede Frequenz über mehrere Perioden des Prüfsignals ermittelte Effektivwert wird mit dem Effektivwert, der mit einem neuwertigen Referenzprozessor für diese Frequenz gemessen wurde, verglichen. Die Messergebnisse werden graphisch auf einem Display ausgegeben.
Derzeit läuft eine erste Datenerhebung mit in der Klinik subjektiv auffällig gewordenen CI-Sprachprozessoren, die anschließend in der Messbox untersucht werden. So sollen realistische Schwellen für kritische Abweichungen von den Referenz-Effektivwerten ermittelt werden. Im weiteren Verlauf sollen dann Hit und False Alarm-Raten der subjektiven Prüfung bestimmt werden.
Die Hersteller von Cochlea-Implantat (CI)-Systemen sehen für klinische Audiologen die Möglichkeit vor, die Mikrofonleistung der meisten aktuellen CI-Sprachprozessoren mittels anschließbarer Monitorkopfhörer zu prüfen. Nähere Angaben dazu, nach welchem Prozedere diese Prüfung stattfinden soll, z. B. welche Stimuli mit welchen Pegeln verwendet werden sollen, sind nach Wissen der Autoren seitens der CI-Hersteller nicht verfügbar. Auf der Basis dieser subjektiven Prüfung entscheidet dann der Audiologe, ob der betreffende Sprachprozessor an den Hersteller eingeschickt wird oder nicht. Wir haben eine Messbox entwickelt, mit der die Mikrofonleistung aller abhörbaren CI-Sprachprozessoren der Hersteller Advanced Bionics, Cochlear und MED-EL objektiv geprüft werden kann. Die Box wurde im 3-D-Druckverfahren hergestellt. Der zu prüfende Sprachprozessor wird in die Messbox eingehängt und über einen verbauten Lautsprecher mit definierten Prüfsignalen (Sinustönen unterschiedlicher Frequenz) beschallt. Das Signal des Mikronfons bzw. der Mikrofone wird über das in der Audio-/Abhörbuchse des Prozessors eingesteckte Kabel der Monitorkopfhörer herausgeführt und mit einer Shifting and Scaling-Schaltung in einen Spannungsbereich transformiert, der für die A/D-Wandlung mit einem Mikrokontroller (ATmega1280 verbaut auf einem Arduino Mega) geeignet ist. Derselbe Mikrokontroller übernimmt über einen eigens gebauten D/AWandler die Ausgabe der Prüfsignale über den Lautsprecher. Signalaufnahme und –wiedergabe erfolgt jeweils mit einer Samplingrate von 38,5 kHz. Der frequenzspezifische Effektivwert des abgegriffenen Mikrofonsignals wird mit einem Referenzwert verglichen. Die (frequenzspezifischen) Referenzwerte wurden mit einem neuwertigen Sprachprozessor gleichen Typs ermittelt und im Speicher des Mikrokontrollers abgelegt. Das Ergebnis wird nach Abschluss der Messung grafisch auf einem Touchscreen ausgegeben. Derzeit läuft eine erste Datenerhebung mit in der Klinik subjektiv auffällig gewordenen CI-Sprachprozessoren, die anschließend in der Messbox untersucht werden. Längerfristiges Ziel ist es, die hit und false alarm Raten der subjektiven Prüfung zu ermitteln.
The effect of fluctuating maskers on speech understanding of high-performing cochlear implant users
(2016)
Objective: The present study evaluated whether the poorer baseline performance of cochlear implant (CI) users or the technical and/or physiological properties of CI stimulation are responsible for the absence of masking release. Design: This study measured speech reception thresholds (SRTs) in continuous and modulated noise as a function of signal to noise ratio (SNR). Study sample: A total of 24 subjects participated: 12 normal-hearing (NH) listeners and 12 subjects provided with recent MED-EL CI systems. Results: The mean SRT of CI users in continuous noise was −3.0 ± 1.5 dB SNR (mean ± SEM), while the normal-hearing group reached −5.9 ± 0.8 dB SNR. In modulated noise, the difference across groups increased considerably. For CI users, the mean SRT worsened to −1.4 ± 2.3 dB SNR, while it improved for normal-hearing listeners to −18.9 ± 3.8 dB SNR. Conclusions: The detrimental effect of fluctuating maskers on SRTs in CI users shown by prior studies was confirmed by the current study. Concluding, the absence of masking release is mainly caused by the technical and/or physiological properties of CI stimulation, not just the poorer baseline performance of many CI users compared to normal-hearing subjects. Speech understanding in modulated noise was more robust in CI users who had a relatively large electrical dynamic range.
Unterschiedliche Stimulationszeitpunkte bei bimodaler Versorgung mit Hörgerät und Cochleaimplantat
(2023)
Die bimodale Versorgung von Patienten mit Hörgerät (HG) ipsilateral und Cochleaimplantat (CI) kontralateral bei asymmetrischem Hörverlust ist aufgrund vieler inhärenter Variablen die komplizierteste Versorgungsart im Kontext der Versorgung mit CI. Im vorliegenden Übersichtsartikel werden alle systematischen interauralen Unterschiede zwischen elektrischer und akustischer Stimulation dargestellt, die bei dieser Versorgungsart auftreten können. Darüber hinaus werden Methoden zur Quantifizierung des interauralen Latenzoffsets, also des Zeitunterschieds zwischen der akustischen und elektrischen Stimulation des Hörnervs, mittels Registrierung auditorisch evozierter Potenziale – erzeugt durch akustische bzw. elektrische Stimulation – und Messungen an den Sprachprozessoren und Hörgeräten vorgestellt. Die technische Kompensation des interauralen Latenzoffsets und ihre positive Auswirkung auf die Schalllokalisationsfähigkeit bimodal mit CI und HG versorgter Patienten wird ebenfalls beschrieben. Zuletzt werden neueste Erkenntnisse diskutiert, die Gründe dafür aufzeigen, warum die Kompensation des interauralen Latenzoffsets das Sprachverstehen im Störgeräusch bei bimodal versorgten CI-/HG-Trägern nicht verbessert.
In bimodal cochlear implant (CI) / hearing aid (HA) users a constant interaural time delay in the order of several milliseconds occurs due to differences in signal processing of the devices. For MED-EL CI systems in combination with different HA types, we have quantified the respective device delay mismatch (Zirn et al. 2015). In the current study, we investigate the effect of the device delay mismatch in simulated and actual bimodal listeners on sound localization accuracy.
To deal with the device delay mismatch in actual bimodal listeners we delayed the CI stimulation according to the measured HA processing delay and two other values. With all delay values highly significant improvements of the rms error in the localization task were observed compared to the test without the delay. The results help to narrow down the optimal patient-specific delay value.
Zeitliche Anpassung führt zu verbesserter Schalllokalisation bei bimodal versorgten CI-/HG-Trägern
(2021)
Bei bimodal versorgten Cochlea-Implantaten (CI) / Hörgerät (HG)-Trägern entsteht durch die unterschiedliche Signalverarbeitung der Geräte eine konstante interaurale Zeitverzögerung in der Größenordnung von mehreren Millisekunden. Für MED-EL CI-Systeme in Kombination mit verschiedenen HG-Typen haben wir den jeweiligen Device-Delay-Mismatch quantifiziert. In der aktuellen Studie untersuchen wir den Einfluss der Device-Delay-Mismatch bei simulierten und tatsächlichen bimodalen Hörern auf die Genauigkeit der Schalllokalisation.
Um den Device-Delay-Mismatch bei bimodal versorgten Patienten zu verringern, haben wir die CI-Stimulation um die gemessene HG-Signallaufzeit und zwei weitere Werte verzögert. Nach einer Angewöhnungsphase war der effektive Winkelfehler bei Verzögerung um die HG-Signallaufzeit hochsignifikant reduziert im Vergleich zu der Testkondition ohne CI-Verzögerung (mittlere Verbesserung: 11 % ; p < .01, Wilcoxon Signed Rank Test). Aber auch mit den beiden weiteren Verzögerungswerten wurden Verbesserungen erreicht. Anhand der Ergebnisse lässt sich der optimale patientenspezifische Verzögerungswert näher eingrenzen.
The ability to detect a target signal masked by noise is improved in normal-hearing listeners when interaural phase differences (IPDs) between the ear signals exist either in the masker or in the signal. To improve binaural hearing in bilaterally implanted cochlear implant (BiCI) users, a coding strategy providing the best possible access to IPDs is highly desirable. Outcomes of a previous study (Zirn, Arndt et al. 2016) revealed that a subset of BiCI users showed improved IPD detection thresholds with the fine structure processing strategy FS4 compared to the constant rate strategy HDCIS using narrowband stimuli. In contrast, little differences between the coding strategies were found for broadband stimuli with regard to binaural speech intelligibility level differences (BILD) as an estimate of binaural unmasking. Compared to normalhearing listeners (7.5 ± 1.2 dB) BILD were small in BiCI users (around 0.5 dB with both coding strategies).
In the present work, we investigated the influence of binaural fitting parameters on BILD. In our cohort of BiCI users many were implanted with electrode arrays differing in length left versus right. Because this length difference typically corresponded to the distance of two electrode contacts the first modification of bilateral fitting was a tonotopic adjustment by deactivation of the most apical electrode contact on the side with the deeper inserted array (tonotopic approach).
The second modification was the isolation of the residual, most apical electrode contacts by deactivation of the basally adjacent electrode contact on each side (tonotopic sparse approach). Applying these modifications, BILD improved by up to 1.5 dB.
The ability to detect a signal masked by noise is improved in normal-hearing (NH) listeners when interaural phase differences (IPD) between the ear signals exist either in the masker or the signal. We determined the impact of different coding strategies in bilaterally implanted cochlear implant (BiCI) users with and without fine-structure coding (FSC) on masking level differences. First, binaural intelligibility level differences (BILD) were determined in NH listeners and BiCI users using their clinical speech processors. NH subjects (n=8) showed a significant mean BILD of 7.5 dB. In contrast, BiCI users (n=9) without FSC as well as with FSC revealed a barely significant mean BILD (0.4 dB respectively 0.6 dB). Second, IPD thresholds were measured in BiCI users using either their speech processors with FS4 or direct stimulation with FSC. With the latter approach, synchronized stimulation providing an interaural accuracy of stimulation timing of 1.67 µs was realized on pitch matched electrode pairs. The resulting individual IPD threshold was lower in most of the subjects with direct stimulation than with their speech processors. These outcomes indicate that some BiCI users can benefit from increased temporal precision of interaural FSC and adjusted interaural frequency-place mapping presumably resulting in improved BILD.
Das normalhörende auditorische System ist in der Lage, interaurale Zeit- bzw. Phasendifferenzen zur verbesserten Signaldetektion im Störgeräusch zu nutzen. Dieses Phänomen wird häufig als binaurale Entmaskierung bezeichnet und ist sowohl bei einfachen Signalen wie Sinustönen, als auch bei Sprachsignalen im Störgeräusch wirksam. Vorangegangene Studien haben gezeigt, dass binaurale Entmaskierung eingeschränkt auch bei bilateralen CI-Trägern beobachtbar ist (Zirn et al., 2016).
Aktuelle Ergebnisse zeigen, dass die binaurale Entmaskierung sensitiv gegenüber der bilateralen CI-Anpassung ist. So lässt sich der Effekt durch tonotopen Abgleich und Herausstellen eines apikalen Feinstrukturkanals modulieren. Steigerungen der binauralen Entmaskierung um bis zu 1,5 dB sind auf diese Weise gegenüber der konventionellen CI-Anpassung möglich. Allerdings variiert der Einfluss der CI-Anpassung interindividuell erheblich.
The ability to detect a target signal masked by noise is improved in normal-hearing listeners when interaural phase differences (IPDs) between the ear signals exist either in the masker or in the signal. To improve binaural hearing in bilaterally implanted cochlear implant (BiCI) users, a coding strategy providing the best possible access to IPD is highly desirable. In this study, we compared two coding strategies in BiCI users provided with CI systems from MED-EL (Innsbruck, Austria). The CI systems were bilaterally programmed either with the fine structure processing strategy FS4 or with the constant rate strategy high definition continuous interleaved sampling (HDCIS). Familiarization periods between 6 and 12 weeks were considered. The effect of IPD was measured in two types of experiments: (a) IPD detection thresholds with tonal signals addressing mainly one apical interaural electrode pair and (b) with speech in noise in terms of binaural speech intelligibility level differences (BILD) addressing multiple electrodes bilaterally. The results in (a) showed improved IPD detection thresholds with FS4 compared with HDCIS in four out of the seven BiCI users. In contrast, 12 BiCI users in (b) showed similar BILD with FS4 (0.6 ± 1.9 dB) and HDCIS (0.5 ± 2.0 dB). However, no correlation between results in (a) and (b) both obtained with FS4 was found. In conclusion, the degree of IPD sensitivity determined on an apical interaural electrode pair was not an indicator for BILD based on bilateral multielectrode stimulation.
BiCI users’ sensitivity to interaural phase differences for single- and multi-channel stimulation
(2016)
In users of a cochlear implant (CI) together with a contralateral hearing aid (HA), so-called bimodal listeners, differences in processing latencies between digital HA and CI up to 9 ms constantly superimpose interaural time differences. In the present study, the effect of this device delay mismatch on sound localization accuracy was investigated. For this purpose, localization accuracy in the frontal horizontal plane was measured with the original and minimized device delay mismatch. The reduction was achieved by delaying the CI stimulation according to the delay of the individually worn HA. For this, a portable, programmable, battery-powered delay line based on a ring buffer running on a microcontroller was designed and assembled. After an acclimatization period to the delayed CI stimulation of 1 hr, the nine bimodal study participants showed a highly significant improvement in localization accuracy of 11.6% compared with the everyday situation without the delay line (p < .01). Concluding, delaying CI stimulation to minimize the device delay mismatch seems to be a promising method to increase sound localization accuracy in bimodal listeners.
Objectives: Speech recognition on the telephone poses a challenge for patients with cochlear implants (CIs) due to a reduced bandwidth of transmission. This trial evaluates a home-based auditory training with telephone-specific filtered speech material to improve sentence recognition. Design: Randomised controlled parallel double-blind. Setting: One tertiary referral centre. Participants: A total of 20 postlingually deafened patients with CIs. Main outcome measures: Primary outcome measure was sentence recognition assessed by a modified version of the Oldenburg Sentence Test filtered to the telephone bandwidth of 0.3-3.4 kHz. Additionally, pure tone thresholds, recognition of monosyllables and subjective hearing benefit were acquired at two separate visits before and after a home-based training period of 10-14 weeks. For training, patients received a CD with speech material, either unmodified for the unfiltered training group or filtered to the telephone bandwidth in the filtered group. Results: Patients in the unfiltered training group achieved an average sentence recognition score of 70.0%±13.6% (mean±SD) before and 73.6%±16.5% after training. Patients in the filtered training group achieved 70.7%±13.8% and 78.9%±7.0%, a statistically significant difference (P=.034, t10 =2.292; two-way RM ANOVA/Bonferroni). An increase in the recognition of monosyllabic words was noted in both groups. The subjective benefit was positive for filtered and negative for unfiltered training. Conclusions: Auditory training with specifically filtered speech material provided an improvement in sentence recognition on the telephone compared to training with unfiltered material.
Proteine spielen eine entscheidende Rolle im Stoffwechsel aller Lebewesen. Für die Lebensmittelindustrie sind die Grundbausteine der Proteine, besonders interessant, da sie den Geschmack von Lebensmitteln stark beeinflussen können, oder sich in Form von Supplementen als Nahrungsergänzungsmittel für Sportler eignen. Zur Gewinnung dieser Aminosäuren werden unteranderem Aminopeptidasen verwendet. In dieser Arbeit wurden fünf fungale Aminopeptidasen Pep 1 aus Aspergillus turcosus, Pep 4 aus Aspergillus thermomutatus, Pep 6 aus Coccidioides posadasii C735 delta SOWgp, Pep 7 aus Trichophyton interdigitale H6 und Pep 8 aus Onygena corvina in Pichia pastoris rekombinant exprimiert, mittels Ultrafiltration aufkonzentriert und biochemisch charakterisiert. Die Aminopeptidasen aus Aspergillus turcosus (Pep 1), Aspergillus thermomutatus (Pep 4) und Trichophyton interdigitale H6 (Pep 7) hatten ihr pH-Optimum bei pH 9, während die Aminopeptidasen aus Coccidioides posadasii C735 delta SOWgp (Pep 6) und Onygena corvina (Pep 8) bei pH 8,5 die höchste Aktivität aufwiesen. Die Temperaturoptima lagen bei 60 °C (Pep 1 und Pep 6) und 50 °C (Pep 4, Pep 7 und Pep 8) und alle waren zwischen 45 und 55 °C für 15 Minuten temperaturstabil. Die Aminopeptidasen hatten nach der Deglykosilierung ein Molekulargewicht von 57 (Pep 1), 52 (Pep 4 und Pep 7), 54 (Pep 6) und 53 kDA (Pep 8). Mit Leu-pNA als Substrat zeigten die fungalen Aminopeptidasen maximale spezifische Umsatzgeschwindigkeiten von 357 (Pep 1), 238 (Pep 4), 2000 (Pep 6), 56 (Pep 7) und 476 nkat/g (Pep 8). Pep 1 wurde am stärksten positiv von Bivalenten Ionen wie Mg2+, Co2+, Mn2+ und Ca2+ beeinflusst, in Gegenwart von 0,1 mM Mg2+ konnte eine relative Enzymaktivität von 345 % im Vergleich zum Referenzwert gemessen werden. Bei den anderen Aminopeptidasen konnten inhibitorische Effekte festgestellt werden. Bie allen fungalen Aminopeptidasen bei der Hydrolyse von vorhydrolysiertem Gluten die Freisetzung von Aminogruppen festgestellt werden, somit eignen sich die Aminopeptidasen in Kombination mit Endopeptidasen zur Hydrolyse von Proteingemischen. Bei der Hydrolyse konnte zudem die Freisetzung von Glutamin durch das L-Glutamine/Ammonia Assay Kit (Rapid) von Megazyme nachgewiesen werden.
Für die Implementation in ASIC's wurde ein kompakter Mikroprozessor-Kernel als Standardzellen-Makro entworfen. Durch konsequenten Einsatz von Hochsprachen und CAE-Werkzeugen (VHDL, Synthese) konnte ein vollständiges Design in nur vier Monaten durchgeführt werden. Der Prozessor wird in einem Testchip erprobt.
Die Virtual Reality (VR) ist eine spannende technische Lösung, um virtuelle Welten zu erschaffen. Die dabei simulierten Immersionen faszinieren die Menschen im privaten Leben, in der Forschung und in der Wirtschaft gleichermaßen. Im monatlichen Zyklus präsentieren namhafte Hersteller neue VR‐Geräte und Softwarelösungen, um die virtuelle Welt noch flüssiger und noch hochauflösender darzustellen. Die Einsatzgebiete hierbei zeigen sich unendlich vielseitig und verteilen sich unter anderem auf den privaten Medienkonsum, die innovative Gaming‐Branche und auf unternehmerische Anwendungsmöglichkeiten. Virtuelle Rundgänge durch Hallen und Betriebe schaffen dem Verkäufer und dem Kunden die Möglichkeit, Produkte schon vor ihrer Fertigstellung gemeinsam als visuelles Objekt im Raum zu betrachten. Die Gestaltung virtueller Erlebnistouren oder Rundgänge durch das geplante Eigenheim sind schon seit ein paar Jahren fester Bestandteil in der Marketingkommunikation.
Diese Bachelorarbeit beschäftigt sich mit der Vorstellung und Anwendung von Maßnahmen des Suchmaschinenmarketings, um die Positionierung der Website www.phoenix-biker-tours.de auf den Suchergebnisseiten von Google zu optimieren. Phoenix-Biker-Tours ist ein kleiner Reiseanbieter für geführte Motorradtouren welt-weit. Das Unternehmen verfügt über eine Website, die jedoch bisher für Suchmaschinen nicht optimiert wurde.
Die vorliegende Arbeit „Platform enabled Web - Webanwendungen auf Basis öffentlicher APIs am Beispiel von Facebook und Instagram“ beschäftigt sich mit einer Nische im Bereich der Webanwendungen. Unter Betreuung der Firma „Visual Statements“ wurde eine Webanwendung realisiert, deren Mehrwert ausschließlich auf den öffentlich zugänglichen Schnittstellen der Plattformen Facebook und Instagram basiert. Das Social Media Dashboard erlaubt der Redaktionsabteilung von Visual Statements die exakte Analyse der relevanten Key Perfomance Indikatoren des gesamten Markennetzwerks.
Zu Beginn der Arbeit wurde der Begriff API und die damit in Verbindung stehenden Architekturen des Webs beleuchtet. Es wurde gezeigt, welche wichtigen Konzepte, wie diverse Repräsentationsformate oder Autorisierungsverfahren, eine Basis für zuverlässige und offene Web-APIs bilden. Eigens für diese Arbeit realisierte Minimalbeispiele veranschaulichten die Implementation in der Praxis und machten die aufgezeigten Konzepte zugänglicher.
Anschließend folgte eine Analyse offener Web-APIs und der darauf basierenden Anwendungen im WWW. Eine umfassende Betrachtung der verschiedenen Anwendungsbereiche mit unterschiedlichen Beispielen verdeutlichte die Bedeutung des APIs in einem großen Spektrum diverser Sektoren. Dabei wurde nicht nur der technische Anwendungsbereich untersucht - auch auf Schnittstellen mit dem ökonomischen Sektor und den dortigen Einfluss von APIs wurde eingegangen. Daraufhin wurde erörtert, welchen Nutzen offene APIs in diesen Bereichen haben, welche Hindernisse für eine erfolgreiche Etablierung zu überwinden sind und welche Lösungsansätze hierbei bereits existieren.
Das bekannte Graph API von Facebook, welches die unmittelbare Bezugsquelle aller Informationen darstellt, die für das Social Media Dashboard benötigt wurden, wurde anschließend genau beschrieben. Der Abschnitt zeigte zudem, weshalb Facebook längst nicht mehr nur eine Plattform für den Kommunikationsaustausch ist, sondern vielmehr ein eigenes Ökosystem für Entwickler, Kreative und Unternehmen geschaffen hat. Die immense Menge an zugänglichen Daten, das umfangreiche Angebot an open-source Software und die verschiedenen Initiativen, welche von Facebook als Plattform zur Verfügung gestellt werden, unterstreichen die gemachten Erkenntnisse.
Auf Basis der Möglichkeiten, die dieses Ökosystem zu bieten hat, wurde das Projekt in Zusammenarbeit mit Visual Statemens spezifiziert. So schloss sich die Definition des Anforderungsprofils nahtlos an die Übersicht zu Facebooks Plattform an. Unter Berücksichtigung verschiedener Kriterien wurde hier das Bild des gewünschten Ergebnisses gezeichnet, welches im folgenden und abschließenden Kapitel umgesetzt wurde. Unter Verwendung von Node.js als serverseitiger Software und einer großen Anzahl eingebundener Module wurde eine funktionsfähige und datenbanklose Webanwendung realisiert, welche sämtliche Informationen aus den offenen APIs von Facebook und Instagram bezieht. Visual Statements besitzt nun ein maßgeschneidertes Tool zur Analyse der Social Media Performance und kann unabhängig von kostenpflichtigen Anbietern auf die wertvollen Informationen zugreifen.
Learning programming fundamentals is considered as one of the most challenging and complex learning activities. Some authors have proposed visual programming language (VPL) approaches to address part of the inherent complexity [1]. A visual programming language lets users develop programs by combining program elements, like loops graphically rather than by specifying them textually. Visual expressions, spatial arrangements of text and graphic symbols are used either as syntax elements or secondary notation. VPLs are normally used for educational multimedia, video games, system development, and data warehousing/business analytics purposes. For example, Scratch, a platform of Massachusetts Institute of Technology, is designed for kids and after school programs.
Design of mobile software applications is considered as one of the most challenging application domains due to the build in sensors as part of a mobile device, like GPS, camera or Near Field Communication (NFC). Sensors enable creation of context-aware mobile applications in which applications can discover and take advantage of contextual information, such as user location, nearby people and objects, and the current user activity. As a consequence, context-aware mobile applications can sense clues about the situational environment making mobile devices more intelligent, adaptive, and personalized. Such context aware mobile applications seem to be motivating and attractive case studies, especially for programming beginners (“my own first app”).
In this work, we introduce a use-case centered approach as well as clear separation of user interface design and sensor-based program development. We provide an in-depth discussion of a new VPL based teaching method, a step by step development process to enable programming beginners the creation of context aware mobile applications. Finally, we argue that addressing challenges for programming beginners by our teaching approach could make programming teaching more motivating, with an additional impact on the final software quality and scalability.
The key contributions of our study are the following:
- An overview of existing attempts to use VPL approaches for mobile applications
- A use case centered teaching approach based on a clear separation of user interface design and sensor-based program development
- A teaching case study enabling beginners a step by step creation of context-aware mobile applications based on the MIT App Inventor (a platform of Massachusetts Institute of Technology)
- Open research challenges and perspectives for further development of our teaching approach
References:
[1] Idrees, M., Aslam, F. (2022). A Comprehensive Survey and Analysis of Diverse Visual Programming Languages, VFAST Transactions on Software Engineering, 2022, Volume 10, Number 2, pp 47-60.
In this paper we suggest to combine the areas of media streaming services, mobile devices, and manufacturing processes to support monitoring, controlling and supervising production processes in order to achieve high levels of efficiency and environmentally friendly production. It contains a comprehensive and detailed explanation of the proposed E-Learning streaming framework, especially the adaption of streaming services to mobile environments. The key components of our approach are 1) an XML-based streaming service specification language, 2) adaption of multimedia E-Learning services to mobile environments, and 3) a media delivery platform for searching, registration, and creation of streaming services for mobile devices.
Integrating voice / video communication into business processes can accelerate resolution time, reduce mistakes, and establish a full audit-trail of the interactions. Some VoIP service providers offer website based or plugin based solutions, which are, however, difficult to integrate with other applications. A promising approach to overcome these disadvantages is the development of appropriate Web Services to allow applications interacting with a VoIP system. We propose a generic framework for VoIP applications consisting of an XML-based service specification language and a set of reusable Web Service components. Service providers using the proposed service-oriented architecture can offer to their customers a protocol-neutral Web Service interface, thus enabling the deployment of a general and integrated VoIP solution.
The goal of eLearning services integration in manufacturing is, through the development of new multimedia solutions, to accelerate and enhance the ability of the manufacturing industry to capitalise on the emergence of a powerful global information infrastructure. The key components of our approach are: (1) an XML based streaming service specification language; (2) automatic configuration of distributed eLearning streaming service implementations; (3) a set of Web services for searching, registration, and creation of streaming services; (4) caching and replication policies based on timing information derived from the service specifications. We also introduce a new concept for cache management during runtime, e.g., content is distributed to cache servers located at the edge of a network close to the client.
This paper presents a streaming-based E-Learning environment where closer integration between learning and work is achieved by integrating multimedia services into manufacturing processes. It contains a comprehensive and detailed explanation of the proposed E-Learning streaming framework, especially the adaption of streaming services to mobile environments. We first analyze several scenarios where E-Learning streaming services can be integrated into manufacturing processes. To allow systematic and tailor-made integration, we develop a model and a specification language for E-Learning streaming services and apply the model using practical scenarios from real manufacturing processes. Adaption of multimedia streaming services to mobile devices is discussed based on Synchronized Multimedia Integration Language (SMIL). Last, we comment on the benefits of using E-Learning streaming services as part of manufacturing processes and analyze the acceptance of the developed system. The key components of our E-Learning environment are 1) an xml based streaming service specification language, 2) adaption of multimedia E-Learning services to mobile environments, and 3) Web Services for searching, registration, and creation of E-Learning streaming services.
This paper presents an approach where closer integration between learning and work is achieved by integrating multimedia services into manufacturing processes. The goal of E-Learning services integration in manufacturing processes is, through the development of new multimedia services, to accelerate and enhance the ability of manufacturing industry to capitalise on the emergence of a powerful global information infrastructure. In this paper we suggest to combine the areas of media streaming services and manufacturing processes, by providing electronic learning offerings as collections of media streaming services. The key components of our approach are 1) an xml based streaming service specification language, 2) automated configuration of distributed E-Learning streaming applications, 3) Web Services for searching, registration, and creation of E-Learning streaming services.
Most E-Learning projects tend to separate learning activities from everyday work. This paper presents an approach where closer integration between learning and work is achieved by integrating multimedia services into manufacturing processes. The goal of E-Learning services integration in manufacturing is, through the development of new multimedia solutions, to accelerate and enhance the ability of manufacturing industry to capitalise on the emergence of a powerful global information infrastructure. In this paper we suggest to combine the areas of media streaming services and manufacturing processes, by providing electronic learning offerings as collections of media streaming services. The key components of our approach are 1) an xml based streaming service specification language, 2) automated configuration of distributed E-Learning streaming applications, 3) web services for searching, registration, and creation of E-Learning streaming services.
We propose a new streaming media service development environment comprising of a streaming media service model, a XML based service specification language and several implementation and configuration management tools. In our project, the described approach is used for integration of streaming based eLearning services in manufacturing processes of a subcontractor to the automotive industry. The key components of our approach are 1) an xml based streaming service specification language, 2) a set of web services for searching, registration, and creation of streaming services, 3) caching and replication policies based on timing information derived from the service specifications.
In this paper, we propose a new streaming media service development environment comprising of a streaming media service model, a XML based service specification language and several implementation and configuration management tools. Our approach is based on a high level streaming service specification language, which allows specifying a service in terms of media objects, QoS, and distribution policies. Driven by such a streaming service specification and a streaming component library implemented with Java Media Framework, the required distributed application infrastructure is generated automatically by a service manager. To support flexible instantiation and termination of services as well as change management during runtime, e.g. migration or substitution of streaming components, we introduce instantiation and termination rules, and reconfiguration rules.
Visual programming languages (VPL) let users develop software programs by combining visual program elements, like lists of objects, loops or conditional statements rather than by specifying them textually.
Humanoid robots programming is a very attractive and motivating application domain for students, especially for programming beginners. Humanoid robots are constructed in such a way that they mimic the human body by using actuators that perform like muscles. Typically, a humanoid robot consists of sensors and actuators, i.e. torso, a head, two arms, and two legs, though some humanoid robots may replicate only part of the body, for example, from the waist up. In some cases, humanoid robots are equipped with heads designed to replicate additional human facial features such as eyes. Additional sensors are needed by a robot to gather information about the conditions of the environment to allow the robot to make necessary decisions about its position or certain actions that the situation requires, e.g. an arm movement or an open/close hand action. Other examples for sensor are reflective infrared sensors used to detect objects in proximity.
In this work, we introduce a use-case centered approach based on sensors and actors of a robot and a workflow model to visually describe the sequence of actions including conditional actions or concurrent actions. We provide an in-depth discussion of a new VPL based teaching method for programming humanoid robots based on VPLs. Open research challenges, limits and perspectives for further development of our teaching approach are discussed as well.
The main advantage of mobile context-aware applications is to provide effective and tailored services by considering the environmental context, such as location, time, nearby objects and other data, and adapting their functionality according to the changing situations in the context information without explicit user interaction. The idea behind Location-Based Services (LBS) and Object-Based Services (OBS) is to offer fully-customizable services for user needs according to the location or the objects in a mobile user's vicinity. However, developing mobile context-aware software applications is considered as one of the most challenging application domains due to the built-in sensors as part of a mobile device. Visual Programming Languages (VPL) and hybrid visual programming languages are considered to be innovative approaches to address the inherent complexity of developing programs. The key contribution of our new development approach for location and object-based mobile applications is a use case driven development approach based on use case templates and visual code templates to enable even programming beginners to create context-aware mobile applications. An example of the use of the development approach is presented and open research challenges and perspectives for further development of our approach are formulated.
Sensors and actuators enable creation of context-aware applications in which applications can discover and take advantage of contextual information, such as user location, nearby people and objects. In this work, we use a general context definition, which can be applied to various devices, e.g., robots and mobile devices. Developing context-based software applications is considered as one of the most challenging application domains due to the sensors and actuators as part of a device. We introduce a new development approach for context-based applications by using use-case descriptions and Visual Programming Languages (VPL). The introduction of web-based VPLs, such as Scratch and Snap, has reinvigorated the usefulness of VPLs. We provide an in-depth discussion of our new VPL based method, a step by step development process to enable development of context-based applications. Two case studies illustrate how to apply our approach to different problem domains: Context-based mobile apps and context-based humanoid robot applications.
In dieser Arbeit wird der Bildbearbeitungsprozess von Dokumenten mithilfe von einem schlicht gehaltenem Neuronalen Netzwerk und Bearbeitungsoperationen optimiert. Ziel ist es, abfotografierte Dokumente zum Drucken aufzubereiten, sodass die Schrift gut lesbar, gerade und nicht verzerrt ist und Störfaktoren herausgefiltert werden. Als API zur Verfügung gestellt, können Bilder von Dokumenten beliebiger Größe und Schriftgröße bearbeitet werden. Während ein unter schlechten Bedingungen schräg aufgenommenes Bild nach Tesseract keine Buchstaben enthält, wird mit dem bearbeiteten Bild davon eine Buchstabenfehlerrate von 0,9% erreicht.
Novel manufacturing technologies, such as printed electronics, may enable future applications for the Internet of Everything like large-area sensor devices, disposable security, and identification tags. Printed physically unclonable functions (PUFs) are promising candidates to be embedded as hardware security keys into lightweight identification devices. We investigate hybrid PUFs based on a printed PUF core. The statistics on the intra- and inter-hamming distance distributions indicate a performance suitable for identification purposes. Our evaluations are based on statistical simulations of the PUF core circuit and the thereof generated challenge-response pairs. The analysis shows that hardware-intrinsic security features can be realized with printed lightweight devices.
A physical unclonable function (PUF) is a hardware circuit that produces a random sequence based on its manufacturing-induced intrinsic characteristics. In the past decade, silicon-based PUFs have been extensively studied as a security primitive for identification and authentication. The emerging field of printed electronics (PE) enables novel application fields in the scope of the Internet of Things (IoT) and smart sensors. In this paper, we design and evaluate a printed differential circuit PUF (DiffC-PUF). The simulation data are verified by Monte Carlo analysis. Our design is highly scalable while consisting of a low number of printed transistors. Furthermore, we investigate the best operating point by varying the PUF challenge configuration and analyzing the PUF security metrics in order to achieve high robustness. At the best operating point, the results show areliability of 98.37% and a uniqueness of 50.02%, respectively. This analysis also provides useful and comprehensive insights into the design of hybrid or fully printed PUF circuits. In addition, the proposed printed DiffC-PUF core has been fabricated with electrolyte-gated field-effect transistor technology to verify our design in hardware.
Uncontrollable manufacturing variations in electrical hardware circuits can be exploited as Physical Unclonable Functions (PUFs). Herein, we present a Printed Electronics (PE)-based PUF system architecture. Our proposed Differential Circuit PUF (DiffC-PUF) is a hybrid system, combining silicon-based and PE-based electronic circuits. The novel approach of the DiffC-PUF architecture is to provide a specially designed real hardware system architecture, that enables the automatic readout of interchangeable printed DiffC-PUF core circuits. The silicon-based addressing and evaluation circuit supplies and controls the printed PUF core and ensures seamless integration into silicon-based smart systems. Major objectives of our work are interconnected applications for the Internet of Things (IoT).
Modern society is more than ever striving for digital connectivity -- everywhere and at any time, giving rise to megatrends such as the Internet of Things (IoT). Already today, 'things' communicate and interact autonomously with each other and are managed in networks. In the future, people, data, and things will be interlinked, which is also referred to as the Internet of Everything (IoE). Billions of devices will be ubiquitously present in our everyday environment and are being connected over the Internet.
As an emerging technology, printed electronics (PE) is a key enabler for the IoE offering novel device types with free form factors, new materials, and a wide range of substrates that can be flexible, transparent, as well as biodegradable. Furthermore, PE enables new degrees of freedom in circuit customizability, cost-efficiency as well as large-area fabrication at the point of use.
These unique features of PE complement conventional silicon-based technologies. Additive manufacturing processes enable the realization of many envisioned applications such as smart objects, flexible displays, wearables in health care, green electronics, to name but a few.
From the perspective of the IoE, interconnecting billions of heterogeneous devices and systems is one of the major challenges to be solved. Complex high-performance devices interact with highly specialized lightweight electronic devices, such as e.g. smartphones and smart sensors. Data is often measured, stored, and shared continuously with neighboring devices or in the cloud. Thereby, the abundance of data being collected and processed raises privacy and security concerns.
Conventional cryptographic operations are typically based on deterministic algorithms requiring high circuit and system complexity, which makes them unsuitable for lightweight devices.
Many applications do exist, where strong cryptographic operations are not required, such as e.g. in device identification and authentication. Thereby, the security level mainly depends on the quality of the entropy source and the trustworthiness of the derived keys. Statistical properties such as the uniqueness of the keys are of great importance to precisely distinguish between single entities.
In the past decades, hardware-intrinsic security, particularly physically unclonable functions (PUFs), gained a lot of attraction to provide security features for IoT devices. PUFs use their inherent variations to derive device-specific unique identifiers, comparable to fingerprints in biometry.
The potentials of this technology include the use of a true source of randomness, on demand key derivation, as well as inherent key storage.
Combining these potentials with the unique features of PE technology opens up new opportunities to bring security to lightweight electronic devices and systems. Although PE is still far from being matured and from being as reliable as silicon technology, in this thesis we show that PE-based PUFs are promising candidates to provide key derivation suitable for device identification in the IoE.
Thereby, this thesis is primarily concerned with the development, investigation, and assessment of PE-based PUFs to provide security functionalities to resource constrained printed devices and systems.
As a first contribution of this thesis, we introduce the scalable PE-based Differential Circuit PUF (DiffC-PUF) design to provide secure keys to be used in security applications for resource constrained printed devices. The DiffC-PUF is designed as a hybrid system architecture incorporating silicon-based and inkjet-printed components. We develop an embedded PUF platform to enable large-scale characterization of silicon and printed PUF cores.
In the second contribution of this thesis, we fabricate silicon PUF cores based on discrete components and perform statistical tests under realistic operating conditions. A comprehensive experimental analysis on the PUF security metrics is carried out. The results show that the silicon-based DiffC-PUF exhibits nearly ideal values for the uniqueness and reliability metrics. Furthermore, the identification capabilities of the DiffC-PUF are investigated and it is shown that additional post-processing can further improve the quality of the identification system.
In the third contribution of this thesis, we firstly introduce an evaluation workflow to simulate PE-based DiffC-PUFs, also called hybrid PUFs. Hereof, we introduce a Python-based simulation environment to investigate the characteristics and variations of printed PUF cores based on Monte Carlo (MC) simulations. The simulation results show, that the security metrics to be expected from the fabricated devices are close to ideal at the best operating point.
Secondly, we employ fabricated printed PUF cores for statistical tests under varying operating conditions including variations in ambient temperature, relative humidity, and supply voltage. The evaluations of the uniqueness, bit aliasing, and uniformity metrics are in good agreement with the simulation results. The experimentally determined mean reliability value is relatively low, which can be explained by the missing passivation and encapsulation of the printed transistors. The investigation of the identification capabilities based on the raw PUF responses shows that the pure hybrid PUF is not suitable for cryptographic applications, but qualifies for device identification tasks.
The final contribution is to switch to the perspective of an attacker. To judge on the security capabilities of the hybrid PUF, a comprehensive security analysis in the manner of a cryptanalysis is performed. The analysis of the entropy of the hybrid PUF shows that its vulnerability against model-based attacks mainly depends on the selected challenge building method. Furthermore, an attack methodology is introduced to assess the performances of different mathematical cloning attacks on the basis of eavesdropped challenge-response pairs (CRPs). To clone the hybrid PUF, a sorting algorithm is introduced and compared with commonly used supervised machine learning (ML) classifiers including logistic regression (LR), random forest (RF), as well as multi-layer perceptron (MLP).
The results show that the hybrid PUF is vulnerable against model-based attacks. The sorting algorithm benefits from shorter training times compared to the ML algorithms. If the eavesdropped CRPs are erroneous, the ML algorithms outperform the sorting algorithm.
Die Vision vom "Internet der Dinge" prägt seit Jahren Forschung und Entwicklung, wenn es um smarte Technologien und die Vernetzung von Geräten geht. In der Zukunft wird die reale Welt zunehmend mit dem Internet verknüpft, wodurch zahlreiche Gegenstände (Dinge) des normalen Alltags dazu befähigt werden, zu interagieren und sowohl online als auch autark zu kommunizieren. Viele Branchen wie Medizin, Automobilbau, Energieversorgung und Unterhaltungselektronik sind gleichermaßen betroffen, wodurch trotz Risiken auch neues wirtschaftliches Potential entsteht. Im Bereich "Connected Home" sind bereits Lösungen vorhanden, mittels intelligenter Vernetzung von Haushaltsgeräten und Sensoren, die Lebensqualität in den eigenen vier Wänden zu erhöhen. Diese Arbeit beschäftigt sich mit dem Thread Protokoll; einer neuen Technologie zur Integration mehrerer Kommunikationsschnittstellen innerhalb eines Netzwerks. Darüber hinaus wird die Implementierung auf Netzwerkebene (Network Layer) vorgestellt, sowie aufbereitete Informationen bezüglich verwendeter Technologien dargestellt.
Für die Prognose von Zeitreihen sind bezüglich der Qualität der Vorhersagen heutzutage neuronale Netze und Deep Learning das Mittel der Wahl. LSTM-Netzwerke etablierten sich dazu als eine gut funktionierende Herangehensweise. 2017 wurde der auf Attention basierende Transformer für die Übersetzung von Sprache vorgestellt. Aufgrund seiner Fähigkeit mit sequenziellen Daten zu arbeiten, ist er auch für Zeitreihenprobleme interessant. Diese wissenschaftliche Arbeit befasst sich mit der Vorhersage von Zeitreihen mit einem Transformer. Es wird analysiert, inwiefern sich ein Transformer für Zeitreihenvorhersagen von einem Transformer für Sprachübersetzungen unterscheidet und wie gut die Vorhersagen im Vergleich zu denen eines LSTM-Netzwerkes abschneiden. Dazu werden ein LSTM- und ein Transformer-Netzwerk auf Luftqualitäts- und Wetterdaten in Berlin trainiert, um den Feinstaubgehalt (PM25) in der Luft vorherzusagen. Die Ergebnisse werden mit einem Benchmark-Modell anhand von Evaluationsmetriken verglichen. Anschließend wird evaluiert, wie die Fehler des Transformers reduziert werden können und wie gut der Transformer generalisiert.
Diese Bachelor Thesis behandelt das Thema MQTT 5, ein Anwendungsprotokoll im Internet der Dinge, das im Januar 2018 veröffentlicht wurde. MQTT 5 dient zur Kommunikation zwischen Geräten die mit dem Internet verbunden sind.
Innerhalb dieser Thesis werden die Neuerungen und Verbesserungen von MQTT 5 beschrieben.
Es wird untersucht, welche Mikrocontroller, SoC-Computer, Programmier-Frameworks und lattformdienste MQTT 5 unterstützen.
Anschließend wird die Entwicklung eines Smarthome-Szenarios beschrieben, das im "Interaktive Verteilte Systeme Labor" an der Hochschule Offenburg zur Anwendung kommt.
Um die Umgebung während der Durchführung von Laborversuchen zu verbessern,werden die Temperatur, Luftfeuchtigkeit, Luftqualität, Lautstärke und Lichtstärke im Labor gemessen.
Diese Werte werden anhand von Lichtern, die ihre Farbe ändern und einer Steckdose, die sich je ach Wert ein- und ausschaltet, visualisiert.
Ausgehend von eindimensionalen reibungsfreien Strömungen wird die Bernoulli-Gleichung und die Energiebilanz hergeleitet. Mit der Eulerschen Betrachtungsweise wird der Unterschied zwischen stationären und zeitabhängigen Strömungen verdeutlicht und an zahlreichen Beispielen angewandt. Die zweidimensionalen reibungsfreien und inkompressiblen Strömungen werden mit der Potenzialtheorie behandelt. Die Lösungseigenschaften werden am Beispiel der Zylinderumströmung ohne und mit Zirkulation aufgezeigt.
Gasdynamik
(2004)
Gasdynamik
(2020)
Für kompressible Strömungen werden die Erhaltungssätze für Masse, Impuls und Energie hergeleitet. Die Eigenschaften der Stoßgleichungen wie Rankine-Hugoniot-Relation und Rayleigh-Gerade werden betrachtet. Zur Berechnung der Kräfte auf umströmte Körper werden die Auftriebs- und Widerstandsbeiwerte ermittelt. Auf der Basis der Stromfadentheorie wird die Auslegung von Lavaldüsen behandelt. Das physikalische Verhalten linearer Unter- und Überschallströmungen und transsonischer Profilumströmungen wird analysiert.
Die Navier-Stokes Gleichungen bilden mit der Energiegleichung die Basis zur Beschreibung reibungsbehafteter Strömungen. Kennzahlen bilden die Grundlage der Ähnlichkeitsbetrachtungen und Modellgesetze. Lösungen werden für laminare und turbulente Strömungen ermittelt. Der Impulssatz dient zur Berechnung von Kraftwirkungen. Druckverluste bei Durchströmungen und Strömungswiderstände bei Umströmungen werden an Beispielen ermittelt. Die Grenzschichttheorie findet bei hohen Reynoldszahlen Anwendung.
Die Eigenschaften von Fluiden sind zur Beschreibung von Strömungsvorgängen mit den Erhaltungssätzen für Masse, Impuls und Energie notwendig. Für inkompressible Fluide wird die Grenze der Dichteänderung in Abhängigkeit der Machzahl angegeben. Die Rheologie behandelt die Fließeigenschaften der Fluide bei Deformationen in Strömungen. Die Viskosität tritt beim newtonschen Schubspannungsansatz auf. Das Verhalten von Druck und Dichte in der Hydro- und Aerostatik wird beschrieben.
Die Kombination von Reibung und Kompressibilität wird bei der Rohrströmung, der Kugelumströmung und der laminaren und turbulenten Plattengrenzschicht untersucht. Das Auftreten von Verdichtungsstößen führt zur Stoß-Grenzschicht-Interferenz und auf den Tsien-Parameter. Die Mach-Reynoldszahl Ähnlichkeit in der Gasdynamik führt zur Abgrenzung der verschiedenen Strömungsbereiche. Resultate von Windkanaluntersuchungen sowie analytischen und numerischen Berechnungen werden für das Rhombusprofil und das NACA 0012 Profil analysiert.
Grundzüge der Strömungslehre
(2023)
Dieses ausgereifte Lehrbuch stellt in prägnant kurzer und mathematisch verständlicher Darstellung die strömungstechnischen Grundlagen dar. Aufgaben mit Lösungen helfen den Lernstoff richtig anzuwenden und fördern das Verständnis. Das Buch eignet sich zur Begleitung und Vertiefung der Vorlesungen über Strömungslehre sowie zum Selbststudium. Die vorliegende Auflage geht auf die immer größer werdende Rolle des Energiehaushalts ein und trägt damit den aktuellen Entwicklungen Rechnung. Ergänzt wurden aktuelle Übungsaufgaben der Strömungsmechanik, zahlreiche Beispiele veranschaulichen den Energiesatz.
Grundzüge der Strömungslehre
(2013)
Dieses erfolgreiche, didaktisch ausgereifte Lehrbuch wurde zuletzt fachlich in der Gasdynamik, der Behandlung des Verdichtungsstoßes und bei den verlustbehafteten Strömungen ergänzt. Außerdem wurde der allgemeine Energiesatz aufgenommen. Das Buch zeichnet sich durch eine prägnant kurze, mathematisch verständliche und anwendbare Einführung in die Grundlagen aus und gibt dem Leser Gelegenheit, sein Verständnis durch Übungen zu vertiefen. Die aktuelle Auflage wurde vollständig in sprachlicher Hinsicht überarbeitet und das Sachwortverzeichnis ergänzt.
Grundzüge der Strömungslehre
(2008)
Dieses erfolgreiche, didaktisch ausgereifte Lehrbuch wurde zuletzt fachlich in der Gasdynamik, der Behandlung des Verdichtungsstoßes und bei den verlustbehafteten Strömungen ergänzt. Außerdem wurde der allgemeine Energiesatz aufgenommen. Das Buch zeichnet sich durch eine prägnant kurze, mathematisch verständliche und anwendbare Einführung in die Grundlagen aus und gibt dem Leser Gelegenheit, sein Verständnis durch Übungen zu vertiefen. Die 7. Auflage enthält einige Verbesserungen bei Abbildungen und die Berichtigung von Druckfehlern in Text- und Formelsatz. Das Literaturverzeichnis wurde ergänzt und aktualisiert.
Grundzüge der Strömungslehre
(2018)
Dieses ausgereifte Lehrbuch bringt in prägnant kurzer und mathematisch verständlicher Darstellung die strömungstechnischen Grundlagen. In der aktuellen Auflage wurde ein Abschnitt zu Dissipation und Viskosen Potentialströmungen ergänzt. Aufgaben mit Lösungen helfen den Lernstoff richtig anzuwenden und fördern das Verständnis.
This mature textbook brings the fundamentals of fluid mechanics in a concise and mathematically understandable presentation. In the current edition, a section on dissipation and viscous potential flows has been added. Exercises with solutions help to apply the material correctly and promote understanding.
Grundzüge der Strömungslehre
(2015)
Dieses erfolgreiche, didaktisch ausgereifte Lehrbuch wurde im Bereich der Übungsaufgaben erweitert. Leserhinweise wurden eingearbeitet. Es zeichnet sich durch eine prägnant kurze, mathematisch verständliche und anwendbare Einführung in die Grundlagen aus und hilft dem Leser, sein Verständnis durch Übungen mit kompletten Lösungen zu vertiefen.
Die Eigenschaften von Fluiden sind zur Beschreibung von Strömungsvorgängen mit den Erhaltungssätzen für Masse, Impuls und Energie notwendig. Für inkompressible Fluide wird die Grenze der Dichteänderung in Abhängigkeit der Machzahl angegeben. Die Rheologie behandelt die Fließeigenschaften der Fluide bei Deformationen in Strömungen. Die Viskosität tritt beim newtonschen Schubspannungsansatz auf. Das Verhalten von Druck und Dichte in der Hydro- und Aerostatik wird beschrieben.
Ausgehend von eindimensionalen reibungsfreien Strömungen wird die Bernoulli-Gleichung und die Energiebilanz hergeleitet. Mit der Eulerschen Betrachtungsweise wird der Unterschied zwischen stationären und zeitabhängigen Strömungen verdeutlicht und an zahlreichen Beispielen angewandt. Die zweidimensionalen reibungsfreien und inkompressiblen Strömungen werden mit der Potenzialtheorie behandelt. Die Lösungseigenschaften werden am Beispiel der Zylinderumströmung ohne und mit Zirkulation aufgezeigt.
Die Navier-Stokes Gleichungen bilden mit der Energiegleichung die Basis zur Beschreibung reibungsbehafteter Strömungen. Kennzahlen bilden die Grundlage der Ähnlichkeitsbetrachtungen und Modellgesetze. Lösungen werden für laminare und turbulente Strömungen ermittelt. Der Impulssatz dient zur Berechnung von Kraftwirkungen. Druckverluste bei Durchströmungen und Strömungswiderstände bei Umströmungen werden an Beispielen ermittelt. Die Grenzschichttheorie findet bei hohen Reynoldszahlen Anwendung.
Gasdynamik
(2022)
Für kompressible Strömungen werden die Erhaltungssätze für Masse, Impuls und Energie hergeleitet. Die Eigenschaften der Stoßgleichungen wie Rankine-Hugoniot-Relation und Rayleigh-Gerade werden betrachtet. Zur Berechnung der Kräfte auf umströmte Körper werden die Auftriebs- und Widerstandsbeiwerte ermittelt. Auf der Basis der Stromfadentheorie wird die Auslegung von Lavaldüsen behandelt. Das physikalische Verhalten linearer Unter- und Überschallströmungen und transsonischer Profilumströmungen wird analysiert.
Die Kombination von Reibung und Kompressibilität wird bei der Rohrströmung, der Kugelumströmung und der laminaren und turbulenten Plattengrenzschicht untersucht. Das Auftreten von Verdichtungsstößen führt zur Stoß-Grenzschicht-Interferenz und auf den Tsien-Parameter. Die Mach-Reynoldszahl Ähnlichkeit in der Gasdynamik führt zur Abgrenzung der verschiedenen Strömungsbereiche. Resultate von Windkanaluntersuchungen sowie analytischen und numerischen Berechnungen werden für das Rhombusprofil und das NACA 0012 Profil analysiert.
The cellulase-producing Trichoderma reesei strain RL-P37 exhibits significant potential, yielding 7.3 g/L of cellulase in 241 hours. Microscopic investigations reveal a link between spore formation and enzyme production, suggesting the need for research into the intricate relationship between enzyme production, stress responses, and the nutritional prerequisites of fungi. Comparatively, the use of sodium hydroxide (NaOH) treatment, as opposed to water treatment, results in the reduction of micronutrient content and carbon source extraction as filtrate. Despite these challenges, research by He et al. (2021) highlights NaOH's efficiency in cellulose extraction from plant-based sources. Using NaOH pretreatment can be proven as effective by designing a proper cultivation method. The selection of inducers for enzyme induction gains importance, with soluble inducers, as emphasized by Zhang et al. (2022), exhibiting superior effectiveness. Hence, adopting soluble inducers in designing cultivation methods for improved enzyme production in shaking flasks is recommended. Enzymatic treatment of bio-waste, as outlined by Hu et al. (2021), shows promise in augmenting essential component content by breaking down plant cell walls and intercellular compartments. However, the feasibility of using an artificial bio-waste medium for cultivating Trichoderma reesei is questioned. Investigating the impact of micronutrient levels, particularly the inhibitory role of zinc, on fungal growth becomes essential. These findings underscore the necessity for ongoing research and optimization in cellulase production, emphasizing both strain productivity and cultivation methodologies.
In this paper a practical way for fatigue life prediction of rubber products under multiaxial loads is shown. This is done by means of fracture mechanical concepts and the energy release rate as the failure criterion. Due to a FEA post-processor the potential energy release rate might be calculated at every material point supposed there was a crack. And therefore the risk of failure and with the help of a strain number curve the time to fatigue is able to be calculated by FEA. This concept is applied for an estimation of the life time of a test specimen with tensile loading from fatigue data of a shear loaded specimen of different design. This rather more theoretical concept of the energy release rate is complemented by experimental crack growth data by a Tear Fatigue Analyzer with its great advantage of reduction of testing time and costs compared to those of fatigue tests. For some materials a thorough characterization of crack growth and fatigue behavior is presented and is applied to estimate the time to fatigue by FEA for a real component under multiaxial loads.
There are additional long-term effects which also change the micro-structure of the polymer network and consequently the effective number of polymer chains in the material. These effects are summarized by ageing processes and will be used in the following to explain the basic assumptions of the model which can be generalized to simulate the viscous behaviour of the material. An implementation of these concepts into FEM codes is straightforward and has been carried out to the solver ABAQUS, Baaser & Ziegler (2006), Baaser et al. (2009).
Das Projekt PHOTOPUR soll die Reduzierung von Pestiziden in Oberflächengewässern ermöglichen. In dieser Arbeit wird eine Automatisierung eines ersten Demosystems entwickelt, welches den gesamten Reinigungsprozess abbildet. Eine Projektierung der Automatisierung des Systems wird mit den dafür vorgesehenen Fließschemas und Gerätelisten durchgeführt. Darauf aufbauend wird die Ablaufsteuerung des Demosystems durch einen Ablauf-Funktionsplan umgesetzt. Um eine Systemüberwachung der Anlage zu gewährleisten wurde dazu eine Visualisierung ausgearbeitet. Zusätzlich wurden die Regelstrecken der Durchflussregelungen in den zwei Teilprozessen des Reinigungsprozesses bestimmt und durch unterschiedliche Einstellregeln der optimale Regler der Regelkreise ermittelt.
Die in dieser Arbeit entwickelte Software, beinhaltet die drei folgenden Umsetzungen: Realisierung der Ablaufsteuerung, Implementierung der Reglerparameter durch einen vorhandenen Regelalgorithmus und die Visualisierung des Demosystems.
Vertriebspolitik hat in den letzten Jahren, verstärkt etwa durch Trends zur Optimierung logistischer Ketten, aber auch zum Online-Handel, als Marketing-Instrument enorm an Bedeutung gewonnen. Gleichzeitig und fast in gleichem Maße wuchs aber auch die Anzahl diesbezüglicher rechtlicher Regulierungen zu den vertrieblichen Aktivitäten von Unternehmen kontinuierlich an. Die nachstehende Übersicht zeigt beispielhaft die Vielfalt an zu beachtenden Regelungen auf. Um eine effizient begründete und so durchaus zwingend notwendige Reduktion der Komplexität derart umfassender Regelwerke zu erreichen, die davon betroffenen Funktions- und Entscheidungsträger eines Unternehmens also „den Wald vor lauter Bäumen“ noch erkennen zu lassen, vor allem aber um diese wirkungsvoll zu unterstützen, lehnt sich das vorliegende Arbeitspapier bei der Vor- und Darstellung der betreffenden Rechtsnormen an die, in der Betriebswirtschaftslehre, speziell im Marketing, üblichen Strukturen der vertriebspolitischen Aktivitäten eines Unternehmens an. Dementsprechend wird der Rechtsrahmen der Vertriebspolitik nach Rechtsnormen, die zum einen die akquisitorische, zum anderen die logistische Distribution betreffen, gegliedert. Weiterhin wird bei der akquisitorischen Distribution unterschieden in direkten und indirekten Vertrieb mit einer weiteren Unterteilung des indirekten Vertriebes nach Absatzmittlern und Absatzhelfern. Ein derartiger Aufbau vermag die Behandlung der zumeist komplizierten juristischen Sachverhalte zu einem durchaus nicht nur praxisrelevanten, sondern auch praxisgeeigneten Forschungsbeitrag werden zu lassen.
Ziel des vorliegenden Leitfadens für den Mittelstand ist es, zu einer Lösung der im Spannungsfeld zwischen Marketing und Recht zu bewältigenden Aufgaben, die von vielen heute als die wichtigsten der Unternehmensführung überhaupt angesehen werden, beizutragen. In diesem Sinne liefert der Leitfaden Ihnen einen umfassenden Überblick über den, das Marketing beeinflussenden Rechtsrahmen und zeigt gleichzeitig Gestaltungsoptionen eines präaktiven Handelns auf. Der Leitfaden lehnt sich, dieses Ziel unterstützend, dem klassischen Kanon der Marketinginstrumente an.
Ziel dieses Ratgebers ist es, die für Unternehmensgründer relevanten juristischen Aspekte aufzuzeigen und diese hierfür zu sensibilisieren. Während Ratgeber zur Ideengewinnung, zur Vermarktung oder auch zu Finanzierungsfragen relativ häufig zu finden sind, werden die rechtlichen Rahmenbedingungen kaum beleuchtet. Dabei weisen die Komponenten eines Start-up-Marketing unterschiedliche Schwerpunkte und Vertiefungsgrade zum traditionellen Marketingauf. Dieses wird im vorliegenden Ratgeber auch im Hinblick auf die rechtlichen Rahmenbedingungen berücksichtigt.
Zu Beginn steht die Innovation oder die Geschäftsidee im Mittelpunkt. Diese sowie eine damit verbundene Marke gilt es zu schützen. Weitere zentrale Anfangsüberlegungen betreffen die zu wählende Rechtsform. Wichtige Aspekte sind zudem aus rechtlicher Sicht die Verträge mit den Investoren und diejenigen Rechtsfragen, die mit dem Internet verbunden sind, vor allem der Onlinevertrieb oder die Social-Media-Nutzung. Bei der Vermarktung seiner Leistungen muss ein Start-up-Verantwortlicher rechtliche Fragen möglichst proaktiv berücksichtigen sowie darauf achten, dass sein Verhalten im Wettbewerb nicht durch unlauteres Handeln geprägt wird.
Dieser Ratgeber orientiert sich bei der Vorstellung der rechtlichen Rahmenbedingungen am Ablauf des Gründungsprozesses eines Start-ups:
➢ Anmeldung,
➢ Schutz der Geschäftsidee,
➢ Wahl der Rechtsform und
➢ Marketingaktivitäten.
This article provides an overview of the legal framework for website marketing. The presentation of the numerous legal provisions, which are spread over several areas of law, is oriented towards business challenges and measures. After placing the website in the context of marketing, the article focuses on the legal framework relating to the establishment, design and operation of a website. If, in addition to its communication function, a website also has a sales function, i. e. in e-commerce (online trade), additional specific legal conditions must be taken into account.
Die Digitalisierung der Gesellschaft betrifft nicht nur einzelne Lebensbereiche, sondern beeinflusst und verändert enorm die Arbeitswelt. In diesem Sinne wird oft im Rahmen des Zukunftsprojekts Industrie 4.0 von Arbeiten 4.0, Arbeitswelt 4.0 und Arbeitsrecht 4.0 berichtet. Komplexe Produktionsprozesse lassen sich durch die Vernetzung von Systemen zu unterschiedlichen Zeiten und an nahezu jedem Ort steuern. Diese neuen Freiheiten können wiederum von den Arbeitnehmern positiv genutzt werden, um die persönliche Arbeitsgestaltung weiter zu individualisieren. Somit können beispielsweise die Arbeitszeiten und der Arbeitsort an die eigenen Bedürfnisse angepasst werden. Außerdem können diese sich neu ergebenden Möglichkeiten die Beschäftigten in ihrer Arbeitstätigkeit entlasten. Durch die Einführung neuer Technologien ergeben sich somit neue Chancen, aber auch Herausforderungen für das Arbeitsrecht. Infolgedessen sind diverse Handlungsfelder beziehungsweise Problemfelder betroffen, die es in diesem neuen Arbeitspapier darzustellen gilt. Es bezieht sich dabei speziell auf die Arbeitszeit, den Arbeitsort, die Arbeitnehmerqualifikation und die Datensicherheit. In diesem Zusammenhang werden die derzeit bestehenden Gesetze und Richtlinien aufgezeigt, die im Rahmen der Industrie 4.0 eine Rolle spielen. Auch die Herausforderungen, die durch die Interaktion der Digitalisierung in der Arbeitswelt aufkommen, gilt es, in diesem Arbeitspapier hervorzuheben.
Marketingrecht
(2018)
In diesem einführenden Kapitel geben die Autoren einen Überblick über die Entstehung des Marketing-Controllings, dessen Aufgaben, organisatorische Einbindung in das Unternehmen sowie dessen strategische und operative Ausprägungen. Zudem werden die einzelnen Beiträge dieses Handbuches im Zusammenhang vorgestellt.
SWOT-Analyse
(2018)
Portfolio-Analyse
(2018)
Business Reengineering
(2018)
Leuchtturmmarketing
(2019)
Online-Marketing-Controlling
(2021)
Vor dem Hintergrund der zentralen Bedeutung von Online-Marketing-Maßnahmen vor allem im Kontext der Kommunikationspolitik und den hieraus resultierenden steigenden Investitionen werden in dem vorliegenden Beitrag verschiedene Online-Marketing-Controlling-Instrumente vorgestellt. Die Darstellung baut auf einem Strukturierungsrahmen auf, um eine Kategorisierung und sinnvolle Beschreibung der Vielzahl an Instrumenten zu gewährleisten. Darüber hinaus wird in dem Beitrag ein umfassender Prozess für das Online-Marketing-Controlling dargestellt.
Strategische Analysetechniken ermöglichen langfristig eine strukturierte Erfassung unternehmensinterner Ressourcen in Ausrichtung auf den Markt. Die hier beschriebenen Basis-Techniken umfassen das Produkt-Lebenszyklusanalyse-Modell, verschiedene Typen der Portfolio-Analyse, die Wertketten-Analyse und die SWOT-Analyse. Diese Techniken unterstützen das Marketing-Controlling, Geschäftsfeld- und Marktanalysen für das Management zu erstellen und strategische Handlungsoptionen abzuleiten.