Refine
Year of publication
- 2018 (202) (remove)
Document Type
- Part of a Book (65)
- Conference Proceeding (43)
- Bachelor Thesis (34)
- Article (reviewed) (19)
- Other (15)
- Article (unreviewed) (10)
- Book (6)
- Contribution to a Periodical (5)
- Master's Thesis (4)
- Doctoral Thesis (1)
Conference Type
- Konferenzartikel (37)
- Konferenz-Abstract (4)
- Konferenz-Poster (1)
- Sonstiges (1)
Keywords
- Data Analytics (7)
- Digitalisierung (7)
- Industrie 4.0 (7)
- Social Media Marketing (7)
- Big Data (6)
- Fraud Analytics (6)
- Smart City (6)
- Surveillance (6)
- Autonomie (3)
- 5G mobile communication (2)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (100)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (53)
- Fakultät Wirtschaft (W) (22)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (19)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (14)
- INES - Institut für nachhaltige Energiesysteme (6)
- ACI - Affective and Cognitive Institute (3)
- WLRI - Work-Life Robotics Institute (2)
- CRT - Campus Research & Transfer (1)
- Zentrale Einrichtungen (1)
Open Access
- Closed Access (202) (remove)
Quantification of astaxanthin in salmons by chemiluminescence and absorption after TLC separation
(2018)
Astaxanthin is a keto-carotenoid, belongs to the chemical class of terpenes and is a yellow lipid soluble compound. The compound is present in marine animals like salmons and crustacean. Its colour is due to conjugated double bonds and these double bonds are responsible for its antioxidant effect. Its antioxidant activity is ten times stronger than other carotenoids and nearly 500 fold stronger than vitamin-E. We present a new thin layer chromatography (TLC) method to measure astaxanthin on TLC-plates (Merck, 1.05554) in the visible absorption range as well as by using chemiluminescence. For separation a solvent mixture of cyclohexane and acetone (10 + 2.4, v/v) was used. The RF-value of astaxanthin is 0.14.The limit of detection in vis-absorption is 64 ng / band and the limit of quantification is 92 ng/band. In chemiluminescence the values are 90 ng / band and 115 ng/band. The method offers two independently working measurement modes on a single plate which increase the accuracy of the quantification.
The authors claim that location information of stationary ICT components can never be unclassified. They describe how swarm-mapping crowd sourcing is used by Apple and Google to worldwide harvest geo-location information on wireless access points and mobile telecommunication systems' base stations to build up gigantic databases with very exclusive access rights. After having highlighted the known technical facts, in the speculative part of this article, the authors argue how this may impact cyber deterrence strategies of states and alliances understanding the cyberspace as another domain of geostrategic relevance. The states and alliances spectrum of activities due to the potential existence of such databases may range from geopolitical negotiations by institutions understanding international affairs as their core business, mitigation approaches at a technical level, over means of cyber deterrence-by-retaliation.
In a Semi-autonomic cloud auditing architecture we weaved in privacy enhancing mechanisms [15] by applying the public key version of the Somewhat homomorphic encryption (SHE) scheme from [4]. It turns out that the performance of the SHE can be significantly improved by carefully deriving relevant crypto parameters from the concrete cloud auditing use cases for which the scheme serves as a privacy enhancing approach. We provide a generic algorithm for finding good SHE parameters with respect to a given use case scenario by analyzing and taking into consideration security, correctness and performance of the scheme. Also, to show the relevance of our proposed algorithms we apply it to two predominant cloud auditing use cases.
Covert- and side-channels as well as techniques to establish them in cloud computing are in focus of research for quite some time. However, not many concrete mitigation methods have been developed and even less have been adapted and concretely implemented by cloud providers. Thus, we recently conceptually proposed C 3 -Sched a CPU scheduling based approach to mitigate L2 cache covert-channels. Instead of flushing the cache on every context switch, we schedule trusted virtual machines to create noise which prevents potential covert-channels. Additionally, our approach aims on preserving performance by utilizing existing instead of artificial workload while reducing covert-channel related cache flushes to cases where not enough noise has been achieved. In this work we evaluate cache covert-channel mitigation and performance impact of our integration of C 3 -Sched in the XEN credit scheduler. Moreover, we compare it to naive solutions and more competitive approaches.
Bei der Produktion von Solarzellen aus multikristallinem Silizium haben Defekte aus der Kristallisationsphase starken Einfluss auf die Materialqualität der Wafer und damit auf den Wirkungsgrad der späteren Solarzelle. Ein Verständnis des Kornwachstums in multikristallinem Silizium während des Kristallisationsprozesses kann zur Optimierung desselben beitragen. In dieser Arbeit werden Methoden untersucht, optische Flüsse zwischen Korngrenzenbildern multikristalliner Si-Wafer mittels neuronaler Netze zu berechnen. Hierfür wird die Architektur eines ausgereiften faltungsbasierten neuronalen Netzes zur optischen Fluss-Berechnung genutzt und durch angepasstes Training auf Waferstrukturen zugeschnitten. Dies umfasst die Synthese eigener, auf Waferbilder basierender Trainingsdaten und das Training mit einer angepassten Fehlerfunktion zur Bewertung der Zuordnungsgenauigkeit von Körnern zwischen Wafern durch den optischen Fluss. Beide Maßnahmen zusammen führen zu einer Reduktion des Zuordnungsfehlers von Körnern zwischen Waferbildern um 45 % gegenüber einem hochoptimierten, auf allgemeine optische Flüsse trainierten Modell basierend auf demselben Netzwerk. Die geschätzte Zuordnungsgenauigkeit des besten Modells beträgt 92,4 % der Pixel der Korngrenzenbilder eines Wafers. Weiteres Verbesserungspotenzial ist vorhanden.
In letzter Zeit sind einige neue, hochintegrierte Einchip-Radarsensoren auf den Markt gekommen. Die enormen Fortschritte im Bereich des autonomen Fahrens hat diese Sensoren hervorgebracht. Mit ihnen lassen sich diverse Anwendungen, wie zum Beispiel eine Abstandsmessung, Kollisionserkennung oder Geschwindigkeitserfassung realisieren.
Für die Nutzung eines solchen modernen Radarsensors spricht viel, jedoch besitzen alle eine differenzielle Ausgangsschnittstelle, die nicht mit den üblichen Mikrocontrollersystemen eingelesen werden kann. Darum war das Ziel der Arbeit, die Entwicklung eines Schnittstellenwandlers auf einem Low-Power-FPGA, zur Anbindung eines Radarchips an einen klassischen Mikrocontroller.
Der Lösungsweg war demnach schon vorgegeben, es folgte die konkrete Umsetzung mit der Modellierung der Hardware in VHDL. Der FPGA liest die differenzielle Schnittstelle ein, parallelisiert die Daten und speichert sie zwischen. Sobald die Messdaten vollständig sind, können sie über die serielle SPI-Schnittstelle angefordert werden. Als Gegenstelle kommt ein Mikrocontroller zum Einsatz, der die Messdaten wiederum gemäß eines definierten Protokolls zur Auswertung an einen Computer weiterleitet.
Die Machbarkeit dieser Anwendung wurde kontrolliert, indem die Messdaten vom Radarchip, übermittelt durch den FPGA und Mikrocontroller, auf dem Computer mithilfe eines Analyseprogramms bewertet wurden. Die Auswertung der Messergebnisse entspricht in vollem Umfang den Erwartungen. Der Ressourcenverbrauch im FPGA wurde hierbei ebenfalls als kritisch betrachtet, was sich im Nachhinein jedoch nicht bestätigte. Es ist sogar das Gegenteil der Fall, mit den übrigen freien Ressourcen steht einer möglichen Signalverarbeitung nichts im Wege.
Die vorliegende Bachelor-Thesis wurde im Rahmen des Bachelorstudiengangs an der Hochschule Offenburg in der Sparte S der Fertigungsplanung der Hugo Kern und Liebers GmbH und Co. KG verfasst. Ziel dieser Abschlussarbeit ist es, die Lagerung der vorderen Kettenumlenkung weiter zu optimieren, um die Standzeit zu verbessern. Der Fokus der Arbeit liegt dabei in der Optimierung des Seriengleitlagers, bzw. der Entwicklung und Herstellung eines speziell gekapselten Gleitlagers.
Als Optimierungen im seriennahen Bereich, das heißt möglichst ohne große Änderungen am Fertigungs- bzw. Montageablauf, findet vor allem das Borieren der Reibpartner besondere Beachtung. Durch erste Feldversuche zeigte sich, dass das Borieren des Umlenksterns positive Auswirkungen auf die Reibung hat und den Widerstand gegen abrasiven Verschleiß durch Erhöhung der Randschichthärte deutlich verbessert. Zusätzlich zum Einsatz eines borierten Umlenksterns wird untersucht, ob das zusätzliche Borieren des HM-Rings weitere Vorteile bringt, vor allem hinsichtlich der entstehenden zusätzlichen Notlaufeigenschaften durch die Boridschicht.
Als weitere Variante wird der eingesetzte Hartmetallring, welcher aktuell lediglich eine einzige Schmiernut enthält, mit optimierten Schmiernuten hergestellt. Als Vorbild hierfür wird die Gestaltungsrichtlinie von Schmiernuten von hydrodynamischen Gleitlagern verwendet.
Der größte Block und damit auch der, welcher am vielversprechendsten ist, ist die Neuentwicklung und Herstellung einer gekapselten Gleitlagervariante. Diese soll es ermöglichen, dass die Reibpartner komplett von Öl umschlossen sind und so eine Verbesserte und dauerhafte Schmierung erreicht werden soll. Außerdem soll die gekapselte Gleitlagerung so gestaltet werden, dass eine Nachförderung von Öl aus einem in den Bolzen angebrachten Schmiermittelreservoir ermöglicht wird und so eine Lebensdauerschmierung erreicht werden kann.
Um die unterschiedlichen Mustervariationen bewerten zu können, werden jeweils Prüfstandversuche durchgeführt, bei dem die entstehenden Drehmomente und die Temperatur gemessen werden. Als Vergleich dient jeweils der Serienstand mit seinen festgelegten Grenzen.
Außerdem wird für jede Variante ein Sägeversuch durchgeführt, bei welchem die Bau-gruppen bei den beiden kritischen Sägerichtungen Rückwärts und Einstechen überprüft wird. Auch hier erfolgt die Beurteilung über etwaige Verbesserungen mit den Ergebnissen der Sägesysteme aus dem aktuellen Serienzustand.
Bei der Prüfung der Musterbaugruppen zeigt sich, dass vor allem das Borieren der Reibpartner Vorteile gegenüber der Serie bringt und durchaus die Möglichkeit der Umsetzung in der Serienbaugruppe besteht. Die Tests verliefen äußerst positiv, vor allem im Bereich höherer Belastungen zeigt sich, dass das Borieren des Umlenksterns deutliches Verbesserungspotenzial im Vergleich zum aktuellen Serienstand zeigt.
An ein Umsetzen der Baugruppen mit gekapselter Gleitlagervariante ist aktuell nicht zu denken. Die geprüften Baugruppen zeigen deutliche Schwächen bei den Prüfstandsversuchen. Die Ergebnisse der Sägeversuche stellen sich jedoch noch deutlich schlechter dar. Unabhängig vom verwendeten Schmieröl, bzw. den darin enthaltenen Festschmierstoffpartikeln, besteht keine einzige Baugruppe auch nur annähernd die festgelegten Mindestanforderungen.
Um die gekapselte Gleitlagervariante auf einen Stand zu bringen, bei welchem an ein Umsetzen in die Serienbaugruppe gedacht werden kann, bedarf es noch weiterem Entwicklungsaufwand. Das Aufbiegen des Schwertes während des Sägens muss verhindert werden. Außerdem muss die Materialpaarung, die Härte und die Oberflächenqualität von Umlenkstern und Bolzen angepasst werden, um die Ausbildung von Kaltverschweißungen zu vermeiden. Die Kaltverschweißungen zwischen Umlenkstern und Bolzen bewirken, dass der Bolzen nicht mehr drehbar ist was unmittelbar zum Ausfall der Baugruppen führt.
Die Schaltvorgänge in einem Doppelkupplungsgetriebe werden neben den Hardwarekomponenten hauptsächlich von den Parametern beeinflusst, welche in der Software des Steuergerätes festgelegt sind. Darin werden unter anderem Schaltpunkte, Steuerzeiten und Kupplungsraten festgelegt. Diese Parameter tragen maßgeblich zur Schaltdynamik bei und beeinflussen sowohl den Kraftstoffverbrauch als auch den Fahrkomfort während der Schaltung. Da die Motivation Kraftstoff zu sparen bzw. den Schadstoffausstoß zu reduzieren aufgrund der aktuellen Situation in der Automobilindustrie immer mehr steigt, nimmt auch die Wichtigkeit der Schaltungsoptimierung zu. Aufgrund der beim Schaltvorgang auftretenden Verlustleistung, welche durch Reibung hervorgerufen wird, bietet die Optimierung dieser Vorgänge großes Potential um Kraftstoff einzusparen und damit die Emissionen zu reduzieren.
Aufgabe ist es, die Parameter der Getriebesoftware dahingehend zu optimieren, dass die Reibleistung beim Schaltvorgang minimiert wird. Dies wird durch die Verkürzung der Phasen erreicht, aus welchen eine Schaltung besteht. Die Dauer des Schaltvorgangs ist allerdings mit dem Fahrkomfort verknüpft. Eine zu starke Verkürzung kann daher zu großen Änderungen in der Beschleunigung führen, was für den Kunden als ruckartige Bewegung des Fahrzeugs spürbar ist und dadurch die Akzeptanz der Optimierung nicht mehr gegeben ist. Aus diesem Grund darf die Dauer des Schaltvorgangs nur so stark verkürzt werden, dass sie den Grenzwert, der für diese Beschleunigungsänderung vorgegeben ist, nicht überschreitet. Zusammengefasst müssen folgende Punkte bearbeitet werden:
- Optimierung des Schaltvorgangs hinsichtlich des Verbrauchs
- Überprüfung der optimierten Einstellung auf Konformität mit dem Grenzwerten des Fahrkomforts
Durch diese Optimierungen ist es möglich, die im Schaltvorgang durch Dissipation auftretenden Verluste deutlich zu reduzieren, ohne dabei den Fahrkomfort und somit die Akzeptanz des Kunden zu beeinträchtigen.
Das Projekt PHOTOPUR soll die Reduzierung von Pestiziden in Oberflächengewässern ermöglichen. In dieser Arbeit wird eine Automatisierung eines ersten Demosystems entwickelt, welches den gesamten Reinigungsprozess abbildet. Eine Projektierung der Automatisierung des Systems wird mit den dafür vorgesehenen Fließschemas und Gerätelisten durchgeführt. Darauf aufbauend wird die Ablaufsteuerung des Demosystems durch einen Ablauf-Funktionsplan umgesetzt. Um eine Systemüberwachung der Anlage zu gewährleisten wurde dazu eine Visualisierung ausgearbeitet. Zusätzlich wurden die Regelstrecken der Durchflussregelungen in den zwei Teilprozessen des Reinigungsprozesses bestimmt und durch unterschiedliche Einstellregeln der optimale Regler der Regelkreise ermittelt.
Die in dieser Arbeit entwickelte Software, beinhaltet die drei folgenden Umsetzungen: Realisierung der Ablaufsteuerung, Implementierung der Reglerparameter durch einen vorhandenen Regelalgorithmus und die Visualisierung des Demosystems.
Konzeption und Umsetzung einer Websitemigration unter dem speziellen Blickwinkel der Usability
(2018)
Die vorliegende Arbeit ist in Zusammenarbeit mit der P3 Systems GmbH entstanden. Sie soll zum einen den Migrationsprozess einer Website darstellen und die Hürden die dabei auftreten können, sowie mögliche praktische Lösungswege aufzeigen. Zum anderen soll verdeutlicht werden, inwieweit sich dieser Prozess dazu eignet die Usability der Website durch einen nutzerorientierten Entwicklungsprozess und eine gezielte Anwendung von erprobten Methoden zu erhöhen. Hierzu sollen zunächst das Unternehmen, die zu migrierende Website und die Beweggründe für die Migration vorgestellt werden. Im zweiten Kapitel werden die Grundlagen für die spätere Arbeit gelegt. Hier werden verwendete Web-Technologien, Informationen zur Usability und zu den angewendeten Methoden erklärt. Im Anschluss beginnt die Dokumentation der praktischen Arbeit in der Reihenfolge, in der sie durchgeführt wurde. Zunächst wird der benutzerorientierte Entwicklungsprozess erläutert, darauf aufbauend die Konzeption der neuen Website und schließlich die Umsetzung der Migration an sich, die mit der Evaluation der Ergebnisse endet. Abschießend soll ein Fazit gezogen und ein möglicher Ausblick für die Zukunft aufgezeigt werden.
Der beständig wachsende Markt und die Aussicht auf eine Vielzahl an „ausrangierten“ Batteriespeichern aus der Elektro-Mobilität, hat in den letzten Jahren zu einer Vielzahl an Anbietern von Batteriespeichersystemen für Gewerbe und Industrie geführt.
Die Anwendungsmöglichkeiten und daraus resultierende Geschäfts- und Erlösmodelle sind ein Schwerpunkt im vorliegenden Leitfaden. Außerdem beantworten wir praxisrelevante Fragestellungen für einen potentiellen Anwender: Welche relevanten Anbieter gibt es am Markt? Wie unterscheiden sich diese und deren Produkte? Welche zusätzlichen Services werden angeboten? Um nur einige davon zu nennen.
Der Fokus unserer Analyse sind dabei die Anbieter von Komplett-Lösungen. Diese unterscheiden sich oftmals gerade nicht in der verwendeten Batterietechnologie sondern vor allem durch die Leistungselektronik und die (oft proprietäre) Steuerungstechnik. Und die machen aus Anwender- und Systemsicht oft den Unterschied.
Inhalte: Einführung und Hintergrund | Batteriespeicher in Gewerbe- und Industrie – Einleitung, Markt, Förderung | Beschreibung und Bewertung der Anwendungsfälle | Beschreibung und Bewertung der Geschäfts- und Erlösmodelle | Anbieter und Wertschöpfungskette verfügbarer Lösungen | Vergleich Unternehmen und Produkte | Detaillierte Anbieter- bzw. Unternehmensprofile
Diese Bachelorthesis befasst sich mit der Entwicklung eines Auslegungstools für eine PV-basierte, autarke Energieversorgung eines Wasserreinigungssystems mit Hilfe eines Batteriespeichers.
Dafür wurde auf Grundlage theoretischer Einstrahlungsmodelle die Berechnung der Bestrahlungsstärke auf eine geneigte Moduloberfläche in Microsoft Excel 2010 implementiert. Die Berechnung wurde dabei so umgesetzt, dass Parameter wie z.B. Ausrichtung und Größe der PV-Module variiert werden können. Darauf aufbauend wurde die Berechnung der Leistung eines PV-Generators mit Hilfe des Wirkungsgrades der PV-Module umgesetzt.
Des Weiteren wurde für diese Arbeit ein Bilanzierungsmodell entwickelt, welches das Verhalten des Batteriespeichers im autarken System simuliert. Dieses Modell berechnet dabei sowohl die im Batteriespeicher gespeicherte Energie, als auch die über ein Bilanzierungsintervall gemittelte Leistung des Batteriespeichers. Das Batteriemodell wurde mit Hilfe von VBA-Code umgesetzt und in das Auslegungstool eingebunden.
Ein weiteres Thema dieser Bachelorthesis ist die Energieversorgung eines speziellen Wasserreinigungssystems, welches im Rahmen des Forschungsprojekts „PHOTOPUR“ entwickelt wird. Dieses mehrstufige System hat einen charakteristischen Energieverbrauch, der möglichst präzise simuliert werden soll. Um dies zu gewährleisten, wurde ein dynamisches Lastprofil erstellt. Das entwickelte Lastprofil ist spezifisch für das Wasserreinigungssystem, enthält aber gleichzeitig viele Freiheitsgrade um es bei der weiteren Entwicklung des Systems möglichst präzise anpassen zu können.
Das entwickelte Auslegungstool kann folglich die erzeugte PV-Leistung, einen Batteriespeicher und das Lastprofil des Wasserreinigungssystems simulieren. Die Darstellung der Simulationsergebnisse erfolgt mit dem Ziel, Aussagen zu der Qualität der Energieversorgung des Wasserreinigungssystems treffen zu können.
Ein digitaler Sprachassistent soll die Mensch-Maschine-Kommunikation vereinfachen, indem zur Bedienung technischer Geräte und Anwendungen auf einem dem Menschen vertrautes Verständigungsmittel zurückgegriffen wird - die Sprache. Gerade älteren Menschen, welche durch die Technologie unterstützt werden könnten, muss eine einfache und intuitive Bedienung der Geräte und Anwendungen gegeben sein. Die Bedienung derzeitiger Technologien wie Smartphones erfordert technische Affinität und Erfahrungen, welche bei den heute älteren Menschen größtenteils nicht vorhanden sind und aus diesem Grund die Technologie abgelehnt wird. Infolge dessen ist auch die Kommunikationsmöglichkeit mit älteren Familienangehörigen eingeschränkter, als sie es bei der jungen Generation ist. Um dennoch den aktuellen Technologiestand dieser Generation näher zu bringen, erweisen sich digitale Sprachassistenten als optimal, denn bei einer sprachgesteuerten Anwendung wird der Nutzer durch den persönlichen Sprachassistenten bei der Bedienung begleitet und unterstützt. Dies ermöglicht, dass auch Menschen mit einer weniger ausgeprägten technischen Affinität, Sprachassistenten nutzen können.
A simple measuring method for acquiring the radiation pattern of an ultrawide band Vivaldi antenna is presented. The measuring is performed by combining two identical Vivaldi antennas and some of the intrinsic properties of a stepped-frequency continue wave radar (SFCW radar) in the
range from 1.0 GHz to 6.0 GHz. A stepper-motor provided the azimuthal rotation for one of the antennas from 0 ◦ to 360 ◦. The tests have been performed within the conventional environment (laboratory / office) without using an anechoic chamber or absorbing materials. Special measuring devices have not been used either. This method has been tested with different pairs of Vivaldi antennas and it can be also used for different ones (with little or no change in the system), as long as their operational
bandwidth is within the frequency range of the SFCW radar.
Keywords — SFCW Radar, Antenna Gain Characterization,
Azimuthal Radiation Pattern
In this paper, we establish a simple model for the exchange of messages in a vehicular network and we consider fundamental limits on the achievable data rate. For a vehicular network, the exchange of data with other nearby vehicles is particularly important for traffic safety, e.g. for collision avoidance, but also for cooperative applications like platooning. These use cases are currently addressed by standards building on IEEE 802.11p, namely ITS-G5 and DSRC (dedicated short range communication), which encounter saturation problems at high vehicle densities. For this reason, we take a step back and ask for the fundamental limits for the common data rate in a vehicular network. After defining a simple single-lane model and the corresponding capacity limits for some basic multiple- access schemes, we present results for a more realistic setting. For both scenarios, non-orthogonal multiple-access (NOMA) yields the best results.
This paper evaluates the implementation of Medium Access Control (MAC) protocols suitable for massive access connectivity in 5G multi-service networks. The access protocol extends multi-packet detection receivers based on Physical Layer Network Coding (PLNC) decoding and Coded Random Access protocols considering practical aspects to implement one-stage MAC protocols for short packet communications in mMTC services. Extensions to enhance data delivery phase in two- stage protocols are also proposed. The assessment of the access protocols is extended under system level simulations where a suitable link to system interface characterization has been taken into account.
Micro-cracks give rise to non-analytic behavior of the stress-strain relation. For the case of a homogeneous spatial distribution of aligned flat micro-cracks, the influence of this property of the stress-strain relation on harmonic generation is analyzed for Rayleigh waves and for acoustic wedge waves with the help of a simple micromechanical model adopted from the literature. For the efficiencies of harmonic generation of these guided waves, explicit expressions are derived in terms of the corresponding linear wave fields. The initial growth rates of the second harmonic, i.e., the acoustic nonlinearity parameter, has been evaluated numerically for steel as matrix material. The growth rate of the second harmonic of Rayleigh waves has also been determined for microcrack distributions with random orientation, using a model expression for the strain energy in terms of strain invariants known in a geophysical context.
For an elastic medium containing a homogeneous distribution of micro-cracks, an effective one-dimensional stress-strain relation has been determined with finite element simulations. In addition to flat micro-cracks, voids were considered that contain a Hertzian contact, which represents an example for micro-cracks with internal structure. The orientation of both types of micro-cracks was fully aligned or, for flat micro-cracks, totally random. For micro-cracks with Hertzian contacts, the case of random orientation was treated in an approximate way. The two types of defects were found to give rise to different degrees of non-analytic behavior of the effective stress-strain relation, which governs the nonlinear propagation of symmetric (S0) Lamb waves in the long-wavelength limit. The presence of flat micro-cracks causes even harmonics to grow linearly with propagation distance with amplitudes proportional to the amplitude of the fundamental wave, and gives rise to a static strain. The presence of the second type of defects leads to a linear growth of all harmonics with amplitudes proportional to the power 3/2 of the fundamental amplitude, and to a strain-dependent velocity shift. Simple expressions are given for the growth rates of higher harmonics of S0 Lamb waves in terms of the parameters occurring in the effective stress-strain relation. They have partly been determined quantitatively with the help of the FEM results for different micro-crack concentrations.
Among the various types of guided acoustic waves, acoustic wedge waves are non-diffractive and non-dispersive. Both properties make them susceptible to nonlinear effects. Investigations have recently been focused on effects of second-order nonlinearity in connection with anisotropy. The current status of these investigations is reviewed in the context of earlier work on nonlinear properties of two-dimensional guided acoustic waves, in particular surface waves. The role of weak dispersion, leading to solitary waves, is also discussed. For anti-symmetric flexural wedge waves propagating in isotropic media or in anisotropic media with reflection symmetry with respect to the wedge’s mid-plane, an evolution equation is derived that accounts for an effective third-order nonlinearity of acoustic wedge waves. For the kernel functions occurring in the nonlinear terms of this equation, expressions in terms of overlap integrals with Laguerre functions are provided, which allow for their quantitative numerical evaluation. First numerical results for the efficiency of third-harmonic generation of flexural wedge waves are presented.
This paper is discussing the development of a wireless Indoor Smart Gardening System with the focus on energy autonomous working. The Smart Gardening System, which is presented in this paper consists of a network of energy autonomous wireless sensor nodes which are used for monitoring important plant parameters like air temperature, soil moisture, pressure or humidity and in future to control an actuator for the plant irrigation and to measure further parameter as light and fertilizer level. Solar energy harvesting is used for powering the wireless nodes without the usage of a battery. Comparable Smart Gardening Systems are usually battery-powered. Furthermore, the overall Smart Gardening System consists of a battery powered gateway based on a Raspberry Pi 3 system, which controls the wireless nodes and collects their sensor data. The gateway is able to send the information to an internet server application and via Wi-Fi to mobile devices. Particularly the architecture of the energy autonomous wireless nodes will be considered because fully energy autonomous wireless networks could not be implemented without special concepts for the energy supply and architecture of the wireless nodes.
Nowadays, robotic systems are an integral part of many orthopedic interventions. Stationary robots improve the accuracy but also require adapted surgical workflows. Handheld robotic devices (HHRDs), however, are easily integrated into existing workflows and represent a more economical solution. Their limited range of motion is compensated by the dexterity of the surgeon. This work presents control algorithms for HHRDs with multiple degrees of freedom (DOF). These algorithms protect pre- or intraoperatively defined regions from being penetrated by the end effector (e.g., a burr) by controlling the joints as well as the device’s power. Accuracy tests on a stationary prototype with three DOF show that the presented control algorithms produce results similar to those of stationary robots and much better results than conventional techniques. This work presents novel and innovative algorithms, which work robustly, accurately, and open up new opportunities for orthopedic interventions.
In rural low voltage grid networks, the use of battery in the households with a grid connected Photovoltaic (PV) system is a popular solution to shave the peak PV feed-in to the grid. For a single electricity price scenario, the existing forecast based control approaches together with a decision based control layer uses weather and load forecast data for the on–off schedule of the battery operation. These approaches do bring cost benefit from the battery usage. In this paper, the focus is to develop a Model Predictive Control (MPC) to maximize the use of the battery and shave the peaks in the PV feed-in and the load demand. The solution of the MPC allows to keep the PV feed-in and the grid consumption profile as low and as smooth as possible. The paper presents the mathematical formulation of the optimal control problem along with the cost benefit analysis . The MPC implementation scheme in the laboratory and experiment results have also been presented. The results show that the MPC is able to track the deviation in the weather forecast and operate the battery by solving the optimal control problem to handle this deviation.
Bei vielen Schulungen, Unterrichten und Weiterbildungen kommen PowerPoint-Präsentationen zum Einsatz, welche durch epische Länge, Unmengen von Informationen und Text charakterisiert sind. Zur Folge haben kann dies, dass die meisten Zuhörer binnen kürzester Zeit gedanklich abschalten, den Wortregen über sich ergehen lassen und dabei andere Dinge in den Fokus ihrer Aufmerksamkeit stellen. Die Autoren zeigen, wie und warum der »Zuhörer« zu einem »Zuschauer« werden sollte – sprich: die zu vermittelnden Aspekte und Informationen als einfache Bilder komprimiert darzustellen. Der folgende Beitrag setzt sich mit dieser Art von Perspektivenwechsel kontrovers auseinander und gibt für den Praxisalltag mögliche Lösungsansätze.
Uncontrollable manufacturing variations in electrical hardware circuits can be exploited as Physical Unclonable Functions (PUFs). Herein, we present a Printed Electronics (PE)-based PUF system architecture. Our proposed Differential Circuit PUF (DiffC-PUF) is a hybrid system, combining silicon-based and PE-based electronic circuits. The novel approach of the DiffC-PUF architecture is to provide a specially designed real hardware system architecture, that enables the automatic readout of interchangeable printed DiffC-PUF core circuits. The silicon-based addressing and evaluation circuit supplies and controls the printed PUF core and ensures seamless integration into silicon-based smart systems. Major objectives of our work are interconnected applications for the Internet of Things (IoT).
Vehicle-to-Everything (V2X) communication promises improvements in road safety and efficiency by enabling low-latency and reliable communication services for vehicles. Besides using Mobile Broadband (MBB), there is a need to develop Ultra Reliable Low Latency Communications (URLLC) applications with cellular networks especially when safety-related driving applications are concerned. Future cellular networks are expected to support novel latencysensitive use cases. Many applications of V2X communication, like collaborative autonomous driving requires very low latency and high reliability in order to support real-time communication between vehicles and other network elements. In this paper, we classify V2X use-cases and their requirements in order to identify cellular network technologies able to support them. The bottleneck problem of the medium access in 4G Long Term Evolution(LTE) networks is random access procedure. It is evaluated through simulations to further detail the future limitations and requirements. Limitations and improvement possibilities for next generation of cellular networks are finally detailed. Moreover, the results presented in this paper provide the limits of different parameter sets with regard to the requirements of V2X-based applications. In doing this, a starting point to migrate to Narrowband IoT (NB-IoT) or 5G - solutions is given.
The next generation cellular networks are expected to improve reliability, energy efficiency, data rate, capacity and latency. Originally, Machine Type Communication (MTC) was designed for low-bandwidth high-latency applications such as, environmental sensing, smart dustbin, etc., but there is additional demand around applications with low latency requirements, like industrial automation, driver-less cars, and so on. Improvements are required in 4G Long Term Evolution (LTE) networks towards the development of next generation cellular networks for providing very low latency and high reliability. To this end, we present an in-depth analysis of parameters that contribute to the latency in 4G networks along with a description of latency reduction techniques. We implement and validate these latency reduction techniques in the open-source network simulator (NS3) for narrowband user equipment category Cat-Ml (LTE-M) to analyze the improvements. The results presented are a step towards enabling narrowband Ultra Reliable Low Latency Communication (URLLC) networks.
The excessive control signaling in Long Term Evolution networks required for dynamic scheduling impedes the deployment of ultra-reliable low latency applications. Semi-persistent scheduling was originally designed for constant bit-rate voice applications, however, very low control overhead makes it a potential latency reduction technique in Long Term Evolution. In this paper, we investigate resource scheduling in narrowband fourth generation Long Term Evolution networks through Network Simulator (NS3) simulations. The current release of NS3 does not include a semi-persistent scheduler for Long Term Evolution module. Therefore, we developed the semi-persistent scheduling feature in NS3 to evaluate and compare the performance in terms of uplink latency. We evaluate dynamic scheduling and semi-persistent scheduling in order to analyze the impact of resource scheduling methods on up-link latency.
The Datagram Transport Layer Security (DTLS) protocol has been designed to provide end-to-end security over unreliable communication links. Where its connection establishment is concerned, DTLS copes with potential loss of protocol messages by implementing its own loss detection and retransmission scheme. However, the default scheme turns out to be suboptimal for links with high transmission error rates and low data rates, such as wireless links in electromagnetically harsh industrial environments. Therefore, in this paper, as a first step we provide an analysis of the standard DTLS handshake's performance under such adverse transmission conditions. Our studies are based on simulations that model message loss as the result of bit transmission errors. We consider several handshake variants, including endpoint authentication via pre-shared keys or certificates. As a second step, we propose and evaluate modifications to the way message loss is dealt with during the handshake, making DTLS deployable in situations which are prohibitive for default DTLS.
The Transport Layer Security (TLS) protocol is a cornerstone of secure network communication, not only for online banking, e-commerce, and social media, but also for industrial communication and cyber-physical systems. Unfortunately, implementing TLS correctly is very challenging, as becomes evident by considering the high frequency of bugfixes filed for many TLS implementations. Given the high significance of TLS, advancing the quality of implementations is a sustained pursuit. We strive to support these efforts by presenting a novel, response-distribution guided fuzzing algorithm for differential testing of black-box TLS implementations. Our algorithm generates highly diverse and mostly-valid TLS stimulation messages, which evoke more behavioral discrepancies in TLS server implementations than other algorithms. We evaluate our algorithm using 37 different TLS implementations and discuss―by means of a case study―how the resulting data allows to assess and improve not only implementations of TLS but also to identify underspecified corner cases. We introduce suspiciousness as a per-implementation metric of anomalous implementation behavior and find that more recent or bug-fixed implementations tend to have a lower suspiciousness score. Our contribution is complementary to existing tools and approaches in the area, and can help reveal implementation flaws and avoid regression. While being presented for TLS, we expect our algorithm's guidance scheme to be applicable and useful also in other contexts. Source code and data is made available for fellow researchers in order to stimulate discussions and invite others to benefit from and advance our work.
Cell lifetime diagnostics and system be-havior of stationary LFP/graphite lithium-ion batteries
(2018)
Recently, the demand for scalable, efficient and accurate Indoor Positioning Systems (IPS) has seen a rising trend due to their utility in providing Location Based Services (LBS). Visible Light Communication (VLC) based IPS designs, VLC-IPS, leverage Light Emitting Diodes (LEDs) in indoor environments for localization. Among VLC-based designs, Time Difference of Arrival (TDOA) based techniques are shown to provide very low errors in the relative position of receivers. Our considered system consists of five LEDs that act as transmitters and a single receiver (photodiode or image sensor in smart phone) whose position coordinates in an indoor environment are to be determined. As a performance criterion, Cramer Rao Lower Bound (CRLB) is derived for range estimations and the impact of various factors, such as, LED transmission frequency, position of reference LED light, and the number of LED lights, on localization accuracy has been studied. Simulation results show that depending on the optimal values of these factors, location estimation on the order of few centimeters can be realistically achieved.
Real-Time Ethernet has become the major communication technology for modern automation and industrial control systems. On the one hand, this trend increases the need for an automation-friendly security solution, as such networks can no longer be considered sufficiently isolated. On the other hand, it shows that, despite diverging requirements, the domain of Operational Technology (OT) can derive advantage from high-volume technology of the Information Technology (IT) domain. Based on these two sides of the same coin, we study the challenges and prospects of approaches to communication security in real-time Ethernet automation systems. In order to capitalize the expertise aggregated in decades of research and development, we put a special focus on the reuse of well-established security technology from the IT domain. We argue that enhancing such technology to become automation-friendly is likely to result in more robust and secure designs than greenfield designs. Because of its widespread deployment and the (to this date) nonexistence of a consistent security architecture, we use PROFINET as a showcase of our considerations. Security requirements for this technology are defined and different well-known solutions are examined according their suitability for PROFINET. Based on these findings, we elaborate the necessary adaptions for the deployment on PROFINET.
In recent years, the application of TRIZ methodology in the process engineering has been found promising to develop comprehensive inventive solution concepts for process intensification (PI). However, the effectiveness of TRIZ for PI is not measured or estimated. The paper describes an approach to evaluate the efficiency of TRIZ application in process intensification by comparing six case studies in the field of chemical, pharmaceutical, ceramic, and mineral industries. In each case study, TRIZ workshops with the teams of researchers and engineers has been performed to analyze initial complex problem situation, to identify problems, to generate new ideas, and to create solution concepts. The analysis of the workshop outcomes estimates fulfilment of the PI-goals, impact of secondary problems, variety and efficiency of ideas and solution concepts. In addition to the observed positive effect of TRIZ application, the most effective inventive principles for process engineering have been identified.
Identification of Secondary Problems of New Technologies in Process Engineering by Patent Analysis
(2018)
The implementation of new technologies in production plants often causes negative side effects and drawbacks. In this context, the prediction of the secondary problems and risks can be used advantageously for selecting best solutions for intensification of the processes. The proposed method puts primary emphasis on systematic and fast anticipation of secondary problems using patent documents, and on extraction and prediction of possible engineering contradictions within novel technical systems. The approach comprises three ways to find secondary problems: (a) direct knowledge-based identification of secondary problems in new technologies or equipment; (b) identification of secondary problems of prototypes mentioned in patent citation trees; and (c) prediction of negative side effects using the correlation matrix for invention goals and secondary problems in a specific engineering domain.
The research work analyses the relationship of 155 Process Intensification (PI) technologies to the components of the Theory of Inventive Problem Solving (TRIZ). It outlines TRIZ inventive principles frequently used in PI, and identifies opportunities for enhancing systematic innovation in process engineering by applying complementary TRIZ and PI. The study also proposes 70 additional inventive TRIZ sub-principles for the problems frequently encountered in process engineering, resulting in the advanced set of 160 inventive operators, assigned to the 40 TRIZ inventive principles. Finally, we analyse and discuss inventive principles used in 150 patent documents published in the last decade in the field of solid handling in the ceramic and pharmaceutical industries.
Process engineering (PE) focuses on the design, operation, control and optimization of chemical, physical and biological processes and has applications in many industries. Process intensification (PI) is the key development approach in the modern process engineering. The theory of inventive problem solving (TRIZ) is today considered as the most comprehensive and systematically organized invention knowledge and creative thinking methodology. This paper analyses the opportunities of TRIZ application in PE and especially in combination with PI. In this context the paper outlines the major challenges for TRIZ application in PE, conceptualizes a possible TRIZ-based approach for process intensification and problem solving in PE, and defines the corresponding research agenda. It also presents the results of the original empirical innovation research in the field of solid handling in the ceramic industry, demonstrates a method for identification and prediction of contradictions and introduces the concept of the probability of contradiction occurrence. Additionally, it describes a technique of process mapping that is based on the function and multi-screen analysis of the processes. This technique is illustrated by a case study dealing with granulation process. The research work presented in this paper is a part of the European project “Intensified by Design® platform for the intensification of processes involving solids handling”.
The modern TRIZ is today considered as the most organized and comprehensive methodology for knowledge-driven invention and innovation. When applying TRIZ for inventive problem solving, the quality of obtained solutions strongly depends on the level of completeness of the problem analysis and the abilities of designers to identify the main technical and physical contradictions in the inventive situation. These tasks are more complex and hence more time consuming in the case of interdisciplinary systems. Considering a mechatronic product as a system resulting from the integration of different technologies, the problem definition reveals two kinds of contradictions: 1) the mono-disciplinary contradictions within a homogenous sub-system, e.g., only mechanical or only electrical; 2) the interdisciplinary contradictions resulting from the interaction of the mechatronic sub-systems (mechanics, electrics, control and software). This paper presents a TRIZ-based approach for a fast and systematic problem definition and contradiction identification, which could be useful both for engineers and students facing mechatronic problems. It also proposes some useful problem formulation tech-niques such as the System Circle Diagram, the enhancement of System Operator with the Evolution Patterns, the extension of MATChEM-IB operator with Infor-mation field and Human Interactions, as well as the Cause-Effect-Matrix.
Our media-artistic performances and installations, INTERCORPOREAL SPLITS (2010–2013), BUZZ (2014–2015), W ASTELAND (2015–2016), as well as our new collaboration with Bruno Latour , DE\GLOBALIZE (2018–2020), are not just about polyphony. Here, however, we rediscover them under this heading, thus giving them a new twist, while mapping out issues, mechanisms and functional modes of the polyphonic.