Refine
Year of publication
- 2018 (292) (remove)
Document Type
- Conference Proceeding (82)
- Part of a Book (78)
- Article (reviewed) (41)
- Article (unreviewed) (26)
- Other (16)
- Working Paper (12)
- Book (11)
- Contribution to a Periodical (11)
- Letter to Editor (4)
- Patent (4)
- Report (3)
- Doctoral Thesis (2)
- Periodical Part (2)
Conference Type
- Konferenzartikel (62)
- Konferenz-Abstract (14)
- Konferenz-Poster (3)
- Sonstiges (3)
Is part of the Bibliography
- yes (292) (remove)
Keywords
- Digitalisierung (13)
- Data Analytics (12)
- Industrie 4.0 (12)
- Social Media Marketing (12)
- Big Data (11)
- Fraud Analytics (11)
- Smart City (11)
- Surveillance (11)
- Autonomie (4)
- Betriebstypenmarke (3)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (122)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (76)
- Fakultät Wirtschaft (W) (46)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (40)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (17)
- INES - Institut für nachhaltige Energiesysteme (12)
- ACI - Affective and Cognitive Institute (7)
- CRT - Campus Research & Transfer (4)
- POIM - Peter Osypka Institute of Medical Engineering (2)
- WLRI - Work-Life Robotics Institute (2)
Open Access
- Closed Access (162)
- Open Access (87)
- Bronze (6)
- Closed (6)
- Diamond (1)
- Gold (1)
The authors claim that location information of stationary ICT components can never be unclassified. They describe how swarm-mapping crowd sourcing is used by Apple and Google to worldwide harvest geo-location information on wireless access points and mobile telecommunication systems' base stations to build up gigantic databases with very exclusive access rights. After having highlighted the known technical facts, in the speculative part of this article, the authors argue how this may impact cyber deterrence strategies of states and alliances understanding the cyberspace as another domain of geostrategic relevance. The states and alliances spectrum of activities due to the potential existence of such databases may range from geopolitical negotiations by institutions understanding international affairs as their core business, mitigation approaches at a technical level, over means of cyber deterrence-by-retaliation.
Covert- and side-channels as well as techniques to establish them in cloud computing are in focus of research for quite some time. However, not many concrete mitigation methods have been developed and even less have been adapted and concretely implemented by cloud providers. Thus, we recently conceptually proposed C 3 -Sched a CPU scheduling based approach to mitigate L2 cache covert-channels. Instead of flushing the cache on every context switch, we schedule trusted virtual machines to create noise which prevents potential covert-channels. Additionally, our approach aims on preserving performance by utilizing existing instead of artificial workload while reducing covert-channel related cache flushes to cases where not enough noise has been achieved. In this work we evaluate cache covert-channel mitigation and performance impact of our integration of C 3 -Sched in the XEN credit scheduler. Moreover, we compare it to naive solutions and more competitive approaches.
Quantification of astaxanthin in salmons by chemiluminescence and absorption after TLC separation
(2018)
Astaxanthin is a keto-carotenoid, belongs to the chemical class of terpenes and is a yellow lipid soluble compound. The compound is present in marine animals like salmons and crustacean. Its colour is due to conjugated double bonds and these double bonds are responsible for its antioxidant effect. Its antioxidant activity is ten times stronger than other carotenoids and nearly 500 fold stronger than vitamin-E. We present a new thin layer chromatography (TLC) method to measure astaxanthin on TLC-plates (Merck, 1.05554) in the visible absorption range as well as by using chemiluminescence. For separation a solvent mixture of cyclohexane and acetone (10 + 2.4, v/v) was used. The RF-value of astaxanthin is 0.14.The limit of detection in vis-absorption is 64 ng / band and the limit of quantification is 92 ng/band. In chemiluminescence the values are 90 ng / band and 115 ng/band. The method offers two independently working measurement modes on a single plate which increase the accuracy of the quantification.
In the 19th century Alexander von Humboldt explored the nature and was conceived a new vision of nature that still influences the way we understand the new world. Humboldt believed in the importance of accurate measurements and precise description of observations. His vision of nature included not only facts but also emotions.
Nowadays smart solutions will be developed by using computer technology, which will influence our relationship to nature, our handling of the complexity and diversity of nature itself and the technological influences on the society. Could we avoid a new form of “Colonialism”, when a network of super computers will create a smarter world?
Die Einbindung von Mini- und Mikro-BHKW in ein virtuelles Kleinkraftwerk (VKK) bietet vielfältige wirtschaftliche, Smart-Grids- und Klimaschutzpotentiale zur Unterstützung der "Wärmewende". Eine Einbindung solcher Anlagen ist bisher jedoch mit zumeist hohen Kosten verbunden, weshalb i.d.R. nur Anlagen in höheren Leistungsklassen (> 500 kWel) umgesetzt werden. Im Rahmen des Projekts mikroVKK wurde deshalb das Ziel verfolgt zu demonstriert und nachzuweisen, dass auch BHKW-Anlagen unter 100 kWel in ein virtuelles Kleinkraftwerk (VKK) wirtschaftlich einzubinden sind.
GridSystronic Energy (GSE) hat hierfür ein spezielles VKK-System (gs.system) entwickelt, welches im Rahmen des Projekts unter realen Bedingungen erprobt, weiterentwickelt und möglichst zur Marktreife gebracht wurde. Durch die Konfiguration des Systems - d.h. einfache Steuerboxen (gs.box) werden als Gateway für die Kommunikation vor Ort zur Anlagen- und Zähleranbindung verbaut, wohingegen die Berechnungen, Simulationen und Optimierung der Steuersignale auf dem zentralen gs.server erfolgt - lässt sich eine kostengünstige und skalierbare Lösung darstellen.
Zusammen mit zehn Stadtwerken als Praxispartner wurden unterschiedliche BHKW- Standorte identifiziert und auf deren technische Eignung und die Umsetzbarkeit neuer Geschäftsmodelle auf Basis einer intelligenten Steuerung analysiert. Für ausgewählte Objekte, wie z.B. Schulen, Wärmenetze, Mehrfamiliengebäude, wurde durch GSE eine Anbindung der für die Regelung notwendigen Geräte und Zähler realisiert. Regelwerke, wie z.B. "Lastprofil folgen", als Basis für neue Geschäftsmodelle wurden mit den Praxispartnern abgestimmt und entwickelt. Anhand der Erkenntnisse zu den Effekten der intelligenten Steuerung (z.B. Nutzung von möglichen Flexibilitäten, Stabilität des Systems, Verschiebung der Betriebszeiten, Änderung der Lieferquoten etc.) wurden neue Geschäftsmodelle detailliert analysiert und mit den Praxispartnern prototypisch umgesetzt. Die Evaluation zu den Smart-Grids-Potenzialen (Flexibilität, netzdienliche Einspeisung etc.) sowie die Potenziale zur Unterstützung des Klimaschutzes (CO2-Minderung) erfolgte anhand von gemessenen und simulierten Werten.
Während der Projektlaufzeit konnte die technische Anbindbarkeit von BHKW-Anlagen mit einer elektrischen Leistung bis 100 kWel demonstriert werden. Die Vorarbeiten für die Erarbeitung einer standardisierten und kostengünstigen Anbindungslösung war jedoch sehr viel zeitintensiver als ursprünglich geplant, weshalb die Anlagen verspätet oder z.T. gar nicht angebunden werden konnten. Wegen der geringen Datenbasis konnten die grundsätzlichen wirtschaftlichen Potenziale einer VKK Steuerung deshalb nur auf theoretischer Basis nachgewiesen werden. Die Anbindungs- und Integrationskosten hängen stark von den örtlichen Gegebenheiten ab, weshalb es hierfür keine pauschale Aussage getroffen werden kann. Durch die gewonnenen Erfahrungen und Lernprozesse konnte jedoch im Laufe des Projektes bereits eine erhebliche Kostenreduktion erzielt werden. Auch bei Neuanlagen, bei denen die Anbindung bereits vorab eingeplant werden kann, können die Kosten der Anbindung stark reduziert werden. Die Smart-Grid-Potenziale und die Klimaschutzpotenziale eines VKK-Einsatzes wurden von der Hochschule Offenburg ebenfalls auf einer theoretischen Basis ermittelt. In einem nächsten Schritt wäre es deshalb notwendig zu analysieren, ob sich die ermittelten Effekte auch unter realen Bedingungen einstellen.
The growing demand for active medical implantable devices requires data and or power links between the implant and the outside world. Every implant has to be encapsulated from the body by a specific housing and one of the most common materials used is titanium or titanium alloy. Titanium thas the necessary properties in terms of mechanical and chemical stability and biocompatibility. However, its electrical conductivity presents a challenge for the electromagnetic transmission of data and power. The proposed paper presents a fast and practical method to determine the necessary transmission parameters for titanium encapsulated implants. Therefore, the basic transformer-transmission-model is used with measured or calculated key values for the inductances. Those are then expanded with correction factors to determine the behavior with the encapsulation. The correction factors are extracted from finite element method simulations. These also enable the analysis of the magnetic field distribution inside of the housing. The simulated transmission properties are very close to the measured values. Additionally, based on lumped elements and magnetic field distribution, the influential parameters are discussed in the paper. The parameter discussion describes how to enhance the transmitted power, data-rate or distance, or to reduce the size of the necessary coils. Finally, an example application demonstrates the usage of the methods.
To this date, it is difficult to find high-level statistics on YouTube that paint a fair picture of the platform in its entirety. This study attempts to provide an overall characterization of YouTube, based on a random sample of channel and video data, by showing how video provision and consumption evolved over the course of the past 10 years. It demonstrates stark contrasts between video genres in terms of channels, uploads and views, and that a vast majority of on average 85% of all views goes to a small minority of 3% of all channels. The analytical results give evidence that older channels have a significantly higher probability to garner a large viewership, but also show that there has always been a small chance for young channels to become successful quickly, depending on whether they choose their genre wisely.
In this paper, we present a frame synchronization method which consists of the non-orthogonal superposition of a synchronization sequence and the data. We derive the optimum detection criterion and compare it to the classical sequential concatenation of synchronization and data sequences. Computer simulations confirm the benefits of the non-orthogonal allocation for the case of short frames, which makes this technique particularly suited for the increasingly important regime of low latency and ultra- reliable communication.
Hintergrund: Richtung und Stärke des elektrischen Feldes (E-Feld) der biventrikulären (BV) Stimulation und elektrische interventrikuläre Desynchronisation sind bei Patienten mit Herzinsuffizienz und verbreitertem QRS Komplex von Bedeutung für den Erfolg der kardialen Resynchronisationstherapie (CRT). Das 3D Herzrhythmusmodell (HRM) ermöglicht die
Simulation von CRT und Hochfrequenz (HF) Ablation. Das Ziel der Studie besteht in der Integration von Schrittmacher- und Ablationselektroden in das HRM zur E-Feld Simulation der BV Stimulation und thermischen Feld (T-Feld) Simulation der HF Ablation von Vorhofflimmern (AF).
Methoden: Es wurden fünf multipolare linksventrikuläre (LV) Elektroden, eine epikardiale LV Elektrode, vier bipolare rechtsatriale (RA) Elektroden, zwei rechtsventrikuläre (RV) Elektroden und ein HF Ablationskatheter mit CST (Computer Simulation Technology, Darmstadt) modelliert und das HRM (Schalk et al: Clin Res Cardiol 106, Suppl 1, April 2017, P1812) um den Koronarvenensinus (CS) erweitert (HRM-CS). E-Feld Simulationen bei vorhofsynchroner BV Stimulation und bei RA Stimulation mit RV und LV Ableitung erfolgten mit den Elektroden Select Secure 3830, Capsure VDD-2 5038 und Attain OTW 4194 im HRM+CS (Fig.). F-Feld Simulationen der HF Ablation von AF bei CRT wurden mit integriertem Ablationskatheter AlCath G FullCircle (Biotronik) simuliert.
Ergebnisse: HRM-CS ermöglichte 3D E-Feld Simulationen bei vorhofsynchroner bipolarer BV Stimulation und bei bipolarer RA Stimulation mit bipolarer RV und LV Ableitung. RV und LV Stimulation erfolgten zeitgleich bei einer Amplitude von 3 V an der LV Elektrode und 1 V an der RV Elektrode mit einer Impulsbreite von jeweils 0,5 ms. Die von der BV Stimulationen erzeugten Fernpotentiale konnten von der RA Elektrode wahrgenommen werden. Das Fernpotential an der RA Elektrodenspitze betrug 32,86 mV und in 1 mm Abstand von der RA Elektrodenspitze ergab sich ein Fernpotential von 185,97 mV. HRM-CS ermöglichte 3D T-Feld Simulationen der HF Ablation von AF bei CRT. Das T-Feld bei HF Ablation des AV-Knotens wurde mit einer anliegenden Leistung von 5 W bei 420 kHz an der distalen 8 mm Ablationselektrode simuliert. Die Temperatur an der Katheterspitze betrug nach 5 s Ablationsdauer 88,66 °C, in 1 mm Abstand von der Katheterspitze im Myokard 42,17 °C und in 2 mm Abstand 37,49 °C.
Schlussfolgerungen: HRM-CS und Elektrodenmodelle ermöglichen die 3D Simulationen von E-Feldern bei vorhofsynchroner BV Stimulation, RA Stimulation mit RV und LV Wahrnehmung und von T-Feldern bei HF Ablation. E-Feld Simulationen von RA, RV und LV Stimulation und Sensing können möglicherweise zur Vorhersage von CRT Respondern genutzt werden.
Kreditsicherungsrecht
(2018)
Das Standardlehrbuch zum internationalen Steuerrecht
Kenntnisse im internationalen Steuerrecht werden in der steuerlichen Ausbildung immer wichtiger. Mit dem „Wilke“ sichern Sie sich einen umfassenden und fundierten Einstieg in diese komplexe Materie.
Leicht verständlich und anschaulich vermittelt dieses Standardlehrbuch Ihnen alle relevanten Grundlagen des internationalen Steuerrechts. Der Aufbau des Buchs orientiert sich dabei sowohl an den Bedürfnissen der Ausbildung als auch denen der Praxis. Als idealer Begleiter unterstützt es Sie in jeder Phase Ihrer beruflichen Entwicklung – von den ersten Schritten in der Steuerberater-Ausbildung bis hin zur erfolgreich abgeschlossenen Weiterbildung zum Fachberater für Internationales Steuerrecht.
Die 14. Auflage berücksichtigt die Entwicklung auf dem Gebiet des internationalen Steuerrechts in Gesetzgebung, Rechtsprechung, Literatur und Verwaltung bis Ende Oktober 2018.
Rechtsstand: 1.11.2018
This paper deals with the detection and segmentation of clouds on high-dynamic-range (HDR) images of the sky as well as the calculation of the position of the sun at any time of the year. In order to predict the movement of clouds and the radiation of the sun for a short period of time, the clouds thickness and position have to be known as precisely as possible. Consequently, the segmentation algorithm has to provide satisfactory results regardless of different weather, illumination and climatic conditions. The principle of the segmentation is based on the classification of each pixel as a cloud or as a sky. This classification is usually based on threshold methods, since these are relatively fast to implement and show a low computational burden. In order to predict if and when the sun will be covered by clouds, the position of the sun on the images has to be determined. For this purpose, the zenith and azimuth angles of the sun are determined and converted into XY coordinates.
Solar irradiance prediction is vital for the power management and the cost reduction when integrating solar energy. The study is towards a ground image based solar irradiance prediction which is highly dependent on the cloud coverage. The sky images are collected by using ground based sky imager (fisheye lens). In this work, different algorithms for cloud detection being a preparation step for their segmentation are compared.
The fisheye camera has been widely studied in the field of ground based sky imagery and robot vision since it can capture a wide view of the scene at one time. However, serious image distortion is a major drawback hindering its wider use. To remedy this, this paperproposes a lens calibration and distortion correction method for detecting clouds and forecasting solar radiation. Finally, the radial distortion of the fisheye image can be corrected by incorporating the estimated calibration parameters. Experimental results validate the effectiveness of the proposed method.
Membrane distillation (MD) is a thermal separation process which possesses a hydrophobic, microporous
membrane as vapor space. A high potential application for MD is the concentration of hypersaline brines, such as
e.g. reverse osmosis retentate or other saline effluents to be concentrated to a near saturation level with a Zero
Liquid Discharge process chain. In order to further commercialize MD for these target applications, adapted MD
module designs are required along with strategies for the mitigation of membrane wetting phenomena. This
work presents the experimental results of pilot operation with an adapted Air Gap Membrane Distillation
(AGMD) module for hypersaline brine concentration within a range of 0–240 g NaCl /kg solution. Key performance
indicators such as flux, GOR and thermal efficiency are analyzed. A new strategy for wetting mitigation
by active draining of the air gap channel by low pressure air blowing is tested and analyzed. Only small reductions
in flux and GOR of 1.2% and 4.1% respectively, are caused by air sparging into the air gap channel.
Wetting phenomena are significantly reduced by avoiding stagnant distillate in the air gap making the air blower
a seemingly worth- while additional system component.
Techno-economic comparison of membrane distillation and MVC in a zero liquid discharge application
(2018)
Membrane distillation (MD) is a thermally driven membrane process for the separation of vapour from a liquid stream through a hydrophobic, microporous membrane. However, a commercial breakthrough on a large scale has not been achieved so far. Specific developments on MD technology are required to adapt the technology for applications in which its properties can potentially outshine state of the art technologies such as standard evaporation. In order to drive these developments in a focused manner, firstly it must be shown that MD can be economically attractive in comparison to state of the art systems. Thus, this work presents a technological design and economic analysis for AGMD and v-AGMD for application in a zero liquid discharge (ZLD) process chain and compares it to the costs of mechanical vapour compression (MVC) for the same application. The results show that MD can potentially be ~40% more cost effective than MVC for a system capacity of 100 m3/day feed water, and up to ~75% more cost effective if the MD is driven with free waste heat.
Qualität hat einen genauen Wert - Wie Qualitätsentscheidungen an Ihrem Wertbeitrag gemessen werden
(2018)
Qualität hat ihren Preis, doch ihr Nutzen wird meist qualitativ begründet. Unternehmen stehen daher vor der Herausforderung, den Nutzen oder Wert von Qualität anhand bestimmter Parameter zu bewerten. Ein Modell zur Wertbeitragsrechnung von Qualitätsmaßnahmen wurde an der Hochschule Offenburg entwickelt und bei Trumpf in der Praxis getestet.
Die Erstellung und der Einsatz digitaler Medien basieren häufig auf der Annahme eines idealtypischen Lernprozesses, welcher die effektive Erarbeitung von Inhalten unter Berücksichtigung individueller Vorkenntnisse und Lebensumstände ermöglicht. Erfahrungen Lehrender legen jedoch die Vermutung nahe, dass Studierende selten ein idealtypisches Lernverhalten an den Tag legen. Für den Beitrag „Nutzungsmuster bei digitalen Medien“ wurden Forschungsarbeiten zu digitalen instruktionalen Medien gezielt ausgewertet, um die tatsächlichen Verhaltensweisen beim Lernen und die hiermit verbundenen Wirkungen aufzuzeigen. Aufbauend auf den Erkenntnissen soll eine Diskussion um mögliche Folgerungen für die Lehre angeregt werden.
Die Hersteller von Cochlea-Implantat (CI)-Systemen sehen für klinische Audiologen die Möglichkeit vor, die Mikrofonleistung der meisten aktuellen CI-Sprachprozessoren mittels anschließbarer Monitorkopfhörer zu prüfen. Nähere Angaben dazu, nach welchem Prozedere diese Prüfung stattfinden soll, z. B. welche Stimuli mit welchen Pegeln verwendet werden sollen, sind nach Wissen der Autoren seitens der CI-Hersteller nicht verfügbar. Auf der Basis dieser subjektiven Prüfung entscheidet dann der Audiologe, ob der betreffende Sprachprozessor an den Hersteller eingeschickt wird oder nicht. Wir haben eine Messbox entwickelt, mit der die Mikrofonleistung aller abhörbaren CI-Sprachprozessoren der Hersteller Advanced Bionics, Cochlear und MED-EL objektiv geprüft werden kann. Die Box wurde im 3-D-Druckverfahren hergestellt. Der zu prüfende Sprachprozessor wird in die Messbox eingehängt und über einen verbauten Lautsprecher mit definierten Prüfsignalen (Sinustönen unterschiedlicher Frequenz) beschallt. Das Signal des Mikronfons bzw. der Mikrofone wird über das in der Audio-/Abhörbuchse des Prozessors eingesteckte Kabel der Monitorkopfhörer herausgeführt und mit einer Shifting and Scaling-Schaltung in einen Spannungsbereich transformiert, der für die A/D-Wandlung mit einem Mikrokontroller (ATmega1280 verbaut auf einem Arduino Mega) geeignet ist. Derselbe Mikrokontroller übernimmt über einen eigens gebauten D/AWandler die Ausgabe der Prüfsignale über den Lautsprecher. Signalaufnahme und –wiedergabe erfolgt jeweils mit einer Samplingrate von 38,5 kHz. Der frequenzspezifische Effektivwert des abgegriffenen Mikrofonsignals wird mit einem Referenzwert verglichen. Die (frequenzspezifischen) Referenzwerte wurden mit einem neuwertigen Sprachprozessor gleichen Typs ermittelt und im Speicher des Mikrokontrollers abgelegt. Das Ergebnis wird nach Abschluss der Messung grafisch auf einem Touchscreen ausgegeben. Derzeit läuft eine erste Datenerhebung mit in der Klinik subjektiv auffällig gewordenen CI-Sprachprozessoren, die anschließend in der Messbox untersucht werden. Längerfristiges Ziel ist es, die hit und false alarm Raten der subjektiven Prüfung zu ermitteln.
Empirische Untersuchung zu der Profilierungswirkung von Markenartikeln und Handelsmarken auf die Betriebstypenmarke Aldi Süd.
Die Ergebnisse der vorliegenden Studie machen deutlich, dass sich die Aufnahme von starken Markenartikeln profilbildend für die Betriebstypenmarke Aldi Süd auswirkt. Sowohl das Gesamtimage als auch das Qualitätsimage der Betriebstypenmarke werden durch die geführten Handelsmarken positiv beeinflusst. Entsprechend lässt sich konstatieren, dass die Aufnahme von Herstellermarken die Trading up Strategie von Aldi Süd positiv unterstützt.
Ladengestaltungen spielen im Rahmen des Branding-Dreiecks von Betriebstypenmarken für die formale Differenzierung eine bedeutende Rolle. Die empirischen Ergebnisse der beiden Untersuchungen zur Differenzierungsleistung der Einkaufsstättengestaltung zeigen, dass bestehende Konzepte überwiegend als austauschbar wahrgenommen werden. Dabei gibt es sowohl im Modehandel als auch bei den Baumärkten je eine positive Ausnahme hinsichtlich ihrer Differenzierungsleistung. Obi erreicht mit seiner konsequent am Corporate Design ausgerichteten Gestaltung seiner Läden eine herausragende Trefferquote bei gleichzeitiger positiver Beurteilung der Einkaufsstätte. Hollister gelingt dies als einzigem un-tersuchten Modeanbieter mit einer Trefferquote von über 50 % ebenfalls.
Um das Ziel einer positiven Profilierung einer Betriebstypenmarke mit Hilfe von Eigenmarken des Handels zu erreichen, bedarf es der richtigen Strategie der Anbindung der Handelsmarke an die Betriebstypenmarke. Der vorliegende Beitrag hat aufgezeigt, dass in erster Linie die Branded House sowie die Subbrands Strategien in der Lage sind, die Voraussetzungen für eine Profilierung der Betriebstypenmarke über entsprechende Transfervoraussetzungen zu schaffen. Außerdem weisen diese Alternativen den großen Vorteil auf, kommunikative Synergien zwischen Betriebstypenmarke und Handelsmarke zu schaffen, was der Zielsetzung der Handelsunternehmen nach Verbesserung der Ertragslage entgegenkommt.
Der Beitrag untersucht die Unterschiede hinsichtlich der Ursachen für das Commitment zum Arbeitgeber zwischen Burnout-Gefährdeten und Nicht-Burnout-Gefährdeten auf der Basis einer repräsentativen Studie mit 2.400 sozialversicherungspflichtig Beschäftigten in einem Alter zwischen 18 und 69 Jahren in Deutschland. Aufbauend auf den Ergebnissen der Studie werden Empfehlungen für wirksame Maßnahmen zur Verbesserung des organisationalen Commitments und gleichzeitig zur Reduktion des Burnout-Risikos gegeben.
Ein zusammenfassender Vergleich der Profilierungseignung von Hersteller- und Handelsmarken auf der Grundlage aller untersuchten Marken ergibt die folgenden Tendenzaussagen:
Herstellermarken weisen hinsichtlich der Wirkung auf das Gesamtimage der Betriebstypenmarke die bessere Profilierungswirkung auf als Handelsmarken.
Auch für die Qualitätsprofilierung von Betriebstypenmarken im Lebensmitteleinzelhandel sind Herstellermarken besser geeignet als Handelsmarken.
Zur Preisgünstigkeitsprofilierung von Betriebstypenmarken eignen sich Handelsmarken tendenziell eher als Herstellermarken.
Die Preis-Leistungs-Profilierung gelingt tendenziell besser durch Handelsmarken als durch Herstellermarken.
Grundzüge der Strömungslehre
(2018)
Dieses ausgereifte Lehrbuch bringt in prägnant kurzer und mathematisch verständlicher Darstellung die strömungstechnischen Grundlagen. In der aktuellen Auflage wurde ein Abschnitt zu Dissipation und Viskosen Potentialströmungen ergänzt. Aufgaben mit Lösungen helfen den Lernstoff richtig anzuwenden und fördern das Verständnis.
Im Rahmen der Konstruktionsausbildung an der Hochschule Offenburg wird die Lehre im Fach Technische Dokumentation fortlaufend optimiert. In der vorliegenden Laborstudie wurde das visuelle Wahrnehmen von 34 Maschinenbaustudierenden (2w + 32m) im Alter von 19 bis 29 Jahren mithilfe der Eye-Tracking-Technik und einer Videokamera bei der Analyse einer Baugruppenzeichnung beobachtet.
Wurzeln, Werte und Visionen
(2018)
Cardiac resynchronization therapy (CRT) with hemodynamic optimized biventricular pacing is an established therapy for heart failure patients with sinus rhythm, reduced left ventricular ejection fraction and wide QRS complex. The aim of the study was to evaluate electrical right and left cardiac atrioventricular delay and left atrial delay in CRT responder and non-responder with sinus rhythm.
Methods: Heart failure patients with New York Heart Association class 3.0 ± 0.3, sinus rhythm and 27.7 ± 6.1% left ventricular ejection fraction were measured by surface ECG and transesophageal bipolar left atrial and left ventricular ECG before implantation of CRT devices. Electrical right cardiac atrioventricular delay was measured between onset of P wave and onset of QRS complex in the surface ECG, left cardiac atrioventricular delay between onset of left atrial signal and onset of left ventricular signal in the transesophageal ECG and left atrial delay between onset and offset of left atrial signal in the transesophageal ECG.
Results: Electrical atrioventricular and left atrial delay were 196.9 ± 38.7 ms right and 194.5 ± 44.9 ms left cardiac atrioventricular delay, and 47.7 ± 13.9 ms left atrial delay. There were positive correlation between right and left cardiac atrioventricular delay (r = 0.803 P < 0.001) and negative correlation between left atrial delay and left ventricular ejection fraction (r = −0.694 P = 0.026) with 67% CRT responder.
Conclusions: Transesophageal electrical left cardiac atrioventricular delay and left atrial delay may be useful preoperative atrial desynchronization parameters to improve CRT optimization.
Targeting complex fractionated atrial electrocardiograms by automated algorithms during ablation of persistent atrial fibrillation has produced conflicting outcomes in previous electrophysiological studies and catheter ablation of atrial fibrillation and ventricular tachycardia. The aim of the investigation was to evaluate atrial and ventricular high frequency fractionated electrical signals with signal averaging technique.
Methods: Signal averaging electrocardigraphy allows high resolution ECG technique to eliminate interference noise signals in the recorded ECG. The algorithm use automatic ECG trigger function for signal averaged transthoracic, transesophageal and intra-cardiac ECG signals with novel LabVIEW software.
Results: The analysis in the time domain evaluated fractionated atrial signals at the end of the signal averaged P-wave and fractionated ventricular signals at the end of the QRS complex. We evaluated atrial flutter in the time domain with two-to-one atrioventricular conduction, 212.0 ± 4.1 ms atrial cycle length, 426.0 ± 8.2 ms ventricular cycle length, 58.2 ± 1.8 ms P-wave duration, 119.6 ± 6.4 ms PQ duration, 103.0 ± 2.4 ms QRS duration and 296.4 ± 6.8 ms QT duration. The analysis in the frequency domain evaluated high frequency fractionated atrial signals during the P-wave and high frequency fractionated ventricular signals during QRS complex.
Conclusions: Spectral analysis of signal averaging electrocardiography with novel LabVIEW software can be utilized to evaluate atrial and ventricular conduction delays in patients with atrial fibrillation and ventricular tachycardia. Complex fractionated atrial and ventricular electrocardiograms may be useful parameters to evaluate electrical cardiac bradycardia and tachycardia signals in atrial fibrillation and ventricular tachycardia ablation.
We present a planar chromatographic separation method for the phytoestrogenic active compound equol, separated on RP-18 W (Merck, 1.14296) phase. It could be shown that an ethanolic cattle manure extract contains this phytoestrogenic active compound to a larger amount. As solvents for the mobile phase, hexane, ethyl acetate, and acetone (45:15:10, v/v); acetone and water (15:10, v/v); and n-hexane, CH2Cl2, ethyl acetate, methanol, and formic acid (40:40:20:5:1, v/v) have been used. After separation, a modified yeast estrogen screen (YES) test was applied, using the yeast strain Saccharomyces cerevisiae BJ3505 containing an estrogen receptor. Its activation by equol induces the reporter gene lacZ which encodes the enzyme β-galactosidase. The enzyme activity is measured directly on the TLC plate by using the substrate MUG (4-methylumbelliferyl-β-d-galactopyranoside) or the substrate X-β-Gal (5-bromo-4-chloro-3-indoxyl-β-d-galactopyranoside). β-Galactosidase cleaves MUG into a fluorescing compound. X-β- Gal is also hydrolyzed and then oxidized by oxygen forming the deep-blue dye 5,5′-dibromo-4,4′-dichloro-indigo. Both reactions in combination with a thin-layer chromatography (TLC) separation allow very specific detecting of equol in cattle manure, although that is a very challenging matrix. Preliminary results show that the average content of equol in liquid manure is roughly 60 μg g−1. The value for urine is 50 μg mL−1.
A Validated Quantification of Sudan Red Dyes in Spicery using TLC and a 16-bit Flatbed Scanner
(2018)
We present a video-densitometric quantification method for Sudan red dyes in spices and spice mixtures, separated by TLC. Application was done band-wise in small dots using a 5 μL glass pipette. For separation, the RP-18 plates (20 × 20 cm with fluorescent dye; Merck, Germany, 1.05559) were developed in a vertical developing chamber without vapor saturation from the starting point to a distance of 70 mm by using acetonitrile, methanol, and aqueous ammonia solution (25%; 8 + 1.8 + 0.2, v/v) as mobile phase. The quantification is based on direct measurements using an inexpensive 16-bit flatbed scanner for color measurements (in red, green, and blue). Evaluation of only the green channel makes the measurements very specific. For linearization, an extended Kubelka-Munk expression for data transformation was used. The range of linearity covers more than two magnitudes and lies between 20 and 500 ng. The extraction from a 2 g sample with acetonitrile, evaporation, and reconstitution to 200 μL with methanol and the band-wise application (7 mm) of a 10 μL sample allows a statistically defined LOD of less than 500 ppb of Sudan red dyes. To perform the analysis, a separation chamber, RP-18 plates, 5 μL glass pipettes, and a 16-bit flatbed scanner for 105 € are needed; therefore, the separation method is inexpensive, fast, and reliable.
Dieser Beitrag stellt die Möglichkeiten des 3D-Druckes unter der Berücksichtigung von Mensch-Roboter-Kollaborations-Anforderungen dar. Dabei werden die Vorteile mit besonderem Fokus auf die zusätzliche Gestaltungsfreiheit erläutert. Anhand von Beispielen wird der Stand der Technik bereits eingesetzter Sensorik sowie deren Notwendigkeit in Greifsystemen erläutert. Im weiteren Verlauf dieses Beitrags werden allgemeine Verfahren für die additive Verarbeitung von leitfähigen Materialien vorgestellt. Daran angeknüpft sind Beispiele speziell zur 3D-gedruckten Sensorik. Abgerundet wird der Beitrag mit einem Ausblick bezüglich 3D-gedruckter Sensorik in MRK-Greifsystemen.
Human-robot collaboration plays a strong role in industrial production processes. The ISO/TS 15066 defines four different methods of collaboration between humans and robots. So far, there was no robotic system available that incorporates all four collaboration methods at once. Especially for the speed and separation monitoring, there was no sensor system available that can easily be attached directly to an off-the-shelf industrial robot arm and that is capable of detecting obstacles in distances from a few millimeters up to five meters. This paper presented first results of using a 3D time-of-flight camera directly on an industrial robot arm for obstacle detection in human-robot collaboration. We attached a Visionary-T camera from SICK to the flange of a KUKA LBR iiwa 7 R800. With Matlab, we evaluated the pictures and found that it works very well for detecting obstacles in a distance range starting from 0.5 m and up to 5 m.
Wer sich mit der Fragestellung von Autonomie – verstanden im ursprünglichen Sinn von Selbständigkeit und Unabhängigkeit – im Zusammenhang mit Kreation und Gestaltung beschäftigt, merkt schnell, dass bei aller Modernität der heutigen Digitaltechniken ein uraltes Thema auftaucht: die grundsätzliche Abhängigkeit des schöpferischen Aktes von Technik und Material, von Handwerk und Produktionsbedingungen.
Wer sich mit Digitalisierungsbestrebungen an Schulen befasst, stellt fest, dass die Tragweite der intendierten Transformation von Bildungseinrichtungen zu automatisierten Lernfabriken durch Digitaltechnik nur von Wenigen realisiert wird. Viele Beteiligte (wollen) glauben, es ginge nur um eine bessere technische Ausstattung der Lehreinrichtungen zur Unterstützung der Lehrkräfte – und übersehen, dass mit Kybernetik und Behaviorismus zwei den Menschen determinierende Theorien eine Renaissance erleben. Vertreter dieser Disziplinen glauben daran, dass sowohl der einzelne Mensch wie ganze Gesellschaften oder Sozialgemeinschaften wie ein Maschinenpark programmiert und gesteuert werden könne. Dabei werden Lernprozesse zu Akten der systematischen Selbstentmündigung umdefiniert: die Zurichtung der Lernenden auf abfragbare Kompetenzen mit Hilfe von Algorithmen und Software.
SAP S/4HANA, das neue ERP-System der SAP SE, wird einem Funktionscheck im Bereich des Produktionscontrollings unterzogen. Ermittelte Anforderungen an die IT-Unterstützung eines modernen Produktionscontrolling-Konzeptes werden auf ihre Umsetzbarkeit mit SAP S/4HANA evaluiert und anschließend in einem realitätsnahen End-to-End-Szenario implementiert. Im aktuellen Release-Stand treten an mehreren Stellen noch funktionale Lücken auf, die nur über den Rückgriff auf Technologien und Oberflächen des Vorgängers SAP ECC geschlossen werden können.
In einer Vorlesung nicht abgehängt zu werden und die vielen Ergebnisse strukturiert zu sichern, ist für Studienanfänger eine große Herausforderung. Mitschriebe sind sehr oft unvollständig, unstrukturiert oder „zerfläddert“. Mitschreib-Marathon und Mitdenken schließen sich bei vielen aus. Auch aktivierende Lehrmethoden, Medienwechsel, Lehrvideos führen oft dazu, dass eine strukturierte Sicherung der Inhalte des Lehrgesprächs noch erschwert wird.
Es wird ein Best Practice Beispiel gezeigt, Mathematik-Vorlesungen über ein Tablet-basiertes Mitmach-Skript zu gestalten. Dieses dient als Schrittmacher zwischen Input- und Verarbeitungsphasen und unterstützt die strukturierte Verschriftlichung, indem es Vorteile von Tafel, PPT und klassischem Skript vereint. Traditionelle Methoden werden mit technologischen Möglichkeiten kombiniert, um die angesprochenen Herausforderungen bewusster im Lehrstil zu berücksichtigen. Verbindungen zu Virtual Classroom und Video-gestützter Lehre werden aufgezeigt.
We present the design of a system combining augmented reality (AR) and gamification to support elderly persons’ rehabilitation activities. The system is attached to the waist; it collects detailed movement data and at the same time augments the user’s path by projections. The projected AR-elements can provide location-based information or incite movement games. The collected data can be observed by therapists. Based on this data, the challenge level can be more frequently adapted, keeping up the patient’s motivation. The exercises can involve cognitive elements (for mild cognitive impairments), physiological elements (rehabilitation), or both. The overall vision is an individualized and gamified therapy. Thus, the system also offers application scenarios beyond rehabilitation in sports. In accordance with the methodology of design thinking, we present a first specification and a design vision based on inputs from business experts, gerontologists, physiologists, psychologists, game designers, cognitive scientists and computer scientists.
In this article, we present a taxonomy in Robot-Assisted Training; a growing body of research in Human–Robot Interaction which focuses on how robotic agents and devices can be used to enhance user’s performance during a cognitive or physical training task. Robot-Assisted Training systems have been successfully deployed to enhance the effects of a training session in various contexts, i.e., rehabilitation systems, educational environments, vocational settings, etc. The proposed taxonomy suggests a set of categories and parameters that can be used to characterize such systems, considering the current research trends and needs for the design, development and evaluation of Robot-Assisted Training systems. To this end, we review recent works and applications in Robot-Assisted Training systems, as well as related taxonomies in Human–Robot Interaction. The goal is to identify and discuss open challenges, highlighting the different aspects of a Robot-Assisted Training system, considering both robot perception and behavior control.
Brand identification has the potential of shaping individuals' attitudes, performance and commitment within learning and work contexts. We explore these effects, by incorporating elements of branded identification within gamified environments. We report a study with 44 employees, in which task performance and emotional outcomes are assessed in a real-world assembly scenario - namely, while performing a soldering task. Our results indicate that brand identification has a direct impact on individuals' attitude towards the task at hand: while instigating positive emotions, aversion and reactance also arise.
Dieser Artikel gibt einen Überblick der Möglichkeiten kontextbewusster Systeme und erläutert, wie diese die Autonomie zugleich erweitern und begrenzen können. Anwendungsbeispiele wie autonomes Fahren, Rehabilitation, industrielle Arbeit und Robotik zeigen die technischen Möglichkeiten auf. Neben der Erkennung von räumlichen Details werden auch die Potenziale der Erkennung von Emotionen beschrieben. Dabei wird zugunsten der Allgemeinverständlichkeit auf eine tiefe technische Detaillierung verzichtet, zugleich aber auf die jeweils relevante Forschungsliteratur verweisen.
Social robots are robots interacting with humans not only in collaborative settings, but also in personal settings like domestic services and healthcare. Some social robots simulate feelings (companions) while others just help lifting (assistants). However, they often incite both fascination and fear: what abilities should social robots have and what should remain exclusive to humans? We provide a historical background on the development of robots and related machines (1), discuss examples of social robots (2) and present an expert study on their desired future abilities and applications (3) conducted within the Forum of the European Active and Assisted Living Programme (AAL). The findings indicate that most technologies required for the social robots' emotion sensing are considered ready. For care robots, the experts approve health-related tasks like drawing blood while they prefer humans to do nursing tasks like washing. On a larger societal scale, the acceptance of social robots increases highly significantly with familiarity, making health robots and even military drones more acceptable than sex robots or child companion robots for childless couples. Accordingly, the acceptance of social robots seems to decrease with the level of face-to-face emotions involved.
Deafblindness is a condition that limits communication capabilities primarily to the haptic channel. In the EU-funded project SUITCEYES we design a system which allows haptic and thermal communication via soft interfaces and textiles. Based on user needs and informed by disability studies, we combine elements from smart textiles, sensors, semantic technologies, image processing, face and object recognition, machine learning, affective computing, and gamification. In this work, we present the underlying concepts and the overall design vision of the resulting assistive smart wearable.
Freiwillige Fachtutorien erreichen aus unterschiedlichen Gründen nicht alle Studierenden. Allein der subjektive Eindruck, dass zu wenige Ressourcen seitens der Hochschule (Übungsräume, studentische Tutoren, lückenlose Stundenplanpassung) oder der Studierenden (Zeit, Motivation) zur Verfügung stünden, führt zu Absenzen bei freiwilligen Präsenztutorien. Um die empfundenen und realen Begrenzungen dieser Veranstaltungen zu verringern, wurden für den Studiengang Maschinenbau die Musterlösungen der Übungsaufgaben Physik und Mathematik in Form von Videoclips erstellt und über die Lernplattform Moodle für alle Studierende des Semesters bereitgestellt. Die Clips beziehen sich jeweils auf eine Teilaufgabe und besitzen die Länge eines typischen Youtube-Tutorials. In etwa 5 Minuten bieten sie dem Zuschauer einen Lösungsweg zu den jeweiligen Übungsaufgaben. Die Studierenden können die Clips alternativ oder ergänzend zur Präsenzveranstaltung nutzen. Bei der Erstellung der Clips wurde auf den Einsatz von Spezialeffekten wie Animationen etc. zugunsten einer effizienten Produktion verzichtet, so dass eine einzelne Lehrperson pro Stunde etwa 10 bis 20 Minuten Videoclips aufzeichnen kann. Die Auswertung der Zugriffszahlen auf die Clip-Dateien ermöglicht eine aufgabengenaue Ermittlung der aktiven Nutzer. Im Betrag wird eine vorläufige Auswertung der Teilnehmerzahl und der Korrelation zwischen Klausurergebnis und Nutzungsgrad präsentiert.
Mediaplanung
(2018)
Die traditionellen Geschäftsmodelle der Medienbranche beruhen auf der Werbevermarktung von Spots, Anzeigen und Beilagen und teilweise einem direkten Erlösmodell für journalistische Inhalte durch Subscriber-Modelle/Abonnement bzw. Einzelverkaufserlöse. Diese Geschäftsmodelle verändern sich im Rahmen der digitalen Transformation und der damit verbundenen Medienkonvergenz zugunsten neuer nicht-journalistischer digitaler Geschäftsmodelle. Entscheidend ist eine Analyse der kompletten Geschäftsmodelle vor allem im Hinblick auf die Zielgruppen und den Nutzen der neuen Produkte, bevor der Teilaspekt der unterschiedlichen Erlösmodelle für crossmediale Medien aus der Perspektive der Medienunternehmen geklärt werden kann.
Die digitale Transformation als Vernetzung von Menschen, Organisationen, Maschinen, bis hin zu simplen Gegenständen des täglichen Lebens hat mehr oder weniger starke Auswirkungen auf alle Lebensbereiche. Künstliche Intelligenz und autonome technische Systeme haben direkte Auswirkungen auf die Autonomie des Einzelnen, was neue Fragen für Wissenschaft und Praxis aufwirft. In unterschiedlichen Beiträgen werden Autonomiegewinne und -verluste skizziert, die sich unter anderem im Bereich des Rechts, der Informations- und Kommunikationstechnologien, in Kunst und Gestaltung, bei Kundenbeziehungen, Kryptowährungen, Medieninhalten sowie im digitalen Arbeitsalltag feststellen lassen. Kritische Entwicklungen wie digitale Sorglosigkeit und Tools und Verfahren wie Projektmanagementsoftware oder predictive analytics gilt es dabei zu bewerten. Damit liefert dieser Band einen Überblick zum aktuellen Stand der Diskussion, zeigt Zusammenhänge auf und sensibilisiert für die Gestaltung des digitalen Wandels.
This paper describes the use of the single-linkage hierarchical clustering method in outlier detection for manufactured metal work pieces. The main goal of the study is to group defects that occur 5 mm into a work piece from the edge, i.e., the border of the metal work piece. The goal is to remove defects outside the area of interest as outliers. According to the assumptions made for the performance criteria, the single-linkage method has achieved better results compared to other agglomeration methods.
In public transportation, the motor pool often consists of various different vehicles bought over a duration of many years. Sometimes, they even differ within one batch bought at the same time. This poses a considerable challenge in the storage and allocation of spare parts, especially in the event of damage to a vehicle. Correctly assigning these parts before the vehicle reaches the workshop could significantly reduce both the downtime and, therefore, the actual costs for companies. In order to achieve this, the current software uses a simple probability calculation. To improve the performance, the data of specific companies was analysed, preprocessed and used with several modelling techniques to classify and, therefore, predict the spare parts to be used in the event of a faulty vehicle. We summarize our experience running through the steps of the Cross Industry Standard Process for Data Mining and compare the performance to the previously used probability. Gradient Boosting Trees turned out to be the best modeling technique for this special case.
Data Science gilt als eine der wichtigsten Entwicklungen der letzten
Jahre und viele Unternehmen sehen in Data Science die Möglichkeit,
ihre Daten zusätzlich wertschöpfend zu nutzen. Dabei kann es sich um
die Optimierung von Maintenance-Prozessen handeln, um eine bessere
Steuerung der eigenen Preis- und Lagerhaltungsstrategie oder auch
um völlig neue Services und Produkte, die durch Data Science möglich
werden. Die im Unternehmen vorliegenden Daten, an die so hohe Erwartungen
geknüpft wurden, sollen dazu genutzt werden, um Services
und Prozesse effizienter und passgenauer gestalten zu können. Vielfach
gilt Data Science dabei als Allheilmittel: Daten, die über Jahre hinweg
gesammelt wurden und mit zunehmender Geschwindigkeit und Heterogenität
anfallen, sollen endlich nutzbar gemacht werden. Zwar sind die
eingesetzten Techniken und Algorithmen teilweise schon zehn Jahre und
mehr alt, doch erst jetzt entfalten sie im Zusammenspiel mit Big Data
ihr Potenzial im Unternehmensumfeld. Die Erwartungen sind hoch, doch
der Weg zu den neuen Erkenntnissen ist mit hohem Aufwand verbunden
und wird von einigen Unternehmen noch immer unterschätzt.
Für Unternehmen mit einem traditionellen BI-Ansatz stellt Data Science
ein ergänzendes Set von Methoden und Werkzeugen dar, mit deren Hilfe
die Informationsversorgung der Entscheider auf den verschiedenen
hierarchischen Ebenen noch besser gestaltet werden kann. So zum Beispiel,
wenn man mit Data Science feststellt, dass die Wahrscheinlichkeit
für einen Versicherungsabschluss steigt, wenn bei der Auswahl der
anzusprechenden Kunden zusätzliche Daten herangezogen werden, die
zwar bereits vorliegen, aber noch nicht berücksichtigt worden sind. Im
Extremfall werden auch Entscheidungen vollständig automatisiert, die
bisher von Mitarbeiterinnen und Mitarbeitern getroffen wurden. Ein Algorithmus
legt dann fest, wann Ware nachbestellt oder welcher Preis für
den Endkunden festgesetzt wird.
Im vorliegenden E-Book soll ein Überblick über das Gebiet Data Science
gegeben werden. Dabei wird ein besonderes Augenmerk auf das Zusammenspiel
sowie das Mit- und Nebeneinander von Data Science und vorhandenen
BI-Systemen gelegt.
Hot work tools are subjected to complex thermal and mechanical loads during hot forming processes. Locally, the stresses can exceed the material’s yield strength in highly loaded areas as e.g. in small radii in die cavities. To sustain the high loads, the hot forming tools are typically made of martensitic hot work steels. While temperatures for annealing of the tool steels usually lie in the range between 400 and 600 °C, the steels may experience even higher temperatures during hot forming, resulting in softening of the material due to coarsening of strengthening particles. In this paper, a temperature dependent cyclic plasticity model for the martensitic hot work tool steel 1.2367 (X38CrMoV5-3) is presented that includes softening due to particle coarsening and that can be applied in finite-element calculations to assess the effect of softening on the thermomechanical fatigue life of hot work tools. To this end, a kinetic model for the evolution of the mean size of secondary carbides based on Ostwald ripening is coupled with a cyclic plasticity model with kinematic hardening. Mechanism-based relations are developed to describe the dependency of the mechanical properties on carbide size and temperature. The material properties of the mechanical and kinetic model are determined on the basis of tempering hardness curves as well as monotonic and cyclic tests.
In this paper, the temperature dependent cyclic mechanical properties of the martensitic hot work tool steel 1.2367 after tempering are investigated. To this end, hardness measurements as well as monotonic and cyclic tests at temperatures in the range from room temperature to 650 °C are performed on material tempered for different tempering times and temperatures. To describe the observed time and temperature dependent softening during tempering a kinetic model for the evolution of the mean size of secondary carbides based on Ostwald ripening is developed. Furthermore, mechanism-based as well as phenomenological relations for the cyclic mechanical properties of the Ramberg-Osgood model depending on carbide size and temperature are introduced. A good overall agreement of the measured and the calculated stress-strain hysteresis loops for different temperatures and heat treatments is obtained using the determined material properties of the kinetic and mechanical model.
In this paper the yield surface of a recently presented microstructure-based volume element of the gray cast iron material GJL-250 is assessed after different plastic loading histories. The evolution of the yield surface is investigated for different volumetric, deviatoric and uniaxial loadings. The micromechanical material properties of the metallic matrix and the graphite inclusions are validated by means experimental stress-strain hysteresis loops. The metallic matrix is modeled as elastic-plastic with a non-linear kinematic hardening law. The graphite inclusions are described by means of a volumetric strain state dependent Young’s modulus. The results show that the shape of the yield surface does not change significantly in comparison to the initial yield surface after pure deviatoric loadings. After volumetric loadings, the dependence of the material on the Lode angle is significantly reduced. Uniaxial tensile preloadings result in a deformed yield surface, whereby the magnitude of the deformation depends on the applied load. Uniaxial preloadings to compression do not change the shape of the initial yield surface.
Die Frage nach der Erforderlichkeit der Benennung eines Datenschutzbeauftragten wird derzeit oft gestellt. Der Beitrag gibt anhand einer Checkliste Leitlinien zu ihrer Beantwortung. Diese richtet sich seit dem 25.5.2018 bei nicht-öffentlichen Stellen (namentlich Unternehmen, aber auch Vereinen) nach Art. 37 DSGVO und § 38 BDSG n.F.
Die Frage nach der Erforderlichkeit der Benennung eines Datenschutzbeauftragten wird derzeit oft gestellt. Der Beitrag gibt anhand einer Checkliste Leitlinien zu ihrer Beantwortung. Diese richtet sich seit dem 25.5.2018 bei nicht-öffentlichen Stellen (namentlich Unternehmen, aber auch Vereinen) nach Art. 37 DSGVO und § 38 BDSG n.F.
BGH "Preisportal"
(2018)
LG Frankfurt/M. "Hooligan"
(2018)
LG München I "Lieferfrist"
(2018)
BGH "Mehrere Werbekanäle"
(2018)