Refine
Year of publication
Document Type
- Conference Proceeding (1184)
- Article (reviewed) (679)
- Article (unreviewed) (566)
- Part of a Book (460)
- Contribution to a Periodical (287)
- Book (227)
- Other (139)
- Working Paper (105)
- Patent (98)
- Report (76)
Conference Type
- Konferenzartikel (945)
- Konferenz-Abstract (156)
- Sonstiges (42)
- Konferenz-Poster (32)
- Konferenzband (13)
Language
- German (2071)
- English (1857)
- Other language (5)
- Russian (3)
- Multiple languages (2)
- French (1)
- Spanish (1)
Is part of the Bibliography
- yes (3940) (remove)
Keywords
- Digitalisierung (41)
- RoboCup (32)
- Dünnschichtchromatographie (28)
- Social Media (24)
- COVID-19 (23)
- Kommunikation (23)
- Arbeitszeugnis (22)
- Energieversorgung (22)
- E-Learning (21)
- Export (21)
Institute
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (945)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (808)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (779)
- Fakultät Wirtschaft (W) (617)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (464)
- INES - Institut für nachhaltige Energiesysteme (239)
- Fakultät Medien (M) (ab 22.04.2021) (219)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (155)
- Zentrale Einrichtungen (81)
- IMLA - Institute for Machine Learning and Analytics (79)
Open Access
- Open Access (1464)
- Closed Access (1245)
- Closed (528)
- Bronze (285)
- Diamond (76)
- Gold (76)
- Hybrid (50)
- Grün (16)
Die vorliegende Erfindung betrifft ein Verfahren zum digitalen Drucken einer Keramikfarbe auf einem Substrat, wobei die Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik mittels eines Laserstrahls simultan zu dem Aufbringen der Keramikfarbe auf ein Substrat mittels eines Druckkopfes erwärmt wird. Weiterhin betrifft die vorliegende Erfindung auch die Verwendung eines Laserstrahls in einer Vorrichtung zum digitalen Drucken einer Keramikfarbe auf einem Substrat, wobei der Laserstrahl die Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik simultan zu dem Aufbringen der Keramikfarbe auf ein Substrat mittels eines Druckkopfes der Vorrichtung erwärmt. Die vorliegende Erfindung betrifft weiterhin auch eine Vorrichtung zum digitalen Drucken einer Keramikfarbe auf einem Substrat, die einen Druckkopf zum Aufbringen einer Keramikfarbe auf ein Substrat sowie einen Laser zum Erwärmen der Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik mittels eines Laserstrahls umfasst.
Die vorliegende Erfindung betrifft ein Verfahren zum Pulverlackieren eines Kunststoff- oder Glasgegenstandes, umfassend die Schritte des Ausbildens einer polaren Beschichtung auf dem Kunststoff- oder Glasgegenstand, umfassend den Teilschritt des Aufbringens einer Beschichtungszusammensetzung auf den Kunststoff- oder Glasgegenstand, wobei die Beschichtungszusammensetzung ein Organosiloxan, das mindestens zwei Si-O-Bindungen aufweist, Wasser, ein organisches Lösemittel und ein pH-regulierendes Mittel, ausgewählt aus einer Brönsted-Säure, in einer katalytischen Menge enthält, mit der Maßgabe, dass die Beschichtungszusammensetzung keinen elektrisch leitfähigen Zusatz, ausgewählt aus ionischen Verbindungen, Metallen, Metall(misch)oxiden, intermetallischen Verbindungen und leitfähigem Kohlenstoff, enthält, sowie die Schritte des Aufbringens eines Pulverlacks auf den derartig beschichteten Kunststoff- oder Glasgegenstand und des Erwärmens des Pulverlacks.
Am Buffet des Lebens
(2017)
Im vorliegenden Beitrag wird ein Strommarktsimulationsmodell entwickelt, mit dessen Hilfe die Bereitstellung von Flexibilität auf dem Strom- und Regelleistungsmarkt in Deutschland modell-gestützt analysiert werden soll. Das Modell bildet dabei zwei parallel verlaufende, zentrale Wettbewerbsmärkte ab, an denen Akteure durch die individuelle Gebotsermittlung handeln können. Die entsprechend hierzu entwickelte Gebotslogik wird detailliert erläutert, wobei der Fokus auf der Flexibilität fossil-thermischer Kraftwerke liegt. In der anschließenden Gegen-überstellung mit realen Marktpreisen zeigt sich, dass die verwendete Methodik und die Ge-botslogik den bestehenden Markt und dessen Marktergebnis in geeigneter Form wiederspie-geln, wodurch zukünftig unterschiedlichste Flexibilitätsszenarien analysiert und Aussagen zu deren Auswirkungen auf den Markt und seine Akteure getroffen werden können.
Das Thema des Forschungsprojekts ist Digitaltechnik im Spannungsfeld von Freiheitsversprechen und Totalüberwachung. Das Projekt „futur iii“ ist nicht nur der Name, sondern zugleich der Logo und URL für Publikationen.
Dieses Projekt wird im intensiven Dialog und z.T. in Kooperationen mit Kolleginnen und Kollegen verschiedener Hochschulen und Bildungseinrichtungen realisiert. Das übergreifende Thema ist bereits seit dem letzten Forschungssemester 2010 die Veränderung des Web durch Kommerzialisierung und Monopolisierung sowie die kritisch-reflektierende Auseinandersetzung mit Digitaltechnik bzw. Geräten und Diensten unter besonderer Berücksichtigung der konkreten Technikfolgeabschätzung (TA) für den Einsatz digitaler Bildschirmmedien und -dienste im Kontext von Lehre und Lernen.
Kinder am Bildschirm
(2017)
Wenn in Studien über digitale Medien und Kinder berichtet wird, liegt der Fokus meist darauf, Kinder „fit für die digitale Zukunft“ zu machen. Welche Folgen eine zu frühe und nicht regulierte Nutzung von Bildschirmmedien bei Kindern und Jugendlichen haben kann, zeigt sich in den Praxen der Kinderärzte. Das Spektrum der zu behandelnden Erkrankungen und der Beratungsbedarf bei psychosozialen Problemen haben sich in den letzten Jahren grundlegend verändert, schreiben die Verantwortlichen der BLIKK-Studie.
Schriftliche Stellungnahme Lankau zu:
a) Dringlicher Antrag der Fraktion der FDP betreffend Hessen 4.0 – Agenda Digitales Hessen (Drucksache 19/4111)
b) Großen Anfrage der Abg. Eckert, Barth, Decker, Degen, Faeser, Frankenberger, Geis, Gremmels, Grüger, Lotz, Dr. Sommer, Weiß (SPD) und Fraktion betreffend Auswirkungen der Digitalisierung auf Arbeit und Wirtschaft in Hessen (Drucksache 19/2896) und
c) Antwort der Landesregierung auf die Große Anfrage der Abg. Eckert, Barth, Decker, Degen, Faeser, Frankenberger, Geis, Gremmels, Grüger, Lotz, Dr. Sommer, Weiß (SPD) und Fraktion betreffend Auswirkungen der Digitalisierung auf Arbeit und Wirtschaft in Hessen (Drucksache 19/4357)
Das könnte die Zukunft des Lernens sein: Ab 2036 werden Eltern einen virtuellen Lehrer bereits für ihre fünfjährigen Kinder abonnieren. Die Stimme des Computers wird uns durchs Leben begleiten, vom Kindergarten über Schule und Universität bis zur beruflichen Weiterbildung. Der Computer erkennt, was ein Schüler schon kann oder wo Nachholbedarf besteht. Wir werden uns als lernende Menschen neu erfinden … Solche und andere Dystopien über unser künftiges Leben und Lernen kann man etwa bei Fritz Breithaupt und seiner „Talking Method“ nachlesen. Doch: wollen wir so etwas?
Wenn man die Verlautbarungen aus dem Wissenschafts- und Kultusministerien verfolgt (oder den Beitrag von Saskia Esken in „Schule im Blickpunkt“ liest), scheint es für Bildungseinrichtungen nur noch ein Thema und nur noch ein Ziel zu geben: die Digitalisierung. Dabei reicht bereits die einfache Frage des „cui bono“ (wem nützt es), um zu zeigen: Die einzigen Nutznießer von Digitalagenda und Digitalpakt sind IT-Firmen – auf Kosten der Schülerinnen und Schüler, zu Lasten ihrer Selbständigkeit und damit ihrer Zukunftsperspektiven – und zum Schaden öffentlicher Bildungseinrichtungen.
Objectives: Speech recognition on the telephone poses a challenge for patients with cochlear implants (CIs) due to a reduced bandwidth of transmission. This trial evaluates a home-based auditory training with telephone-specific filtered speech material to improve sentence recognition. Design: Randomised controlled parallel double-blind. Setting: One tertiary referral centre. Participants: A total of 20 postlingually deafened patients with CIs. Main outcome measures: Primary outcome measure was sentence recognition assessed by a modified version of the Oldenburg Sentence Test filtered to the telephone bandwidth of 0.3-3.4 kHz. Additionally, pure tone thresholds, recognition of monosyllables and subjective hearing benefit were acquired at two separate visits before and after a home-based training period of 10-14 weeks. For training, patients received a CD with speech material, either unmodified for the unfiltered training group or filtered to the telephone bandwidth in the filtered group. Results: Patients in the unfiltered training group achieved an average sentence recognition score of 70.0%±13.6% (mean±SD) before and 73.6%±16.5% after training. Patients in the filtered training group achieved 70.7%±13.8% and 78.9%±7.0%, a statistically significant difference (P=.034, t10 =2.292; two-way RM ANOVA/Bonferroni). An increase in the recognition of monosyllabic words was noted in both groups. The subjective benefit was positive for filtered and negative for unfiltered training. Conclusions: Auditory training with specifically filtered speech material provided an improvement in sentence recognition on the telephone compared to training with unfiltered material.
The following contribution deals with the growth of cracks in low-cycle fatigue (LCF) and thermomechanical fatigue (TMF) tested specimens of Inconel 718 measured by using the replica method. The specimens are loaded with different strain rates. The material shows a significantly higher crack growth rate if the strain rate is decreased. Electron backscatter diffraction (EBSD) is adopted to identify the failure mechanism and the misorientation relationship of failed grain boundaries in secondary cracks. The analyzed cracks propagated mainly transgranular but also intergranular failure can be observed in some areas. It is found that grain boundaries with coincidence site lattice (CSL) boundary structure are generally less susceptible for intergranular failure than grain boundaries with random misorientation. For modeling the experimentally identified crack behavior an existing model for fatigue crack growth based on the mechanism of time dependent elastic–plastic crack tip blunting is enhanced to describe environmental effects based on the mechanism of oxygen diffusion at the crack tip. For the diffusion process the temperature dependent parabolic diffusion law is assumed. As a result, the time dependent cyclic crack tip opening displacement (DCTOD) is used as representative value to describe both mechanisms. Thus, most
of the included model parameters characterize the deformation behavior of the material and can be determined by independent material tests. With the determined material properties, the proposed model describes the experimentally measured crack growth curves very well. The model is validated based on predictions of the number of cycles to failure of LCF as well as in-phase and out-of-phase TMF tests in the temperature range between room temperature and 650 °C.
Cast iron materials are used as materials for cylinder heads for heavy duty internal combustion engines. These components must withstand severe cyclic mechanical and thermal loads throughout their service life. While high-cycle fatigue (HCF) is dominant for the material in the water jacket region, the combination of thermal transients with mechanical load cycles results in thermomechanical fatigue (TMF) of the material in the fire deck region, even including superimposed TMF and HCF loads. Increasing the efficiency of the engines directly leads to increasing combustion pressure and temperature and, thus, lower safety margins for the currently used cast iron materials or alternatively the need for superior cast iron materials. In this paper (Part I), the TMF properties of the lamellar graphite cast iron GJL250 and the vermicular graphite cast iron GJV450 are characterized in uniaxial tests and a mechanism-based model for TMF life prediction is developed for both materials. The model can be used to estimate the fatigue life of components by means of finite-element calculations (Part II of the paper) and supports engineers in finding the appropriate material and design. Furthermore, the effect of the elastic, plastic and creep properties of the materials on the fatigue life can be evaluated with the model. However, for a material selection also the thermophysical properties, controlling to a high level the thermal stresses in the component, must be considered. Hence, the need for integral concepts for material characterization and selection from a multitude of existing and soon-to-be developed cast iron materials is discussed.
The electrical field (E-field) of the biventricular (BV) stimulation is important for the success of cardiac resynchronization therapy (CRT) in patients with cardiac insufficiency and widened QRS complex.
The aim of the study was to model different pacing and ablation electrodes and to integrate them into a heart model for the static and dynamic simulation of BV stimulation and HF ablation in atrial fibrillation (AF).
The modeling and simulation was carried out using the electromagnetic simulation software CST. Five multipolar left ventricular (LV) electrodes, four bipolar right atrial (RA) electrodes, two right ventricular (RV) electrodes and one HF ablation catheter were modelled. A selection were integrated into the heart rhythm model (Schalk, Offenburg) for the electrical field simulation. The simulation of an AV node ablation at CRT was performed with RA, RV and LV electrodes and integrated ablation catheter with an 8 mm gold tip.
The BV stimulation were performed simultaneously at amplitude of 3 V at the LV electrode and 1 V at the RV electrode with a pulse width of 0.5 ms each. The far-field potential at the RA electrode tip was 32.86 mV and 185.97 mV at a distance of 1 mm from the RA electrode tip. AV node ablation was simulated with an applied power of 5 W at 420 kHz at the distal ablation electrode. The temperature at the catheter tip was 103.87 °C after 5 s ablation time and 37.61 °C at a distance of 2 mm inside the myocardium. After 15 s, the temperature was 118.42 °C and 42.13 °C.
Virtual heart and electrode models as well as the simulations of electrical fields and temperature profiles allow the static and dynamic simulation of atrial synchronous BV stimulation and HF ablation at AF and could be used to optimize the CRT and AF ablation.
Nachweise für die Stabilität von Regelkreisen, deren Stellgrößen an ihre Begrenzungen gelangen können und bei denen die Regler Integratoren oder andere dynamische Glieder sowie Anti-Windup-Maßnahmen enthalten, sind gewöhnlich sehr aufwändig zu führen. Bei PI-Zustandsreglern, die mittels der in [1] vorgestellten Methode in einem mehrstufigen Verfahren für Regelstrecken entworfen wurden, die bis auf die Stellgrößenbegrenzungen linear sind, lassen sich jedoch äußerst hilfreiche allgemeine Stabilitätsaussagen treffen, die den konkreten Stabilitätsnachweis für das Gesamtsystem– selbst unter Einbeziehung von Beobachtern – erheblich vereinfachen. Im vorliegenden Beitrag werden die diesbezüglichen, auf Steuerbarkeitsbetrachtungen beruhenden, Zusammenhänge für zeitdiskrete Regelkreise aufgezeigt sowie daraus exemplarisch mittels Ljapunow-Funktionen eine einfache Reglerformel für Zustandsregler abgeleitet, die auch im Begrenzungsfall stabil arbeiten. Ein Beispielaus der elektrischen Antriebstechnik illustriert die Anwendbarkeit der vorgestellten Methode.
A complete thermomechanical fatigue (TMF) life prediction methodology is developed for predicting the TMF life of cast iron cylinder heads for efficient heavy duty internal combustion engines. The methodology uses transient temperature fields as thermal loads for the non-linear structural finite-element analysis (FEA). To obtain reliable stress and strain histories in the FEA for cast iron materials, a time and temperature dependent plasticity model which accounts for viscous effects, non-linear kinematic hardening and tensioncompression asymmetry is required. For this purpose a unified elasto-viscoplastic Chaboche model coupled with damage is developed and implemented as a user material model (USERMAT) in the general purpose FEA program ANSYS. In addition, the mechanismbased DTMF model for TMF life prediction developed in Part I of the paper is extended to three-dimensional stress states under transient non-proportional loading conditions. The material properties of the plasticity model are determined for lamellar graphite cast iron GJL250 and vermicular graphite cast iron GJV450 from isothermal and non-isothermal uniaxial tests. The methodology is applied to obtain a TMF life prediction on two cast iron cylinder heads for heavy duty diesel engine applications made from both cast iron materials. It is shown that the life predictions using the developed methodology correlate very well with observed lives from two bench tests in terms of location as well as number of cycles to failure.
Warmumformwerkzeuge unterliegen während des Betriebes komplexen thermischen und mechanischen Beanspruchungen. In kritischen Bereichen können dadurch lokal Spannungen entstehen, die die Fließgrenze überschreiten. Bei der Serienproduktion führt dies zu zyklischen plastischen Verformungen und zur thermomechanischen Ermüdung, welche die Lebensdauer der Warmumformwerkzeuge maßgeblich bestimmen kann. Zur Bewertung der thermomechanischen Ermüdung der Warmumformwerkzeuge gibt es jedoch heute keine etablierten Konzepte, da dieser Aspekt erst durch die Notwendigkeit einer höheren Ressourcen- und Energieeffizienz und optimierter Produktionsprozesse (beispielsweise im Rahmen von Industrie 4.0) eine höhere Aufmerksamkeit erreicht. In dieser Arbeit wird zum einen die aktuell industriell angewandte Vorgehensweise zur Auslegung von Warmumformwerkzeugen hinsichtlich der Lebensdauer erläutert. Des Weiteren wird ein Überblick über existierende Plastizitätsmodelle und Lebensdauermodelle gegeben. Dabei wird zwischen rein phänomenologischen und mechanismenbasierten Modellen unterschieden. Aus der betriebenen Recherche wird ersichtlich, dass weiterer Forschungsbedarf auf diesem Gebiet notwendig ist.
Wer sich mit Digitalisierungsbestrebungen an Schulen befasst, stellt fest, dass die Tragweite der intendierten Transformation von Bildungseinrichtungen zu automatisierten Lernfabriken durch Digitaltechnik nur von Wenigen realisiert wird. Viele Beteiligte (wollen) glauben, es ginge nur um eine bessere technische Ausstattung der Lehreinrichtungen zur Unterstützung der Lehrkräfte – und übersehen, dass mit Kybernetik und Behaviorismus zwei den Menschen determinierende Theorien eine Renaissance erleben. Vertreter dieser Disziplinen glauben daran, dass sowohl der einzelne Mensch wie ganze Gesellschaften oder Sozialgemeinschaften wie ein Maschinenpark programmiert und gesteuert werden könne. Dabei werden Lernprozesse zu Akten der systematischen Selbstentmündigung umdefiniert: die Zurichtung der Lernenden auf abfragbare Kompetenzen mit Hilfe von Algorithmen und Software.
The ability to detect a target signal masked by noise is improved in normal-hearing listeners when interaural phase differences (IPDs) between the ear signals exist either in the masker or in the signal. To improve binaural hearing in bilaterally implanted cochlear implant (BiCI) users, a coding strategy providing the best possible access to IPDs is highly desirable. Outcomes of a previous study (Zirn, Arndt et al. 2016) revealed that a subset of BiCI users showed improved IPD detection thresholds with the fine structure processing strategy FS4 compared to the constant rate strategy HDCIS using narrowband stimuli. In contrast, little differences between the coding strategies were found for broadband stimuli with regard to binaural speech intelligibility level differences (BILD) as an estimate of binaural unmasking. Compared to normalhearing listeners (7.5 ± 1.2 dB) BILD were small in BiCI users (around 0.5 dB with both coding strategies).
In the present work, we investigated the influence of binaural fitting parameters on BILD. In our cohort of BiCI users many were implanted with electrode arrays differing in length left versus right. Because this length difference typically corresponded to the distance of two electrode contacts the first modification of bilateral fitting was a tonotopic adjustment by deactivation of the most apical electrode contact on the side with the deeper inserted array (tonotopic approach).
The second modification was the isolation of the residual, most apical electrode contacts by deactivation of the basally adjacent electrode contact on each side (tonotopic sparse approach). Applying these modifications, BILD improved by up to 1.5 dB.
Das normalhörende auditorische System ist in der Lage, interaurale Zeit- bzw. Phasendifferenzen zur verbesserten Signaldetektion im Störgeräusch zu nutzen. Dieses Phänomen wird häufig als binaurale Entmaskierung bezeichnet und ist sowohl bei einfachen Signalen wie Sinustönen, als auch bei Sprachsignalen im Störgeräusch wirksam. Vorangegangene Studien haben gezeigt, dass binaurale Entmaskierung eingeschränkt auch bei bilateralen CI-Trägern beobachtbar ist (Zirn et al., 2016).
Aktuelle Ergebnisse zeigen, dass die binaurale Entmaskierung sensitiv gegenüber der bilateralen CI-Anpassung ist. So lässt sich der Effekt durch tonotopen Abgleich und Herausstellen eines apikalen Feinstrukturkanals modulieren. Steigerungen der binauralen Entmaskierung um bis zu 1,5 dB sind auf diese Weise gegenüber der konventionellen CI-Anpassung möglich. Allerdings variiert der Einfluss der CI-Anpassung interindividuell erheblich.
Die drei großen Hersteller von Cochlea-Implantat (CI)-Systemen ermöglichen es klinischen Audiologen, die Mikrofoneigenschaften der meisten CI-Sprachprozessoren zu prüfen. Dazu können bei diesen Sprachprozessoren Monitorkopfhörer angeschlossen und das/die Mikrofon(e) inklusive eines Teils der Signalvorverarbeitung abgehört werden. Präzise Angaben dazu, mit welchen Stimuli, bei welchem Pegel und nach welchem Kriterium diese Prüfung stattfinden soll, machen die CI-Hersteller nicht. Auf Basis dieser Prüfung soll der Audiologe dann über die Funktion der Mikrofone und damit darüber entscheiden, ob der betreffende Sprachprozessor an den Hersteller eingeschickt wird oder nicht.
Zur Objektivierung der CI-Sprachprozessor-Mikrofon-Prüfung haben wir eine Testbox entwickelt, mit der alle abhörbaren aktuellen CI-Sprachprozessoren der drei großen Hersteller geprüft werden können. Die Box wurde im 3D-Druck-Verfahren hergestellt. Der zu prüfende Sprachprozessor wird in die Messbox eingehängt und über einen darin verbauten Lautsprecher mit definierten Prüfsignalen (Sinustöne unterschiedlicher Frequenz) beschallt. Das Mikrofonsignal wird über das Kabel der Monitorkopfhörer herausgeführt und mit einer Shifting- and Scaling-Schaltung in einen Spannungsbereich transformiert, der für die AD-Wandlung mit einem Mikrokontroller (ATmega1280 verbaut auf einem Arduino Mega) geeignet ist. Derselbe Mikrokontroller übernimmt über einen eigens gebauten DA-Wandler die Ausgabe der Sinustöne über den Lautsprecher. Signalaufnahme und –wiedergabe erfolgen mit jeweils 38,5 kHz Samplingrate. Der für jede Frequenz über mehrere Perioden des Prüfsignals ermittelte Effektivwert wird mit dem Effektivwert, der mit einem neuwertigen Referenzprozessor für diese Frequenz gemessen wurde, verglichen. Die Messergebnisse werden graphisch auf einem Display ausgegeben.
Derzeit läuft eine erste Datenerhebung mit in der Klinik subjektiv auffällig gewordenen CI-Sprachprozessoren, die anschließend in der Messbox untersucht werden. So sollen realistische Schwellen für kritische Abweichungen von den Referenz-Effektivwerten ermittelt werden. Im weiteren Verlauf sollen dann Hit und False Alarm-Raten der subjektiven Prüfung bestimmt werden.
Our university carries out various research projects. Among others, the project Schluckspecht is an interdisciplinary work on different ultra-efficient car concepts for international contests. Besides the engineering work, one part of the project deals with real-time data visualization. In order to increase the efficiency of the vehicle, an online monitoring of the runtime parameters is necessary. The driving parameters of the vehicle are transmitted to a processing station via a wireless network connection. We plan to use an augmented reality (AR) application to visualize different data on top of the view of the real car. By utilizing a mobile Android or iOS device a user can interactively view various real-time and statistical data. The car and its components are meant to be augmented by various additional information, whereby that information should appear at the correct position of the components. An engine e.g. could show the current rpm and consumption values. A battery on the other hand could show the current charge level. The goal of this paper is to evaluate different possible approaches, their suitability and to expand our application to other projects at our university.
Since their dawning, space communications have been among the strongest driving applications for the development of error correcting codes. Indeed, space-to-Earth telemetry (TM) links have extensively exploited advanced coding schemes, from convolutional codes to Reed-Solomon codes (also in concatenated form) and, more recently, from turbo codes to low-density parity-check (LDPC) codes. The efficiency of these schemes has been extensively proved in several papers and reports. The situation is a bit different for Earth-to-space telecommand (TC) links. Space TCs must reliably convey control information as well as software patches from Earth control centers to scientific payload instruments and engineering equipment onboard (O/B) spacecraft. The success of a mission may be compromised because of an error corrupting a TC message: a detected error causing no execution or, even worse, an undetected error causing a wrong execution. This imposes strict constraints on the maximum acceptable detected and undetected error rates.
In the course of the last few years, our students are becoming increasingly unhappy. Sometimes they stop attending lectures and even seem not to know how to behave correctly. It feels like they are getting on strike. Consequently, drop-out rates are sky-rocketing. The lecturers/professors are not happy either, adopting an “I-don’t-care” attitude.
An interdisciplinary, international team set in to find out: (1) What are the students unhappy about? Why is it becoming so difficult for them to cope? (2) What does the “I-don’t-care” attitude of professors actually mean? What do they care or not care about? (3) How far do the views of the parties correlate? Could some kind of mutual understanding be achieved?
The findings indicate that, at least at our universities, there is rather a long way to go from “Engineering versus Pedagogy” to “Engineering Pedagogy”.
Wie man die Vorlesung "Technische Mechanik 1 - Statik" für alle Beteiligten dynamisch gestaltet
(2017)
Lehrende nehmen vielfältige Veränderungen, insbesondere bei Studienanfängern wahr: Vorkenntnisse, Aufnahme- und Konzentrationsfähigkeit werden zunehmend heterogener. In der Vorlesung „Technische Mechanik 1“ wurde darauf konstruktiv reagiert, indem der Ablauf und die Struktur verändert wurden. Aufgaben und ihre Lösungen stehen im Mittelpunkt des Unterrichts. Neben der Lehrenden als aktiv Handelnde wird jeder Studierende im Lauf des Semesters in den Ablauf integriert und muss individuelle Lösungen der verteilten Aufgaben präsentieren. Im Vergleich entwickeln die Studierenden durch „Lernen am Modell“ dadurch ihre methodischen und fachlichen Fähigkeiten weiter. Um den Studierenden die Relevanz der behandelten Themenbereiche zu verdeutlichen wurden spezielle Aufgaben mit einem lebensweltlichem Bezug entwickelt. Befragungen zeigen, dass die Studierenden von den vielfältigen interaktiven Lernangeboten profitieren und die entwickelten Kompetenzen auch auf andere Lernsituationen übertragen.
Das Buch enthält Fallstudien zur deskriptiven und induktiven Statistik, welche auf die Bachelor-Ausbildung in der Betriebswirtschaft ausgerichtet sind. Für die fachlichen Grundlagen wird auf eine prägnante Liste einschlägiger Werke verwiesen. Ziel der Fallstudien ist es, den gesamten in einer Lehrveranstaltung erlernten Stoff adäquat anzuwenden. Hiermit soll ein fundiertes, nachhaltiges Gesamtverständnis erreicht und die Einübung von Transfers realisiert werden. Den Fallstudien liegen, zum Download vorgehaltene, realistische Datensets in einem Umfang zugrunde, der die Anwendung von Unterstützungssystemen erforderlich macht. Dazu ist die Verwendung von Microsoft Excel vorgesehen. In jeder Fallstudie werden sukzessive Lösungshinweise angeboten, um einen möglichst großen Lerneffekt zu erzielen. Das Lehrbuch richtet sich in erster Linie an Studierende in der Examensvorbereitung und kann auch als Klausurenkurs genutzt werden. Einzelne Fallstudien können aber auch veranstaltungsbegleitend zum Abschluss eines Themenbereiches, wie z. B. der deskriptiven Statistik bearbeitet werden.
Finding clusters in high dimensional data is a challenging research problem. Subspace clustering algorithms aim to find clusters in all possible subspaces of the dataset where, a subspace is the subset of dimensions of the data. But exponential increase in the number of subspaces with the dimensionality of data renders most of the algorithms inefficient as well as ineffective. Moreover, these algorithms have ingrained data dependency in the clustering process, thus, parallelization becomes difficult and inefficient. SUBSCALE is a recent subspace clustering algorithm which is scalable with the dimensions and contains independent processing steps which can be exploited through parallelism. In this paper, we aim to leverage, firstly, the computational power of widely available multi-core processors to improve the runtime performance of the SUBSCALE algorithm. The experimental evaluation has shown linear speedup. Secondly, we are developing an approach using graphics processing units (GPUs) for fine-grained data parallelism to accelerate the computation further. First tests of the GPU implementation show very promising results.
We present a two-dimensional (2D) planar chromatographic separation of estrogenic active compounds on RP-18 W (Merck, 1.14296) phase. A mixture of 8 substances was separated using a solvent mix consisting of hexane, ethyl acetate, acetone (55:15:10, v/v) in the first direction and of acetone and water (15:10, v/v) in the second direction. Separation was performed on an RP-18 W plate over a distance of 70 mm. This 2D-separation method can be used to quantify 17α-ethinylestradiol (EE2) in an effect-directed analysis, using the yeast strain Saccharomyces cerevisiae BJ3505. The test strain (according to McDonnell) contains the estrogen receptor. Its activation by estrogen active compounds is measured by inducing the reporter gene lacZ which encodes the enzyme β-galactosidase. This enzyme activity is determined on plate by using the fluorescent substrate MUG (4-methylumbelliferyl-β-d-galactopyranoside).
We present a two-dimensional (2D) planar chromatographic separation method for phytoestrogenic active compounds on RP-18 W (Merck, 1.14296) phase. It could be shown that an ethanolic extract of liquorice (Glycyrrhiza glabra) roots contains four phytoestrogenic active compounds. As solvent, in the first direction, the mix of hexane, ethyl acetate, and acetone (45:15:10, v/v) was used, and, in the second direction, that of acetone and water (15:10, v/v) was used. After separation, a modified yeast estrogen screen (YES) test was applied, using the yeast strain Saccharomyces cerevisiae BJ3505. The test strain (according to McDonnell) contains the estrogen receptor. Its activation by estrogen active compounds is measured by inducing the reporter gene lacZ which encodes the enzyme β-galactosidase. This enzyme activity is determined on plate by using the fluorescent substrate MUG (4-methylumbelliferyl-β-d-galactopyranoside). The enzyme can also hydrolyse X-β-Gal (5-bromo-4-chloro-3-indoxyl-β-d-galactopyranosid) into β-galactose and 5-bromo-4-chloro-3-indoxyl. The indoxyl compound is oxidized by oxygen forming the deep-blue dye 5,5β-dibromo-4,4β-dichloro-indigo which allows to detect phytoestrogenic activity more specific in the presence of native fluorescing compounds.
Kommentierung des Designrechts; Kommentierung des Markenrechts; Kommentierung des Urheberrechts
(2017)
eLetter zum Artikel "How hair can reveal a history" von Hanae Armitage & Nala Rogers, veröffentlicht in Science, Vol. 351, Issue 6278, Seite 1134 (doi.org/10.1126/science.351.6278.1134)
Musik und Neurophysiologie
(2017)
eLetter zum Artikel "Hybrid EEG/EOG-based brain/neural hand exoskeleton restores fully independent daily living activities after quadriplegia" von Surjo R. Soekadar et al., veröffentlicht in Science Robotics, Vol. 1, No. 1 (DOI: 10.1126/scirobotics.aag3296)
Nicht-invasives, nicht-ionisierendes funktionelles Neuroimaging mit räumlich und zeitlich hochauflösender Elektroenzephalographie oder Echtzeit-Naheinfrarotspektroskopie in Kombination mit modernen Robotorsystemen ist ein entscheidender Entwicklungsschritt auf dem Gebiet der Neuroprothetik und Brain-Machine-Interfaces. In der Medizintechnik an der Hochschule Offenburg wird hierzu geforscht.
The need to measure basic aerosol parameters has increased dramatically in the last decade. This is due mainly to their harmful effect on the environment and on public health. Legislation requires that particle emissions and ambient levels, workplace particle concentrations and exposure to them are measured to confirm that the defined limits are met and the public is not exposed to harmful concentrations of aerosols.
Die in dieser Arbeit vorgestellte Vorgehensweise erlaubt die Ortung von Schienenfahrzeugen in topologischen Karten allein mit Hilfe eines Wirbelstromsensorsystems (WSS). Zur Ortung primär erforderlich ist die Identifizierung des befahrenen Gleises selbst, wofür unterschiedliche in einer Karte gespeicherte Merkmale herangezogen werden sowie der zurückgelegte Weg, der durch Zählen der passierten Schwellen ermittelt wird. Diese Merkmale werden mittels eigens definierter, virtueller Sensoren aus dem Signal des WSS gewonnen und mittels einem Bayes’schen Formalismus mit den Referenzdaten aus der vorliegenden topologischen Karte abgeglichen. Diese auf virtuellen Sensoren basierende Vorgehensweise erlaubt eine Parallelisierung der Sensorsignalverarbeitung und eine flexible Einbindung von Sensoren in das Ortungssystem. Die Möglichkeit, Weichen mit einer Trefferquote von 99% zu detektieren, erlaubt die Verfolgung der Fahrzeugposition über die gesamte Fahrstrecke hinweg, unter alleiniger Verwendung der vom WSS gelieferten Messdaten.
Für die genaue Positionsbestimmung in Innenräumen, beispielsweise in Bahnhöfen oder Einkaufszentren, soll in dem beschriebenen Projekt untersucht werden, inwiefern lokale Magnetfelder genutzt werden können, um Genauigkeit und Robustheit zu erhöhen. Hierzu wird untersucht, ob und wie kostengünstige Magnetfeldsensoren und mobile Roboterplattformen genutzt werden können, um Karten zu erstellen, die eine spätere Navigation, beispielsweise mit Smartphones oder mit anderen mobilen Geräten.
BGH "kinox.to"
(2017)
In der Planungs- und Betriebspraxis herrscht im Bereich der Betriebsführung von thermisch aktivierten Bauteilsystemen und insbesondere der thermisch trägen Bauteilaktivierung noch große Unsicherheit. Trotz einer weiten Verbreitung dieser Systeme im Neubau von Nichtwohngebäuden hat sich bis heute keine einheitliche Betriebsführungsstrategie durchgesetzt. Vielmehr kritisieren Bauherren und Nutzer regelmäßig zu hohe bzw. niedrige Raumtemperaturen in den Übergangsjahreszeiten und bei Wetterwechsel sowie generell eine mangelhafte Regelbarkeit. Demgegenüber weisen Monitoringprojekte immer wieder einen hohen thermischen Komfort in diesen Gebäuden nach. Offensichtlich unterscheiden sich hier subjektiv empfundene Behaglichkeit und objektiv gemessener Komfort. Gleichzeitig sind Heiz- und Kühlkonzepte mit Flächentemperierung dann besonders energieeffizient, wenn das Regelkonzept auf deren thermische Trägheit angepasst ist. Eine gute Regelung gewährleistet also einen hohen thermischen Komfort und sorgt für einen möglichst niedrigen Energieeinsatz. Das Rechenverfahren mit Anlagenaufwandszahlen (in Anlehnung an DIN V 18599) bietet eine gute Möglichkeit, Anlagenkonzepte inklusive deren Betriebsführungsstrategie zu bewerten. Damit ist es möglich, eine auf das Gebäude angepasste Betriebsführungsstrategie für die Bauteilaktivierung zu finden und einheitlich zu bewerten.
Kein Mensch lernt digital
(2017)
Die IT-Industrie hat die Bildung als Geschäftsfeld seit vielen Jahren auf der Agenda. Wirtschaftsverbände und IT-Vertreter fordern unisono, Digitaltechnik und Programmiersprachen schon in der Grundschule zu unterrichten, damit die Schülerinnen und Schüler für die digitale Zukunft gerüstet seien. Dabei ist der Nutzen digitaler Medien im Unterricht nach wie vor fragwürdig.
Ralf Lankau entlarvt in diesem Buch die wirtschaftlichen Interessen der IT-Branche und ihrer Lobbyisten. Dabei geht er sowohl auf die wissenschaftlichen Grundlagen (Kybernetik, Behaviorismus) als auch auf die technischen Rahmenbedingungen von Netzen und Cloud-Computing ein, bevor er konkrete Vorschläge für einen reflektierten und verantwortungsvollen Umgang mit Digitaltechnik im Unterricht skizziert. Die These des Autors lautet: Wir müssen uns auf unsere pädagogische Aufgabe besinnen und (digitale) Medien wieder zu dem machen, was sie im strukturierten Präsenzunterricht sind: didaktische Hilfsmittel.
In this paper we show that a model-free approach to learn behaviors in joint space can be successfully used to utilize toes of a humanoid robot. Keeping the approach model-free makes it applicable to any kind of humanoid robot, or robot in general. Here we focus on the benefit on robots with toes which is otherwise more difficult to exploit. The task has been to learn different kick behaviors on simulated Nao robots with toes in the RoboCup 3D soccer simulator. As a result, the robot learned to step on its toe for a kick that performs 30% better than learning the same kick without toes.
Minderjährige genießen in diversen Rechtsgebieten zu Recht besonderen Schutz. Dazu gehören das allgemeine Vertragsrecht des Bürgerlichen Gesetzbuchs (BGB), das Lauterkeitsrecht des UWG1 und auch das Datenschutzrecht, wo dies in der Datenschutz-Grundverordnung (DS-GVO) ausdrücklich festgeschrieben wird. Der Beitrag diskutiert einige der relevanten Fragen.
EuGH "comtech"
(2017)
Interne Revision: Anforderungen an die Wirksamkeit – ein Vergleich von IDW EPS 983 und MaRisk
(2017)
Die vorliegende Erfindung betrifft ein Verfahren zum digitalen Drucken einer Keramikfarbe auf einem Substrat, wobei die Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik mittels eines Laserstrahls simultan zu dem Aufbringen der Keramikfarbe auf ein Substrat mittels eines Druckkopfes erwärmt wird. Weiterhin betrifft die vorliegende Erfindung auch die Verwendung eines Laserstrahls in einer Vorrichtung zum digitalen Drucken einer Keramikfarbe auf einem Substrat, wobei der Laserstrahl die Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik simultan zu dem Aufbringen der Keramikfarbe auf ein Substrat mittels eines Druckkopfes der Vorrichtung erwärmt. Die vorliegende Erfindung betrifft weiterhin auch eine Vorrichtung zum digitalen Drucken einer Keramikfarbe auf einem Substrat, die einen Druckkopf zum Aufbringen einer Keramikfarbe auf ein Substrat sowie einen Laser zum Erwärmen der Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik mittels eines Laserstrahls umfasst.
Im vorliegenden Bericht werden die Arbeiten und Ergebnisse der Hochschule Offenburg (HSOG) des Teilvorhabens 3 (TV3) dargestellt. Im Rahmen dieses Teilvorhabens war die HSOG direkt in das Teilprojekt 3 – berufsbegleitender Bachelorstudiengang Informatik/IT-Sicherheit – involviert. Für dieses Teilprojekt wurden Studieninhalte entwickelt und die Pilotierung für ausgewählte Jahrgänge durchgeführt.
In dieser Arbeit werden die außentemperaturgeführte Vorlauftemperaturregelung (Standard-TABS-Strategie), ein Verfahren das auf einer multiplen linearen Regression basiert (AMLR-Strategie) und ein Verfahren, das unter dem Obergriff der modellprädiktiven Regelung (MPC-Strategie) zusammengefasst werden kann, untersucht. Anhand der Simulationsergebnisse und des Integrationsaufwandes in die Gebäudeautomation des Seminargebäudes wurde eine Fokussierung auf die AMLR-Strategie vorgenommen.
Durch die fortschreitende Globalisierung der Märkte verschiebt sich der Schwerpunkt der Nachfrage nach Investitionsgütern deutlich in die Emerging Markets, welche mittelfristig an Bedeutung die stagnierenden westlichen Märkte übertreffen werden. In letzter Zeit zeichnet sich dabei eine konjunkturelle Erholung, ein sogenanntes Comeback, in diesen Schwellenländern ab. Im Mittelpunkt steht dabei vor allem auch Indien. Indien ist mittelfristig einer der größten Investitionsgütermärkte und damit ein erfolgversprechender Standort bei der im deutschen Maschinenbau notwendigen Internationalisierung. Allerdings sind deutsche Unternehmen in Indien auch mit Herausforderungen konfrontiert, die in der unternehmerischen Praxis oftmals zum Scheitern einer Markterschließung geführt haben. Vor diesem Hintergrund stellt sich die Frage nach denjenigen Faktoren, die den Erfolg einer Erschließung des indischen Marktes durch den deutschen Maschinenbau bestimmen.
Die Unternehmenslandschaft, nicht nur in Deutschland, sondern weltweit, wird aktuell gerade in all ihren Bereichen vor allem von der stetig wachsenden Welle der Digitalisierung nachhaltig geprägt. Die ganzen Auswirkungen davon in der Zukunft lassen sich im Augenblick oft noch nicht einmal ansatzweise erahnen. Das hier zu beobachtende Collingridge-Dilemma besteht darin, dass Wirkungen nicht leicht prognostiziert werden können, solange die betreffenden Technologien noch nicht ausreichend entwickelt und in Folge entsprechend weit verbreitet sind. Deren Gestalten beziehungsweise gewünschtes Ändern und Anpassen werden jedoch umso schwieriger, je intensiver die Technologien bereits verwurzelt sind. Die Digitalisierung stellt dabei nur einen, wenn auch wohl gravierendsten Aspekt derartiger Veränderungserscheinungen beziehungsweise -herausforderungen dar. Der Wandel des wirtschaftlichen und politischen Umfeldes auf globaler Ebene ist unumstritten. Zugleich ist eine zunehmende Komplexität festzustellen, die es erschwert, im Sinne einer verlässlichen Planung heute solide fundierte Entscheidungen für die zukünftige Entwicklung zu treffen.
Das vorliegende Arbeitspapier gibt einen Überblick über das Thema Web-Usability Optimierung und der nutzerorientierten Gestaltung von Internetpräsenzen. Aktuell gibt es weltweit mehr als 1,1 Milliarde Websites und über 3,5 Milliarden Internet Nutzer. Bei der hieraus resultierenden Informationsflut ist es für die Websitebetreiber eine besonders große Herausforderung, Informationen konzentriert zusammenzufassen, um benutzerfreundliche und nutzerorientierte Inhalte anzubieten. Ein zentraler Aspekt in diesem Zusammenhang ist die Web-Usability. Allerdings zeigt sich insbesondere bei kleinen und mittleren Unternehmen, dass diese häufig vernachlässigt wird. Merkmale für fehlende oder mangelnde Web-Usability lassen sich in verschiedene Kategorien einordnen. Dabei gibt es zum einen viele unstrukturierte Websites, die kaum einen Mehrwert für den Nutzer bieten und eine unübersichtliche Navigation aufweisen, die keine Orientierung bietet. Zum anderen hängen Usability-Probleme häufig mit einer fehlenden Informations-Architektur, hohen Ladezeiten, schlechter Zugänglichkeit sowie einer schlechten Suchfunktion zusammen. Ein zentrales Element der Usability ist die Ausrichtung der Inhalte an die Bedürfnisse der Zielgruppe. Häufig wird diesem Aspekt bei der Umsetzung lediglich geringe Aufmerksamkeit geschenkt. Mögliche Gründe für die fehlende Fokussierung auf Usability-Aspekte sind vielseitig: fehlende Zeit, geringes Budget, Komplexität, vernachlässigte Usability-Evaluierung sowie mangelnder Einsatz von Usability-Experten beim Relaunch oder Erstellen einer Website. Das Ziel des Arbeitspapieres ist es daher, zentrale Komponenten und Prozesse der Web-Usability aufzuzeigen und so einen Orientierungsrahmen zur Optimierung für Unternehmen zu schaffen. Ergänzt werden diese Ausführungen um einen umfangreichen Leitfaden, der Online frei verfügbar ist.
Die Nachrichtenübermittlung im professionellen Mobilfunk hat sich vom Analog- hin zum Digitalfunk entwickelt und dadurch die gesamte Arbeitsweise der Branche verändert. Wurde diese früher vom Handwerk geprägt, so geht es nun hauptsächlich noch um Programmierung und Beratung. Für die Unternehmen des professionellen Mobilfunks ergeben sich durch die vielen Veränderungen neue Risiken, welche Haftungsansprüche auslösen können. Dieses Arbeitspapier konzentriert sich auf Unternehmen des professionellen Mobilfunkhandels und speziell auf die hier weit verbreitete Gesellschaft mit beschränkter Haftung. Im Zuge der Digitalisierung und der damit einhergehenden weitreichenden Veränderungen in der Branche des professionellen Mobilfunkhandels hat der Geschäftsführer Entscheidungen zu treffen, welche mit Risiko behaftet sind und sogar den Fortbestand der Gesellschaft gefährden können. Um nicht gegen seine Rechte und Pflichten als Geschäftsführer zu verstoßen und einer persönlichen Haftung aus dem Weg zu gehen, sollen die auftretenden Risiken benannt und Wege aufgezeigt werden, diese zu minimieren bzw. ganz zu vermeiden. Geschäftsführer sind sich oftmals ihren persönlichen Haftungsrisiken nicht bewusst.
Das Projektvorhaben "Energienetzmanagement dezentraler KWK‐Anlagen mit diversen Verbraucherstrukturen", das vom Innovationsfonds der badenova AG & Co KG von Mai 2012 bis Juli 2016 unter der Fördernummer 2012‐09 gefördert wurde kann aus Sicht des Projektnehmers Hochschule Offenburg und seiner Partner Stadt Offenburg und G. und M. Zapf Energie GbR mbH als sehr erfolgreich umgesetztes Fördervorhaben bezeichnet werden. Während der ca. vier Jahre Projektlaufzeit konnten mehrere Reallabore geschaffen werden, die an die Eigenschaften eines Subnetzes in einem Smart Grid sehr nah herangeführt wurden. Alle Objekte bzw. Netzstrukturen verfügen über typische Komponenten eines Microgrids mit Energiequellen, Speichern und Senken. Auch wurde die Trigeneration als Netzvariante mit Strom‐ Wärme und Kältebereitstellung aufgegriffen und für Verteilnetzmodelle der Niederspannungsebene beschrieben. Ausgehend von einem Mikronetzmodell für jede Energieart kann hinter jeder Trafostation eine beliebig komplexe Energieversorgungsstruktur aufgespannt werden.
Battery degradation is a complex physicochemical process that strongly depends on operating conditions. We present a model-based analysis of lithium-ion battery degradation in a stationary photovoltaic battery system. We use a multi-scale multi-physics model of a graphite/lithium iron phosphate (LiFePO4, LFP) cell including solid electrolyte interphase (SEI) formation. The cell-level model is dynamically coupled to a system-level model consisting of photovoltaics (PV), inverter, load, grid interaction, and energy management system, fed with historic weather data. Simulations are carried out for two load scenarios, a single-family house and an office tract, over annual operation cycles with one-minute time resolution. As key result, we show that the charging process causes a peak in degradation rate due to electrochemical charge overpotentials. The main drivers for cell ageing are therefore not only a high state of charge (SOC), but the charging process leading towards high SOC. We also show that the load situation not only influences system parameters like self-sufficiency and self-consumption, but also has a significant impact on battery ageing. We assess reduced charge cut-off voltage as ageing mitigation strategy.
One of the practical bottlenecks associated with commercialization of lithium-air cells is the choice of an appropriate electrolyte that provides the required combination of cell performance, cyclability and safety. With the help of a two-dimensional multiphysics model, we attempt to narrow down the electrolyte choice by providing insights into the effect of the transport properties of electrolyte, electrode saturation (flooded versus gas diffusion), and electrode thickness on a single discharge performance of a lithium-air button cell cathode for five different electrolytes including water, ionic liquid, carbonate, ether, and sulfoxide. The 2D distribution of local current density and concentrations of electrochemically active species (O2 and Li+) in the cathode is also discussed w.r.t electrode saturation. Furthermore, the efficacy of species transport in the cathode is quantified by introducing two parameters, firstly, a transport efficiency that gives local insight into the distribution of mass transfer losses, and secondly, an active electrode volume that gives global insight into the cathode volume utilization at different current densities. A detailed discussion is presented toward understanding the design-induced performance limitations in a Li-air button cell prototype.
The DMFC is a promising option for backup power systems and for the power supply of portable devices. However, from the modeling point of view liquid-feed DMFC are challenging systems due to the complex electrochemistry, the inherent two-phase transport and the effect of methanol crossover. In this paper we present a physical 1D cell model to describe the relevant processes for DMFC performance ranging from electrochemistry on the surface of the catalyst up to transport on the cell level. A two-phase flow model is implemented describing the transport in gas diffusion layer and catalyst layer at the anode side. Electrochemistry is described by elementary steps for the reactions occurring at anode and cathode, including adsorbed intermediate species on the platinum and ruthenium surfaces. Furthermore, a detailed membrane model including methanol crossover is employed. The model is validated using polarization curves, methanol crossover measurements and impedance spectra. It permits to analyze both steady-state and transient behavior with a high level of predictive capabilities. Steady-state simulations are used to investigate the open circuit voltage as well as the overpotentials of anode, cathode and electrolyte. Finally, the transient behavior after current interruption is studied in detail.
Lithium-ion batteries show a complex thermo-electrochemical performance and aging behavior. This paper presents a modeling and simulation framework that is able to describe both multi-scale heat and mass transport and complex electrochemical reaction mechanisms. The transport model is based on a 1D + 1D + 1D (pseudo-3D or P3D) multi-scale approach for intra-particle lithium diffusion, electrode-pair mass and charge transport, and cell-level heat transport, coupled via boundary conditions and homogenization approaches. The electrochemistry model is based on the use of the open-source chemical kinetics code CANTERA, allowing flexible multi-phase electrochemistry to describe both main and side reactions such as SEI formation. A model of gas-phase pressure buildup inside the cell upon aging is added. We parameterize the model to reflect the performance and aging behavior of a lithium iron phosphate (LiFePO4, LFP)/graphite (LiC6) 26650 battery cell. Performance (0.1–10 C discharge/charge at 25, 40 and 60°C) and calendaric aging experimental data (500 days at 30°C and 45°C and different SOC) from literature can be successfully reproduced. The predicted internal cell states (concentrations, potential, temperature, pressure, internal resistances) are shown and discussed. The model is able to capture the nonlinear feedback between performance, aging, and temperature.
This book offers a compendium of best practices in game dynamics. It covers a wide range of dynamic game elements ranging from player behavior over artificial intelligence to procedural content generation. Such dynamics make virtual worlds more lively and realistic and they also create the potential for moments of amazement and surprise. In many cases, game dynamics are driven by a combination of random seeds, player records and procedural algorithms. Games can even incorporate the player’s real-world behavior to create dynamic responses. The best practices illustrate how dynamic elements improve the user experience and increase the replay value.
The book draws upon interdisciplinary approaches; researchers and practitioners from Game Studies, Computer Science, Human-Computer Interaction, Psychology and other disciplines will find this book to be an exceptional resource of both creative inspiration and hands-on process knowledge.
Defining Recrutainment: A Model and a Survey on the Gamification of Recruiting and Human Resources
(2017)
Recrutainment, is a hybrid word combining recruiting and entertainment. It describes the combination of activities in human resources and gamification. Concepts and methods from game design are now used to assess and select future employees. Beyond this area, recrutainment is also applied for internal processes like professional development or even marketing campaigns. This paper’s contribution has four components: (1) we provide a conceptual background, leading to a more precise definition of recrutainment; (2) we develop a new model for analyzing solutions in recrutainment; (3) we present a corpus of 42 applications and use the new model to assess their strengths and potentials; (4) we provide a bird’s eye view on the state of the art in recrutainment and show the current weighting of gamification and recruiting aspects.
Applications helping us to maintain the focus on work are called “Zenware” (from concentration and Zen). While form factors, use cases and functionality vary, all these applications have a common goal: creating uninterrupted, focused attention on the task at hand. The rise of such tools exemplifies the users’ desire to control their attention within the context of omnipresent distraction. In expert interviews we investigate approaches in the context of attention-management at the workplace of knowledge workers. To gain a broad understanding, we use judgement sampling in interviews with experts from several disciplines. We especially explore how focus and flow can be stimulated. Our contribution has four components: a brief overview on the state of the art (1), a presentation of the results (2), strategies for coping with digital distractions and design guidelines for future Zenware (3) and an outlook on the overall potential in digital work environments (4).
Gamifying rehabilitation is an efficient way to improve motivation and exercise frequency. However, between flow theory, self-determination theory or Bartle's player types there is much room for speculation regarding the mechanics required for successful gamification, which in turn leads to increased motivation. For our study, we selected a gamified solution for motion training (an exergame) where the playful design elements are extremely simple. The contribution is three-fold: we show best practices from the state of the art, present a study analyzing the effects of simple gamification mechanics on a quantitative and on a qualitative level and discuss strategies for playful design in therapeutic movement games.
Dieses Lehrbuch ermöglicht dem Anfänger in der 3D-Modellierung einen schnellen Einstieg in die Arbeit mit dem cloudbasierten CAD-System Onshape, das über das Internet einen einfachen Zugang zu praxisorientiertem CAD bietet. Der Schwerpunkt liegt dabei auf den grundlegenden Funktionen zur Modellierung von Einzelteilen und Baugruppen, sowie in der Erstellung von einfachen technischen Zeichnungen. Dabei werden bei jedem Schritt die besonderen Anforderungen an eine 3D-Druck-gerechte Gestaltung erläutert und umgesetzt. Somit ist das Ergebnis dieser „Schritt für Schritt“-Anleitung die vollständige Modellierung eines Miniatur-Automobils, das am 3D-Drucker in ein reales Modell umgesetzt werden kann. Das didaktische Konzept ist so ausgelegt, dass alle Schritte für ein Selbststudium geeignet sind. Die aktuelle Auflage basiert jetzt auf der deutschen Version und erläutert die Nutzung von Zusatzfunktionen mittels App.
In recent years, the additive manufacturing processes have rapidly developed. The additive manufacturing processes currently present a high-performance alternative to conventional manufacturing methods. In particular, they offer the opportunity of previously hardly imaginable design freedom, i.e. the implementation of complex forms and geometries. This capability can, for example, be applied in the development of especially light but still loadable components in automotive engineering. In addition, waste material is seldom produced in additive manufacturing which benefits a sustainable production of building components. Until now, this design freedom was barely used in the construction of technical components and products because, in doing so, both specific design guidelines for additive manufacturing and complex strength calculations must be simultaneously observed. Yet in order to fully take advantage of the additive manufacturing potential, the method of topology optimization, based on FEM simulation, suggests itself. It is with this method that components that are precisely matched and are especially light, thereby also resource-saving, can be produced. Current literature research indicates that this method is used in automotive manufacturing for reducing weight and improving the stability of both individual parts and assembly units. This contribution will study how this development method can be applied in the example of a brake mount from an experimental vehicle. In this, the conventional design is improved by means of a simulation tool for topology optimization in various steps. In an additional processing step, the smoothing of the thus developed component occurs. Finally, the component is generatively manufactured by means of selective laser melting technology. Models are manufactured using binder jetting for the demonstration of the process. It will also be determined how this weight reduction affects the CO2 emissions of a vehicle in use.
Additive manufacturing processes have evolved rapidly in recent years and now offer a wide range of manufacturing technologies and workable materials. This range from plastics and metals to paper and even polymer plaster composites. Due to the layer by layer structure of the components the additive processes have in comparison with conventional manufacturing processes the advantage of freedom of design, that means the simple implementation of complex geometries. Moreover, the additive processes provide the advantage of reduced consumption of resources, since essentially only the material is consumed, which is required for the actual component, since no waste in the form of chips is produced. In order to use these advantages, the potentials of additive manufacturing and the requirements of sustainable design must already be observed in the product development process. So the design of the components and products must be made so as little as possible construction and supporting material is required for the generative production and therefore little resources are consumed. Also, all steps of the additive manufacturing process must be considered properly, that includes the post processing. This allows components be designed so that for instance the effort for removing the support structure is considerably reduced. This leads to a significant reduction in manufacturing time and thus energy consumption. The implementation of these potentials in product development can be demonstrated by means of a multiple-stages model. A case study shows how this model is applied in the training of Master students in the field of product development. In a workshop the students work as a group while implementing the task of developing a miniature racing car under the rules of sustainable design in compliance with the boundary conditions for an additive manufacturing. In this case, Fused Deposition Modelling FDM using plastics as a building material is applied. The results show how the students have dealt with the different requirements and how they have implemented them in product development and in the subsequent additive manufacturing.
The present-day methods of numerical simulation offer a great variety of options for optimizing metal forming processes. Although it is possible to simulate complex forming processes, the results are typically available only as 2D projections on screens. Some forming processes have reached a level of complexity beyond the level of spatial sense, which makes it necessary to use physical 3D representations to develop a deeper understanding of the material flow, microstructural processes, process and design limits, or to design the required tooling. Physical 3D models can be produced in a short amount of time using 3D printing, and indexed with a wide range of colors. In this paper, the additive manufacturing of 3D color models based on simulation results are explored by means of examples from metal forming. Different 3D-printing processes are compared on the basis of quality as well as technical and economic criteria. Other examples from the fields joining by upset-bulging of tubes and microstructure simulation are also analyzed. This paper discusses the possibilities offered by the rapid progress and wide availability of 3D printers for the design and optimization of complex metal forming processes.