Refine
Year of publication
- 2017 (274) (remove)
Document Type
- Conference Proceeding (91)
- Article (reviewed) (46)
- Article (unreviewed) (33)
- Part of a Book (23)
- Working Paper (18)
- Book (17)
- Other (11)
- Contribution to a Periodical (9)
- Report (9)
- Letter to Editor (6)
- Patent (5)
- Periodical Part (4)
- Doctoral Thesis (2)
Conference Type
- Konferenzartikel (62)
- Konferenz-Abstract (22)
- Konferenz-Poster (3)
- Sonstiges (3)
- Konferenzband (1)
Is part of the Bibliography
- yes (274) (remove)
Keywords
- CST (7)
- HF-Ablation (7)
- CRT (5)
- Ermüdung (4)
- Games (4)
- Gamification (4)
- Social Media (4)
- Computer Games (3)
- Computerspiele (3)
- Controlling (3)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (86)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (80)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (61)
- Fakultät Wirtschaft (W) (44)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (13)
- INES - Institut für nachhaltige Energiesysteme (12)
- ACI - Affective and Cognitive Institute (8)
- IfTI - Institute for Trade and Innovation (6)
- WLRI - Work-Life Robotics Institute (5)
- Zentrale Einrichtungen (5)
- POIM - Peter Osypka Institute of Medical Engineering (2)
- Rektorat/Verwaltung (2)
- CRT - Campus Research & Transfer (1)
Open Access
- Open Access (110)
- Closed Access (105)
- Bronze (6)
- Closed (5)
- Diamond (1)
- Gold (1)
- Grün (1)
In this TDP we describe a new tool created for testing the strategy layer of our soccer playing agents. It is a complete 2D simulator that simulates the games based on the decisions of 22 agents. With this tool, debugging the decision and strategy layer of our agents is much more efficient than before due to various interaction methods and complete control over the simulation.
In the future, the tool could also serve as a measure to run simulations of game series much faster than with the 3D simulator. This way, the impact of different play strategies could be evaluated much faster than before.
Automatic Identification of Travel Locations in Rare Books - Object Oriented Information Management
(2017)
The digital content of the Internet is growing exponentially and mass digitization of printed media opens access to literature, in particular the genre of travel literature from the 18th and 19th century, which consists of diaries or travel books describing routes, observations or inspirations. The identification of described locations in the digital text is a long-standing challenge which requires information technology to supply dynamic links to sources by new forms of interaction and synthesis between humanistic texts and scientific observations.
Using object oriented information technology, a prototype of a software tool is developed which makes it possible to automatically identify geographic locations and travel routes mentioned in rare books. The information objects contain properties such as names and classification codes for populated places, streams, mountains and regions. Together, with the latitudes and longitudes of every single location, it is possible to geo-reference this information in order that all processed and filtered datasets can be displayed by a map application. This method has already been used in the Humboldt Digital Library to present Alexander von Humboldt’s maps and was tested in a case study to prove the correctness and reliability of the automatic identification of locations based on the work of Alexander von Humboldt and Johann Wolfgang von Goethe.
The results reveal numerous errors due to misspellings, change of location names, equality of terms and location names. But on the other hand it becomes very clear that results of the automatic object detection and recognition can be improved by error-free and comprehensive sources. As a result an increase in quality and usability of the service can be expected, accompanied by more options to detect unknown locations in the descriptions of rare books.
Technology and computer applications influence our daily lives and questions arise concerning the role of artificial intelligence and decision-making algorithms. There are warning voices, that computers can, in theory, emulate human intelligence-and exceed it. This paper points out that a replacement of humans by computers is unlikely, because human thinking is characterized by cognitive heuristics and emotions, which cannot simply be implemented in machines operating with algorithms, procedural data processing or artificial neural networks. However, we are going to share our responsibilities with superior computer systems, which are tracking and surveying all of our digital activities, whereas we have no idea of the decision-making processes inside the machines. It is shown that we need a new digital humanism defining rules of computer responsibilities to avoid digital totalism and comprehensive monitoring and controlling of individuals within the planet Earth.
In diesem Beitrag werden die Bereitstellungskosten flexibler Systemkomponenten im deutschen Stromsystem analysiert, zu deren Quantifizierung eine einheitliche Methodik entwickelt wird. Dabei ist das Ziel des Beitrags, zeitlich differenzierte Kostenpotenzialkurven für die Jahre 2015 und 2030 zu erarbeiten, anhand derer die energiespezifischen Kosten der markt- und systemdienlichen Flexibilitätsbereitstellung verglichen und die einzelnen Flexibilitätsoptionen in einen Gesamtkontext eingeordnet werden können.
Der Einsatz flexibler Systemkomponenten wird hierzu in die drei Hauptphasen (1) Vorhaltung, (2) Abruf und (3) Einsatzfolgen unterteilt, woraus sich drei kongruente Kostengruppen ableiten lassen, nach denen die einzelnen Kostenbestandteile identifiziert und als Ergebnis die Bereitstellungskosten quantifiziert werden. Neben fossil-thermischen Kraftwerken werden dabei bspw. die Kraft-Wärme-Kopplung, Biogasanlagen, Pumpspeicher- und Laufwasserkraftwerke sowie steuerbare Lasten untersucht.
Zur anschließenden Abbildung der teils negativen Bereitstellungskosten wird die herkömmliche Darstellungsform der Merit Order entlang der Ordinate um die Abbildung negative Werte erweitert und die Abszisse für die Abbildung negativer Flexibilität in umgekehrter Reihenfolge angeordnet. Das Ergebnis sind zwei zusammenhängende Graphen, mittels derer sich die Bereitstellungskosten verschiedener Flexibilitätsoptionen gegenüberstellen und anschaulich vergleichen lassen.
Durch die Festlegung eines Rahmenszenarios zur Entwicklung des deutschen Stromsystems bis zum Jahr 2030 wird anschließend auch die zukünftige Perspektive der Flexibilitätsbereitstellung in Deutschland analysiert. Aus den Ergebnissen lässt sich ableiten, dass der deutsche Kraftwerkspark mit einem fortschreitenden Rückbau der Kohlekraftwerke nur dann zunehmend flexibler wird und auf höhere Schwankungen im Stromnetz reagieren kann, wenn von einem gleichzeitigen Zubau moderner erdgasbetriebener Kraftwerke ausgegangen wird. In diesem Fall steigen die Bereitstellungskosten positiver Flexibilität, was sich beispielsweise durch zukünftig steigende Brennstoffpreise bergründen lässt. Jedoch kann bspw. durch die Transformation der Kraft-Wärme-Kopplung hin zu einer grundsätzlich stromgeführten Fahrweise zukünftig eine vergleichsweise kostengünstige Flexibilitätsbereitstellung erschlossen und somit auch ein gleichbleibendes oder oftmals sogar höheres Flexibilitätsniveau am Markt erreicht werden.
Qualitative Wissenschaft, künstlerisches Forschen und forschendes Lernen verbinden Erkenntnis aus Praxis und Erfahrung. In der Autoethnographie der eigenen Werkstatt des Hörens wie der Kultur in Studios anderer, wird die noch neue Interdisziplin Sound (Studies) erprobt und vertieft, mit Impulsen für die Praxis und Theorie, von der noch wenig bekannten A/r/t ographie heute, hin zu einer künftig A/R/Tophonie, dem künstlerischen Forschen in der Musik, ebenso wie durch Klang Komposition, Radio Kunst und visuelle Musik.
Objective: This paper deals with the design and the optimization of mechatronic devices.
Introduction: Comparing with existing works, the design approach presented in this paper aims to integrate optimization in the design phase of complex mechatronic systems in order to increase the efficiency of this method.
Methods: To solve this problem, a novel mechatronic system design approach has been developed in order to take the multidisciplinary aspect and to consider optimization as a tool that can be used within the embodiment design process to build mechatronic solutions from a set of solution concepts designed with innovative or routine design methods.
Conclusions: This approach has then been applied to the design and optimization of a wind turbine system that can be implemented to autonomously supply a mountain cottage.
Die vorliegende Erfindung betrifft ein Verfahren zum digitalen Drucken einer Keramikfarbe auf einem Substrat, wobei die Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik mittels eines Laserstrahls simultan zu dem Aufbringen der Keramikfarbe auf ein Substrat mittels eines Druckkopfes erwärmt wird. Weiterhin betrifft die vorliegende Erfindung auch die Verwendung eines Laserstrahls in einer Vorrichtung zum digitalen Drucken einer Keramikfarbe auf einem Substrat, wobei der Laserstrahl die Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik simultan zu dem Aufbringen der Keramikfarbe auf ein Substrat mittels eines Druckkopfes der Vorrichtung erwärmt. Die vorliegende Erfindung betrifft weiterhin auch eine Vorrichtung zum digitalen Drucken einer Keramikfarbe auf einem Substrat, die einen Druckkopf zum Aufbringen einer Keramikfarbe auf ein Substrat sowie einen Laser zum Erwärmen der Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik mittels eines Laserstrahls umfasst.
Die vorliegende Erfindung betrifft ein Verfahren zum Pulverlackieren eines Kunststoff- oder Glasgegenstandes, umfassend die Schritte des Ausbildens einer polaren Beschichtung auf dem Kunststoff- oder Glasgegenstand, umfassend den Teilschritt des Aufbringens einer Beschichtungszusammensetzung auf den Kunststoff- oder Glasgegenstand, wobei die Beschichtungszusammensetzung ein Organosiloxan, das mindestens zwei Si-O-Bindungen aufweist, Wasser, ein organisches Lösemittel und ein pH-regulierendes Mittel, ausgewählt aus einer Brönsted-Säure, in einer katalytischen Menge enthält, mit der Maßgabe, dass die Beschichtungszusammensetzung keinen elektrisch leitfähigen Zusatz, ausgewählt aus ionischen Verbindungen, Metallen, Metall(misch)oxiden, intermetallischen Verbindungen und leitfähigem Kohlenstoff, enthält, sowie die Schritte des Aufbringens eines Pulverlacks auf den derartig beschichteten Kunststoff- oder Glasgegenstand und des Erwärmens des Pulverlacks.
Am Buffet des Lebens
(2017)
Im vorliegenden Beitrag wird ein Strommarktsimulationsmodell entwickelt, mit dessen Hilfe die Bereitstellung von Flexibilität auf dem Strom- und Regelleistungsmarkt in Deutschland modell-gestützt analysiert werden soll. Das Modell bildet dabei zwei parallel verlaufende, zentrale Wettbewerbsmärkte ab, an denen Akteure durch die individuelle Gebotsermittlung handeln können. Die entsprechend hierzu entwickelte Gebotslogik wird detailliert erläutert, wobei der Fokus auf der Flexibilität fossil-thermischer Kraftwerke liegt. In der anschließenden Gegen-überstellung mit realen Marktpreisen zeigt sich, dass die verwendete Methodik und die Ge-botslogik den bestehenden Markt und dessen Marktergebnis in geeigneter Form wiederspie-geln, wodurch zukünftig unterschiedlichste Flexibilitätsszenarien analysiert und Aussagen zu deren Auswirkungen auf den Markt und seine Akteure getroffen werden können.
Das Thema des Forschungsprojekts ist Digitaltechnik im Spannungsfeld von Freiheitsversprechen und Totalüberwachung. Das Projekt „futur iii“ ist nicht nur der Name, sondern zugleich der Logo und URL für Publikationen.
Dieses Projekt wird im intensiven Dialog und z.T. in Kooperationen mit Kolleginnen und Kollegen verschiedener Hochschulen und Bildungseinrichtungen realisiert. Das übergreifende Thema ist bereits seit dem letzten Forschungssemester 2010 die Veränderung des Web durch Kommerzialisierung und Monopolisierung sowie die kritisch-reflektierende Auseinandersetzung mit Digitaltechnik bzw. Geräten und Diensten unter besonderer Berücksichtigung der konkreten Technikfolgeabschätzung (TA) für den Einsatz digitaler Bildschirmmedien und -dienste im Kontext von Lehre und Lernen.
Kinder am Bildschirm
(2017)
Wenn in Studien über digitale Medien und Kinder berichtet wird, liegt der Fokus meist darauf, Kinder „fit für die digitale Zukunft“ zu machen. Welche Folgen eine zu frühe und nicht regulierte Nutzung von Bildschirmmedien bei Kindern und Jugendlichen haben kann, zeigt sich in den Praxen der Kinderärzte. Das Spektrum der zu behandelnden Erkrankungen und der Beratungsbedarf bei psychosozialen Problemen haben sich in den letzten Jahren grundlegend verändert, schreiben die Verantwortlichen der BLIKK-Studie.
Schriftliche Stellungnahme Lankau zu:
a) Dringlicher Antrag der Fraktion der FDP betreffend Hessen 4.0 – Agenda Digitales Hessen (Drucksache 19/4111)
b) Großen Anfrage der Abg. Eckert, Barth, Decker, Degen, Faeser, Frankenberger, Geis, Gremmels, Grüger, Lotz, Dr. Sommer, Weiß (SPD) und Fraktion betreffend Auswirkungen der Digitalisierung auf Arbeit und Wirtschaft in Hessen (Drucksache 19/2896) und
c) Antwort der Landesregierung auf die Große Anfrage der Abg. Eckert, Barth, Decker, Degen, Faeser, Frankenberger, Geis, Gremmels, Grüger, Lotz, Dr. Sommer, Weiß (SPD) und Fraktion betreffend Auswirkungen der Digitalisierung auf Arbeit und Wirtschaft in Hessen (Drucksache 19/4357)
Das könnte die Zukunft des Lernens sein: Ab 2036 werden Eltern einen virtuellen Lehrer bereits für ihre fünfjährigen Kinder abonnieren. Die Stimme des Computers wird uns durchs Leben begleiten, vom Kindergarten über Schule und Universität bis zur beruflichen Weiterbildung. Der Computer erkennt, was ein Schüler schon kann oder wo Nachholbedarf besteht. Wir werden uns als lernende Menschen neu erfinden … Solche und andere Dystopien über unser künftiges Leben und Lernen kann man etwa bei Fritz Breithaupt und seiner „Talking Method“ nachlesen. Doch: wollen wir so etwas?
Wenn man die Verlautbarungen aus dem Wissenschafts- und Kultusministerien verfolgt (oder den Beitrag von Saskia Esken in „Schule im Blickpunkt“ liest), scheint es für Bildungseinrichtungen nur noch ein Thema und nur noch ein Ziel zu geben: die Digitalisierung. Dabei reicht bereits die einfache Frage des „cui bono“ (wem nützt es), um zu zeigen: Die einzigen Nutznießer von Digitalagenda und Digitalpakt sind IT-Firmen – auf Kosten der Schülerinnen und Schüler, zu Lasten ihrer Selbständigkeit und damit ihrer Zukunftsperspektiven – und zum Schaden öffentlicher Bildungseinrichtungen.
Objectives: Speech recognition on the telephone poses a challenge for patients with cochlear implants (CIs) due to a reduced bandwidth of transmission. This trial evaluates a home-based auditory training with telephone-specific filtered speech material to improve sentence recognition. Design: Randomised controlled parallel double-blind. Setting: One tertiary referral centre. Participants: A total of 20 postlingually deafened patients with CIs. Main outcome measures: Primary outcome measure was sentence recognition assessed by a modified version of the Oldenburg Sentence Test filtered to the telephone bandwidth of 0.3-3.4 kHz. Additionally, pure tone thresholds, recognition of monosyllables and subjective hearing benefit were acquired at two separate visits before and after a home-based training period of 10-14 weeks. For training, patients received a CD with speech material, either unmodified for the unfiltered training group or filtered to the telephone bandwidth in the filtered group. Results: Patients in the unfiltered training group achieved an average sentence recognition score of 70.0%±13.6% (mean±SD) before and 73.6%±16.5% after training. Patients in the filtered training group achieved 70.7%±13.8% and 78.9%±7.0%, a statistically significant difference (P=.034, t10 =2.292; two-way RM ANOVA/Bonferroni). An increase in the recognition of monosyllabic words was noted in both groups. The subjective benefit was positive for filtered and negative for unfiltered training. Conclusions: Auditory training with specifically filtered speech material provided an improvement in sentence recognition on the telephone compared to training with unfiltered material.
The following contribution deals with the growth of cracks in low-cycle fatigue (LCF) and thermomechanical fatigue (TMF) tested specimens of Inconel 718 measured by using the replica method. The specimens are loaded with different strain rates. The material shows a significantly higher crack growth rate if the strain rate is decreased. Electron backscatter diffraction (EBSD) is adopted to identify the failure mechanism and the misorientation relationship of failed grain boundaries in secondary cracks. The analyzed cracks propagated mainly transgranular but also intergranular failure can be observed in some areas. It is found that grain boundaries with coincidence site lattice (CSL) boundary structure are generally less susceptible for intergranular failure than grain boundaries with random misorientation. For modeling the experimentally identified crack behavior an existing model for fatigue crack growth based on the mechanism of time dependent elastic–plastic crack tip blunting is enhanced to describe environmental effects based on the mechanism of oxygen diffusion at the crack tip. For the diffusion process the temperature dependent parabolic diffusion law is assumed. As a result, the time dependent cyclic crack tip opening displacement (DCTOD) is used as representative value to describe both mechanisms. Thus, most
of the included model parameters characterize the deformation behavior of the material and can be determined by independent material tests. With the determined material properties, the proposed model describes the experimentally measured crack growth curves very well. The model is validated based on predictions of the number of cycles to failure of LCF as well as in-phase and out-of-phase TMF tests in the temperature range between room temperature and 650 °C.
Cast iron materials are used as materials for cylinder heads for heavy duty internal combustion engines. These components must withstand severe cyclic mechanical and thermal loads throughout their service life. While high-cycle fatigue (HCF) is dominant for the material in the water jacket region, the combination of thermal transients with mechanical load cycles results in thermomechanical fatigue (TMF) of the material in the fire deck region, even including superimposed TMF and HCF loads. Increasing the efficiency of the engines directly leads to increasing combustion pressure and temperature and, thus, lower safety margins for the currently used cast iron materials or alternatively the need for superior cast iron materials. In this paper (Part I), the TMF properties of the lamellar graphite cast iron GJL250 and the vermicular graphite cast iron GJV450 are characterized in uniaxial tests and a mechanism-based model for TMF life prediction is developed for both materials. The model can be used to estimate the fatigue life of components by means of finite-element calculations (Part II of the paper) and supports engineers in finding the appropriate material and design. Furthermore, the effect of the elastic, plastic and creep properties of the materials on the fatigue life can be evaluated with the model. However, for a material selection also the thermophysical properties, controlling to a high level the thermal stresses in the component, must be considered. Hence, the need for integral concepts for material characterization and selection from a multitude of existing and soon-to-be developed cast iron materials is discussed.
The electrical field (E-field) of the biventricular (BV) stimulation is important for the success of cardiac resynchronization therapy (CRT) in patients with cardiac insufficiency and widened QRS complex.
The aim of the study was to model different pacing and ablation electrodes and to integrate them into a heart model for the static and dynamic simulation of BV stimulation and HF ablation in atrial fibrillation (AF).
The modeling and simulation was carried out using the electromagnetic simulation software CST. Five multipolar left ventricular (LV) electrodes, four bipolar right atrial (RA) electrodes, two right ventricular (RV) electrodes and one HF ablation catheter were modelled. A selection were integrated into the heart rhythm model (Schalk, Offenburg) for the electrical field simulation. The simulation of an AV node ablation at CRT was performed with RA, RV and LV electrodes and integrated ablation catheter with an 8 mm gold tip.
The BV stimulation were performed simultaneously at amplitude of 3 V at the LV electrode and 1 V at the RV electrode with a pulse width of 0.5 ms each. The far-field potential at the RA electrode tip was 32.86 mV and 185.97 mV at a distance of 1 mm from the RA electrode tip. AV node ablation was simulated with an applied power of 5 W at 420 kHz at the distal ablation electrode. The temperature at the catheter tip was 103.87 °C after 5 s ablation time and 37.61 °C at a distance of 2 mm inside the myocardium. After 15 s, the temperature was 118.42 °C and 42.13 °C.
Virtual heart and electrode models as well as the simulations of electrical fields and temperature profiles allow the static and dynamic simulation of atrial synchronous BV stimulation and HF ablation at AF and could be used to optimize the CRT and AF ablation.
Nachweise für die Stabilität von Regelkreisen, deren Stellgrößen an ihre Begrenzungen gelangen können und bei denen die Regler Integratoren oder andere dynamische Glieder sowie Anti-Windup-Maßnahmen enthalten, sind gewöhnlich sehr aufwändig zu führen. Bei PI-Zustandsreglern, die mittels der in [1] vorgestellten Methode in einem mehrstufigen Verfahren für Regelstrecken entworfen wurden, die bis auf die Stellgrößenbegrenzungen linear sind, lassen sich jedoch äußerst hilfreiche allgemeine Stabilitätsaussagen treffen, die den konkreten Stabilitätsnachweis für das Gesamtsystem– selbst unter Einbeziehung von Beobachtern – erheblich vereinfachen. Im vorliegenden Beitrag werden die diesbezüglichen, auf Steuerbarkeitsbetrachtungen beruhenden, Zusammenhänge für zeitdiskrete Regelkreise aufgezeigt sowie daraus exemplarisch mittels Ljapunow-Funktionen eine einfache Reglerformel für Zustandsregler abgeleitet, die auch im Begrenzungsfall stabil arbeiten. Ein Beispielaus der elektrischen Antriebstechnik illustriert die Anwendbarkeit der vorgestellten Methode.
A complete thermomechanical fatigue (TMF) life prediction methodology is developed for predicting the TMF life of cast iron cylinder heads for efficient heavy duty internal combustion engines. The methodology uses transient temperature fields as thermal loads for the non-linear structural finite-element analysis (FEA). To obtain reliable stress and strain histories in the FEA for cast iron materials, a time and temperature dependent plasticity model which accounts for viscous effects, non-linear kinematic hardening and tensioncompression asymmetry is required. For this purpose a unified elasto-viscoplastic Chaboche model coupled with damage is developed and implemented as a user material model (USERMAT) in the general purpose FEA program ANSYS. In addition, the mechanismbased DTMF model for TMF life prediction developed in Part I of the paper is extended to three-dimensional stress states under transient non-proportional loading conditions. The material properties of the plasticity model are determined for lamellar graphite cast iron GJL250 and vermicular graphite cast iron GJV450 from isothermal and non-isothermal uniaxial tests. The methodology is applied to obtain a TMF life prediction on two cast iron cylinder heads for heavy duty diesel engine applications made from both cast iron materials. It is shown that the life predictions using the developed methodology correlate very well with observed lives from two bench tests in terms of location as well as number of cycles to failure.
Warmumformwerkzeuge unterliegen während des Betriebes komplexen thermischen und mechanischen Beanspruchungen. In kritischen Bereichen können dadurch lokal Spannungen entstehen, die die Fließgrenze überschreiten. Bei der Serienproduktion führt dies zu zyklischen plastischen Verformungen und zur thermomechanischen Ermüdung, welche die Lebensdauer der Warmumformwerkzeuge maßgeblich bestimmen kann. Zur Bewertung der thermomechanischen Ermüdung der Warmumformwerkzeuge gibt es jedoch heute keine etablierten Konzepte, da dieser Aspekt erst durch die Notwendigkeit einer höheren Ressourcen- und Energieeffizienz und optimierter Produktionsprozesse (beispielsweise im Rahmen von Industrie 4.0) eine höhere Aufmerksamkeit erreicht. In dieser Arbeit wird zum einen die aktuell industriell angewandte Vorgehensweise zur Auslegung von Warmumformwerkzeugen hinsichtlich der Lebensdauer erläutert. Des Weiteren wird ein Überblick über existierende Plastizitätsmodelle und Lebensdauermodelle gegeben. Dabei wird zwischen rein phänomenologischen und mechanismenbasierten Modellen unterschieden. Aus der betriebenen Recherche wird ersichtlich, dass weiterer Forschungsbedarf auf diesem Gebiet notwendig ist.
Wer sich mit Digitalisierungsbestrebungen an Schulen befasst, stellt fest, dass die Tragweite der intendierten Transformation von Bildungseinrichtungen zu automatisierten Lernfabriken durch Digitaltechnik nur von Wenigen realisiert wird. Viele Beteiligte (wollen) glauben, es ginge nur um eine bessere technische Ausstattung der Lehreinrichtungen zur Unterstützung der Lehrkräfte – und übersehen, dass mit Kybernetik und Behaviorismus zwei den Menschen determinierende Theorien eine Renaissance erleben. Vertreter dieser Disziplinen glauben daran, dass sowohl der einzelne Mensch wie ganze Gesellschaften oder Sozialgemeinschaften wie ein Maschinenpark programmiert und gesteuert werden könne. Dabei werden Lernprozesse zu Akten der systematischen Selbstentmündigung umdefiniert: die Zurichtung der Lernenden auf abfragbare Kompetenzen mit Hilfe von Algorithmen und Software.
The ability to detect a target signal masked by noise is improved in normal-hearing listeners when interaural phase differences (IPDs) between the ear signals exist either in the masker or in the signal. To improve binaural hearing in bilaterally implanted cochlear implant (BiCI) users, a coding strategy providing the best possible access to IPDs is highly desirable. Outcomes of a previous study (Zirn, Arndt et al. 2016) revealed that a subset of BiCI users showed improved IPD detection thresholds with the fine structure processing strategy FS4 compared to the constant rate strategy HDCIS using narrowband stimuli. In contrast, little differences between the coding strategies were found for broadband stimuli with regard to binaural speech intelligibility level differences (BILD) as an estimate of binaural unmasking. Compared to normalhearing listeners (7.5 ± 1.2 dB) BILD were small in BiCI users (around 0.5 dB with both coding strategies).
In the present work, we investigated the influence of binaural fitting parameters on BILD. In our cohort of BiCI users many were implanted with electrode arrays differing in length left versus right. Because this length difference typically corresponded to the distance of two electrode contacts the first modification of bilateral fitting was a tonotopic adjustment by deactivation of the most apical electrode contact on the side with the deeper inserted array (tonotopic approach).
The second modification was the isolation of the residual, most apical electrode contacts by deactivation of the basally adjacent electrode contact on each side (tonotopic sparse approach). Applying these modifications, BILD improved by up to 1.5 dB.
Das normalhörende auditorische System ist in der Lage, interaurale Zeit- bzw. Phasendifferenzen zur verbesserten Signaldetektion im Störgeräusch zu nutzen. Dieses Phänomen wird häufig als binaurale Entmaskierung bezeichnet und ist sowohl bei einfachen Signalen wie Sinustönen, als auch bei Sprachsignalen im Störgeräusch wirksam. Vorangegangene Studien haben gezeigt, dass binaurale Entmaskierung eingeschränkt auch bei bilateralen CI-Trägern beobachtbar ist (Zirn et al., 2016).
Aktuelle Ergebnisse zeigen, dass die binaurale Entmaskierung sensitiv gegenüber der bilateralen CI-Anpassung ist. So lässt sich der Effekt durch tonotopen Abgleich und Herausstellen eines apikalen Feinstrukturkanals modulieren. Steigerungen der binauralen Entmaskierung um bis zu 1,5 dB sind auf diese Weise gegenüber der konventionellen CI-Anpassung möglich. Allerdings variiert der Einfluss der CI-Anpassung interindividuell erheblich.
Die drei großen Hersteller von Cochlea-Implantat (CI)-Systemen ermöglichen es klinischen Audiologen, die Mikrofoneigenschaften der meisten CI-Sprachprozessoren zu prüfen. Dazu können bei diesen Sprachprozessoren Monitorkopfhörer angeschlossen und das/die Mikrofon(e) inklusive eines Teils der Signalvorverarbeitung abgehört werden. Präzise Angaben dazu, mit welchen Stimuli, bei welchem Pegel und nach welchem Kriterium diese Prüfung stattfinden soll, machen die CI-Hersteller nicht. Auf Basis dieser Prüfung soll der Audiologe dann über die Funktion der Mikrofone und damit darüber entscheiden, ob der betreffende Sprachprozessor an den Hersteller eingeschickt wird oder nicht.
Zur Objektivierung der CI-Sprachprozessor-Mikrofon-Prüfung haben wir eine Testbox entwickelt, mit der alle abhörbaren aktuellen CI-Sprachprozessoren der drei großen Hersteller geprüft werden können. Die Box wurde im 3D-Druck-Verfahren hergestellt. Der zu prüfende Sprachprozessor wird in die Messbox eingehängt und über einen darin verbauten Lautsprecher mit definierten Prüfsignalen (Sinustöne unterschiedlicher Frequenz) beschallt. Das Mikrofonsignal wird über das Kabel der Monitorkopfhörer herausgeführt und mit einer Shifting- and Scaling-Schaltung in einen Spannungsbereich transformiert, der für die AD-Wandlung mit einem Mikrokontroller (ATmega1280 verbaut auf einem Arduino Mega) geeignet ist. Derselbe Mikrokontroller übernimmt über einen eigens gebauten DA-Wandler die Ausgabe der Sinustöne über den Lautsprecher. Signalaufnahme und –wiedergabe erfolgen mit jeweils 38,5 kHz Samplingrate. Der für jede Frequenz über mehrere Perioden des Prüfsignals ermittelte Effektivwert wird mit dem Effektivwert, der mit einem neuwertigen Referenzprozessor für diese Frequenz gemessen wurde, verglichen. Die Messergebnisse werden graphisch auf einem Display ausgegeben.
Derzeit läuft eine erste Datenerhebung mit in der Klinik subjektiv auffällig gewordenen CI-Sprachprozessoren, die anschließend in der Messbox untersucht werden. So sollen realistische Schwellen für kritische Abweichungen von den Referenz-Effektivwerten ermittelt werden. Im weiteren Verlauf sollen dann Hit und False Alarm-Raten der subjektiven Prüfung bestimmt werden.
Our university carries out various research projects. Among others, the project Schluckspecht is an interdisciplinary work on different ultra-efficient car concepts for international contests. Besides the engineering work, one part of the project deals with real-time data visualization. In order to increase the efficiency of the vehicle, an online monitoring of the runtime parameters is necessary. The driving parameters of the vehicle are transmitted to a processing station via a wireless network connection. We plan to use an augmented reality (AR) application to visualize different data on top of the view of the real car. By utilizing a mobile Android or iOS device a user can interactively view various real-time and statistical data. The car and its components are meant to be augmented by various additional information, whereby that information should appear at the correct position of the components. An engine e.g. could show the current rpm and consumption values. A battery on the other hand could show the current charge level. The goal of this paper is to evaluate different possible approaches, their suitability and to expand our application to other projects at our university.
Since their dawning, space communications have been among the strongest driving applications for the development of error correcting codes. Indeed, space-to-Earth telemetry (TM) links have extensively exploited advanced coding schemes, from convolutional codes to Reed-Solomon codes (also in concatenated form) and, more recently, from turbo codes to low-density parity-check (LDPC) codes. The efficiency of these schemes has been extensively proved in several papers and reports. The situation is a bit different for Earth-to-space telecommand (TC) links. Space TCs must reliably convey control information as well as software patches from Earth control centers to scientific payload instruments and engineering equipment onboard (O/B) spacecraft. The success of a mission may be compromised because of an error corrupting a TC message: a detected error causing no execution or, even worse, an undetected error causing a wrong execution. This imposes strict constraints on the maximum acceptable detected and undetected error rates.
In the course of the last few years, our students are becoming increasingly unhappy. Sometimes they stop attending lectures and even seem not to know how to behave correctly. It feels like they are getting on strike. Consequently, drop-out rates are sky-rocketing. The lecturers/professors are not happy either, adopting an “I-don’t-care” attitude.
An interdisciplinary, international team set in to find out: (1) What are the students unhappy about? Why is it becoming so difficult for them to cope? (2) What does the “I-don’t-care” attitude of professors actually mean? What do they care or not care about? (3) How far do the views of the parties correlate? Could some kind of mutual understanding be achieved?
The findings indicate that, at least at our universities, there is rather a long way to go from “Engineering versus Pedagogy” to “Engineering Pedagogy”.
Wie man die Vorlesung "Technische Mechanik 1 - Statik" für alle Beteiligten dynamisch gestaltet
(2017)
Lehrende nehmen vielfältige Veränderungen, insbesondere bei Studienanfängern wahr: Vorkenntnisse, Aufnahme- und Konzentrationsfähigkeit werden zunehmend heterogener. In der Vorlesung „Technische Mechanik 1“ wurde darauf konstruktiv reagiert, indem der Ablauf und die Struktur verändert wurden. Aufgaben und ihre Lösungen stehen im Mittelpunkt des Unterrichts. Neben der Lehrenden als aktiv Handelnde wird jeder Studierende im Lauf des Semesters in den Ablauf integriert und muss individuelle Lösungen der verteilten Aufgaben präsentieren. Im Vergleich entwickeln die Studierenden durch „Lernen am Modell“ dadurch ihre methodischen und fachlichen Fähigkeiten weiter. Um den Studierenden die Relevanz der behandelten Themenbereiche zu verdeutlichen wurden spezielle Aufgaben mit einem lebensweltlichem Bezug entwickelt. Befragungen zeigen, dass die Studierenden von den vielfältigen interaktiven Lernangeboten profitieren und die entwickelten Kompetenzen auch auf andere Lernsituationen übertragen.
Das Buch enthält Fallstudien zur deskriptiven und induktiven Statistik, welche auf die Bachelor-Ausbildung in der Betriebswirtschaft ausgerichtet sind. Für die fachlichen Grundlagen wird auf eine prägnante Liste einschlägiger Werke verwiesen. Ziel der Fallstudien ist es, den gesamten in einer Lehrveranstaltung erlernten Stoff adäquat anzuwenden. Hiermit soll ein fundiertes, nachhaltiges Gesamtverständnis erreicht und die Einübung von Transfers realisiert werden. Den Fallstudien liegen, zum Download vorgehaltene, realistische Datensets in einem Umfang zugrunde, der die Anwendung von Unterstützungssystemen erforderlich macht. Dazu ist die Verwendung von Microsoft Excel vorgesehen. In jeder Fallstudie werden sukzessive Lösungshinweise angeboten, um einen möglichst großen Lerneffekt zu erzielen. Das Lehrbuch richtet sich in erster Linie an Studierende in der Examensvorbereitung und kann auch als Klausurenkurs genutzt werden. Einzelne Fallstudien können aber auch veranstaltungsbegleitend zum Abschluss eines Themenbereiches, wie z. B. der deskriptiven Statistik bearbeitet werden.
Finding clusters in high dimensional data is a challenging research problem. Subspace clustering algorithms aim to find clusters in all possible subspaces of the dataset where, a subspace is the subset of dimensions of the data. But exponential increase in the number of subspaces with the dimensionality of data renders most of the algorithms inefficient as well as ineffective. Moreover, these algorithms have ingrained data dependency in the clustering process, thus, parallelization becomes difficult and inefficient. SUBSCALE is a recent subspace clustering algorithm which is scalable with the dimensions and contains independent processing steps which can be exploited through parallelism. In this paper, we aim to leverage, firstly, the computational power of widely available multi-core processors to improve the runtime performance of the SUBSCALE algorithm. The experimental evaluation has shown linear speedup. Secondly, we are developing an approach using graphics processing units (GPUs) for fine-grained data parallelism to accelerate the computation further. First tests of the GPU implementation show very promising results.
We present a two-dimensional (2D) planar chromatographic separation of estrogenic active compounds on RP-18 W (Merck, 1.14296) phase. A mixture of 8 substances was separated using a solvent mix consisting of hexane, ethyl acetate, acetone (55:15:10, v/v) in the first direction and of acetone and water (15:10, v/v) in the second direction. Separation was performed on an RP-18 W plate over a distance of 70 mm. This 2D-separation method can be used to quantify 17α-ethinylestradiol (EE2) in an effect-directed analysis, using the yeast strain Saccharomyces cerevisiae BJ3505. The test strain (according to McDonnell) contains the estrogen receptor. Its activation by estrogen active compounds is measured by inducing the reporter gene lacZ which encodes the enzyme β-galactosidase. This enzyme activity is determined on plate by using the fluorescent substrate MUG (4-methylumbelliferyl-β-d-galactopyranoside).
We present a two-dimensional (2D) planar chromatographic separation method for phytoestrogenic active compounds on RP-18 W (Merck, 1.14296) phase. It could be shown that an ethanolic extract of liquorice (Glycyrrhiza glabra) roots contains four phytoestrogenic active compounds. As solvent, in the first direction, the mix of hexane, ethyl acetate, and acetone (45:15:10, v/v) was used, and, in the second direction, that of acetone and water (15:10, v/v) was used. After separation, a modified yeast estrogen screen (YES) test was applied, using the yeast strain Saccharomyces cerevisiae BJ3505. The test strain (according to McDonnell) contains the estrogen receptor. Its activation by estrogen active compounds is measured by inducing the reporter gene lacZ which encodes the enzyme β-galactosidase. This enzyme activity is determined on plate by using the fluorescent substrate MUG (4-methylumbelliferyl-β-d-galactopyranoside). The enzyme can also hydrolyse X-β-Gal (5-bromo-4-chloro-3-indoxyl-β-d-galactopyranosid) into β-galactose and 5-bromo-4-chloro-3-indoxyl. The indoxyl compound is oxidized by oxygen forming the deep-blue dye 5,5β-dibromo-4,4β-dichloro-indigo which allows to detect phytoestrogenic activity more specific in the presence of native fluorescing compounds.
Kommentierung des Designrechts; Kommentierung des Markenrechts; Kommentierung des Urheberrechts
(2017)
eLetter zum Artikel "How hair can reveal a history" von Hanae Armitage & Nala Rogers, veröffentlicht in Science, Vol. 351, Issue 6278, Seite 1134 (doi.org/10.1126/science.351.6278.1134)
Musik und Neurophysiologie
(2017)
eLetter zum Artikel "Hybrid EEG/EOG-based brain/neural hand exoskeleton restores fully independent daily living activities after quadriplegia" von Surjo R. Soekadar et al., veröffentlicht in Science Robotics, Vol. 1, No. 1 (DOI: 10.1126/scirobotics.aag3296)
Nicht-invasives, nicht-ionisierendes funktionelles Neuroimaging mit räumlich und zeitlich hochauflösender Elektroenzephalographie oder Echtzeit-Naheinfrarotspektroskopie in Kombination mit modernen Robotorsystemen ist ein entscheidender Entwicklungsschritt auf dem Gebiet der Neuroprothetik und Brain-Machine-Interfaces. In der Medizintechnik an der Hochschule Offenburg wird hierzu geforscht.
The need to measure basic aerosol parameters has increased dramatically in the last decade. This is due mainly to their harmful effect on the environment and on public health. Legislation requires that particle emissions and ambient levels, workplace particle concentrations and exposure to them are measured to confirm that the defined limits are met and the public is not exposed to harmful concentrations of aerosols.
Die in dieser Arbeit vorgestellte Vorgehensweise erlaubt die Ortung von Schienenfahrzeugen in topologischen Karten allein mit Hilfe eines Wirbelstromsensorsystems (WSS). Zur Ortung primär erforderlich ist die Identifizierung des befahrenen Gleises selbst, wofür unterschiedliche in einer Karte gespeicherte Merkmale herangezogen werden sowie der zurückgelegte Weg, der durch Zählen der passierten Schwellen ermittelt wird. Diese Merkmale werden mittels eigens definierter, virtueller Sensoren aus dem Signal des WSS gewonnen und mittels einem Bayes’schen Formalismus mit den Referenzdaten aus der vorliegenden topologischen Karte abgeglichen. Diese auf virtuellen Sensoren basierende Vorgehensweise erlaubt eine Parallelisierung der Sensorsignalverarbeitung und eine flexible Einbindung von Sensoren in das Ortungssystem. Die Möglichkeit, Weichen mit einer Trefferquote von 99% zu detektieren, erlaubt die Verfolgung der Fahrzeugposition über die gesamte Fahrstrecke hinweg, unter alleiniger Verwendung der vom WSS gelieferten Messdaten.
Für die genaue Positionsbestimmung in Innenräumen, beispielsweise in Bahnhöfen oder Einkaufszentren, soll in dem beschriebenen Projekt untersucht werden, inwiefern lokale Magnetfelder genutzt werden können, um Genauigkeit und Robustheit zu erhöhen. Hierzu wird untersucht, ob und wie kostengünstige Magnetfeldsensoren und mobile Roboterplattformen genutzt werden können, um Karten zu erstellen, die eine spätere Navigation, beispielsweise mit Smartphones oder mit anderen mobilen Geräten.
BGH "kinox.to"
(2017)
In der Planungs- und Betriebspraxis herrscht im Bereich der Betriebsführung von thermisch aktivierten Bauteilsystemen und insbesondere der thermisch trägen Bauteilaktivierung noch große Unsicherheit. Trotz einer weiten Verbreitung dieser Systeme im Neubau von Nichtwohngebäuden hat sich bis heute keine einheitliche Betriebsführungsstrategie durchgesetzt. Vielmehr kritisieren Bauherren und Nutzer regelmäßig zu hohe bzw. niedrige Raumtemperaturen in den Übergangsjahreszeiten und bei Wetterwechsel sowie generell eine mangelhafte Regelbarkeit. Demgegenüber weisen Monitoringprojekte immer wieder einen hohen thermischen Komfort in diesen Gebäuden nach. Offensichtlich unterscheiden sich hier subjektiv empfundene Behaglichkeit und objektiv gemessener Komfort. Gleichzeitig sind Heiz- und Kühlkonzepte mit Flächentemperierung dann besonders energieeffizient, wenn das Regelkonzept auf deren thermische Trägheit angepasst ist. Eine gute Regelung gewährleistet also einen hohen thermischen Komfort und sorgt für einen möglichst niedrigen Energieeinsatz. Das Rechenverfahren mit Anlagenaufwandszahlen (in Anlehnung an DIN V 18599) bietet eine gute Möglichkeit, Anlagenkonzepte inklusive deren Betriebsführungsstrategie zu bewerten. Damit ist es möglich, eine auf das Gebäude angepasste Betriebsführungsstrategie für die Bauteilaktivierung zu finden und einheitlich zu bewerten.
Kein Mensch lernt digital
(2017)
Die IT-Industrie hat die Bildung als Geschäftsfeld seit vielen Jahren auf der Agenda. Wirtschaftsverbände und IT-Vertreter fordern unisono, Digitaltechnik und Programmiersprachen schon in der Grundschule zu unterrichten, damit die Schülerinnen und Schüler für die digitale Zukunft gerüstet seien. Dabei ist der Nutzen digitaler Medien im Unterricht nach wie vor fragwürdig.
Ralf Lankau entlarvt in diesem Buch die wirtschaftlichen Interessen der IT-Branche und ihrer Lobbyisten. Dabei geht er sowohl auf die wissenschaftlichen Grundlagen (Kybernetik, Behaviorismus) als auch auf die technischen Rahmenbedingungen von Netzen und Cloud-Computing ein, bevor er konkrete Vorschläge für einen reflektierten und verantwortungsvollen Umgang mit Digitaltechnik im Unterricht skizziert. Die These des Autors lautet: Wir müssen uns auf unsere pädagogische Aufgabe besinnen und (digitale) Medien wieder zu dem machen, was sie im strukturierten Präsenzunterricht sind: didaktische Hilfsmittel.
In this paper we show that a model-free approach to learn behaviors in joint space can be successfully used to utilize toes of a humanoid robot. Keeping the approach model-free makes it applicable to any kind of humanoid robot, or robot in general. Here we focus on the benefit on robots with toes which is otherwise more difficult to exploit. The task has been to learn different kick behaviors on simulated Nao robots with toes in the RoboCup 3D soccer simulator. As a result, the robot learned to step on its toe for a kick that performs 30% better than learning the same kick without toes.
Minderjährige genießen in diversen Rechtsgebieten zu Recht besonderen Schutz. Dazu gehören das allgemeine Vertragsrecht des Bürgerlichen Gesetzbuchs (BGB), das Lauterkeitsrecht des UWG1 und auch das Datenschutzrecht, wo dies in der Datenschutz-Grundverordnung (DS-GVO) ausdrücklich festgeschrieben wird. Der Beitrag diskutiert einige der relevanten Fragen.
EuGH "comtech"
(2017)
Interne Revision: Anforderungen an die Wirksamkeit – ein Vergleich von IDW EPS 983 und MaRisk
(2017)
Die vorliegende Erfindung betrifft ein Verfahren zum digitalen Drucken einer Keramikfarbe auf einem Substrat, wobei die Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik mittels eines Laserstrahls simultan zu dem Aufbringen der Keramikfarbe auf ein Substrat mittels eines Druckkopfes erwärmt wird. Weiterhin betrifft die vorliegende Erfindung auch die Verwendung eines Laserstrahls in einer Vorrichtung zum digitalen Drucken einer Keramikfarbe auf einem Substrat, wobei der Laserstrahl die Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik simultan zu dem Aufbringen der Keramikfarbe auf ein Substrat mittels eines Druckkopfes der Vorrichtung erwärmt. Die vorliegende Erfindung betrifft weiterhin auch eine Vorrichtung zum digitalen Drucken einer Keramikfarbe auf einem Substrat, die einen Druckkopf zum Aufbringen einer Keramikfarbe auf ein Substrat sowie einen Laser zum Erwärmen der Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik mittels eines Laserstrahls umfasst.
Im vorliegenden Bericht werden die Arbeiten und Ergebnisse der Hochschule Offenburg (HSOG) des Teilvorhabens 3 (TV3) dargestellt. Im Rahmen dieses Teilvorhabens war die HSOG direkt in das Teilprojekt 3 – berufsbegleitender Bachelorstudiengang Informatik/IT-Sicherheit – involviert. Für dieses Teilprojekt wurden Studieninhalte entwickelt und die Pilotierung für ausgewählte Jahrgänge durchgeführt.
In dieser Arbeit werden die außentemperaturgeführte Vorlauftemperaturregelung (Standard-TABS-Strategie), ein Verfahren das auf einer multiplen linearen Regression basiert (AMLR-Strategie) und ein Verfahren, das unter dem Obergriff der modellprädiktiven Regelung (MPC-Strategie) zusammengefasst werden kann, untersucht. Anhand der Simulationsergebnisse und des Integrationsaufwandes in die Gebäudeautomation des Seminargebäudes wurde eine Fokussierung auf die AMLR-Strategie vorgenommen.
Durch die fortschreitende Globalisierung der Märkte verschiebt sich der Schwerpunkt der Nachfrage nach Investitionsgütern deutlich in die Emerging Markets, welche mittelfristig an Bedeutung die stagnierenden westlichen Märkte übertreffen werden. In letzter Zeit zeichnet sich dabei eine konjunkturelle Erholung, ein sogenanntes Comeback, in diesen Schwellenländern ab. Im Mittelpunkt steht dabei vor allem auch Indien. Indien ist mittelfristig einer der größten Investitionsgütermärkte und damit ein erfolgversprechender Standort bei der im deutschen Maschinenbau notwendigen Internationalisierung. Allerdings sind deutsche Unternehmen in Indien auch mit Herausforderungen konfrontiert, die in der unternehmerischen Praxis oftmals zum Scheitern einer Markterschließung geführt haben. Vor diesem Hintergrund stellt sich die Frage nach denjenigen Faktoren, die den Erfolg einer Erschließung des indischen Marktes durch den deutschen Maschinenbau bestimmen.
Die Unternehmenslandschaft, nicht nur in Deutschland, sondern weltweit, wird aktuell gerade in all ihren Bereichen vor allem von der stetig wachsenden Welle der Digitalisierung nachhaltig geprägt. Die ganzen Auswirkungen davon in der Zukunft lassen sich im Augenblick oft noch nicht einmal ansatzweise erahnen. Das hier zu beobachtende Collingridge-Dilemma besteht darin, dass Wirkungen nicht leicht prognostiziert werden können, solange die betreffenden Technologien noch nicht ausreichend entwickelt und in Folge entsprechend weit verbreitet sind. Deren Gestalten beziehungsweise gewünschtes Ändern und Anpassen werden jedoch umso schwieriger, je intensiver die Technologien bereits verwurzelt sind. Die Digitalisierung stellt dabei nur einen, wenn auch wohl gravierendsten Aspekt derartiger Veränderungserscheinungen beziehungsweise -herausforderungen dar. Der Wandel des wirtschaftlichen und politischen Umfeldes auf globaler Ebene ist unumstritten. Zugleich ist eine zunehmende Komplexität festzustellen, die es erschwert, im Sinne einer verlässlichen Planung heute solide fundierte Entscheidungen für die zukünftige Entwicklung zu treffen.
Das vorliegende Arbeitspapier gibt einen Überblick über das Thema Web-Usability Optimierung und der nutzerorientierten Gestaltung von Internetpräsenzen. Aktuell gibt es weltweit mehr als 1,1 Milliarde Websites und über 3,5 Milliarden Internet Nutzer. Bei der hieraus resultierenden Informationsflut ist es für die Websitebetreiber eine besonders große Herausforderung, Informationen konzentriert zusammenzufassen, um benutzerfreundliche und nutzerorientierte Inhalte anzubieten. Ein zentraler Aspekt in diesem Zusammenhang ist die Web-Usability. Allerdings zeigt sich insbesondere bei kleinen und mittleren Unternehmen, dass diese häufig vernachlässigt wird. Merkmale für fehlende oder mangelnde Web-Usability lassen sich in verschiedene Kategorien einordnen. Dabei gibt es zum einen viele unstrukturierte Websites, die kaum einen Mehrwert für den Nutzer bieten und eine unübersichtliche Navigation aufweisen, die keine Orientierung bietet. Zum anderen hängen Usability-Probleme häufig mit einer fehlenden Informations-Architektur, hohen Ladezeiten, schlechter Zugänglichkeit sowie einer schlechten Suchfunktion zusammen. Ein zentrales Element der Usability ist die Ausrichtung der Inhalte an die Bedürfnisse der Zielgruppe. Häufig wird diesem Aspekt bei der Umsetzung lediglich geringe Aufmerksamkeit geschenkt. Mögliche Gründe für die fehlende Fokussierung auf Usability-Aspekte sind vielseitig: fehlende Zeit, geringes Budget, Komplexität, vernachlässigte Usability-Evaluierung sowie mangelnder Einsatz von Usability-Experten beim Relaunch oder Erstellen einer Website. Das Ziel des Arbeitspapieres ist es daher, zentrale Komponenten und Prozesse der Web-Usability aufzuzeigen und so einen Orientierungsrahmen zur Optimierung für Unternehmen zu schaffen. Ergänzt werden diese Ausführungen um einen umfangreichen Leitfaden, der Online frei verfügbar ist.
Die Nachrichtenübermittlung im professionellen Mobilfunk hat sich vom Analog- hin zum Digitalfunk entwickelt und dadurch die gesamte Arbeitsweise der Branche verändert. Wurde diese früher vom Handwerk geprägt, so geht es nun hauptsächlich noch um Programmierung und Beratung. Für die Unternehmen des professionellen Mobilfunks ergeben sich durch die vielen Veränderungen neue Risiken, welche Haftungsansprüche auslösen können. Dieses Arbeitspapier konzentriert sich auf Unternehmen des professionellen Mobilfunkhandels und speziell auf die hier weit verbreitete Gesellschaft mit beschränkter Haftung. Im Zuge der Digitalisierung und der damit einhergehenden weitreichenden Veränderungen in der Branche des professionellen Mobilfunkhandels hat der Geschäftsführer Entscheidungen zu treffen, welche mit Risiko behaftet sind und sogar den Fortbestand der Gesellschaft gefährden können. Um nicht gegen seine Rechte und Pflichten als Geschäftsführer zu verstoßen und einer persönlichen Haftung aus dem Weg zu gehen, sollen die auftretenden Risiken benannt und Wege aufgezeigt werden, diese zu minimieren bzw. ganz zu vermeiden. Geschäftsführer sind sich oftmals ihren persönlichen Haftungsrisiken nicht bewusst.
Das Projektvorhaben "Energienetzmanagement dezentraler KWK‐Anlagen mit diversen Verbraucherstrukturen", das vom Innovationsfonds der badenova AG & Co KG von Mai 2012 bis Juli 2016 unter der Fördernummer 2012‐09 gefördert wurde kann aus Sicht des Projektnehmers Hochschule Offenburg und seiner Partner Stadt Offenburg und G. und M. Zapf Energie GbR mbH als sehr erfolgreich umgesetztes Fördervorhaben bezeichnet werden. Während der ca. vier Jahre Projektlaufzeit konnten mehrere Reallabore geschaffen werden, die an die Eigenschaften eines Subnetzes in einem Smart Grid sehr nah herangeführt wurden. Alle Objekte bzw. Netzstrukturen verfügen über typische Komponenten eines Microgrids mit Energiequellen, Speichern und Senken. Auch wurde die Trigeneration als Netzvariante mit Strom‐ Wärme und Kältebereitstellung aufgegriffen und für Verteilnetzmodelle der Niederspannungsebene beschrieben. Ausgehend von einem Mikronetzmodell für jede Energieart kann hinter jeder Trafostation eine beliebig komplexe Energieversorgungsstruktur aufgespannt werden.
Battery degradation is a complex physicochemical process that strongly depends on operating conditions. We present a model-based analysis of lithium-ion battery degradation in a stationary photovoltaic battery system. We use a multi-scale multi-physics model of a graphite/lithium iron phosphate (LiFePO4, LFP) cell including solid electrolyte interphase (SEI) formation. The cell-level model is dynamically coupled to a system-level model consisting of photovoltaics (PV), inverter, load, grid interaction, and energy management system, fed with historic weather data. Simulations are carried out for two load scenarios, a single-family house and an office tract, over annual operation cycles with one-minute time resolution. As key result, we show that the charging process causes a peak in degradation rate due to electrochemical charge overpotentials. The main drivers for cell ageing are therefore not only a high state of charge (SOC), but the charging process leading towards high SOC. We also show that the load situation not only influences system parameters like self-sufficiency and self-consumption, but also has a significant impact on battery ageing. We assess reduced charge cut-off voltage as ageing mitigation strategy.
One of the practical bottlenecks associated with commercialization of lithium-air cells is the choice of an appropriate electrolyte that provides the required combination of cell performance, cyclability and safety. With the help of a two-dimensional multiphysics model, we attempt to narrow down the electrolyte choice by providing insights into the effect of the transport properties of electrolyte, electrode saturation (flooded versus gas diffusion), and electrode thickness on a single discharge performance of a lithium-air button cell cathode for five different electrolytes including water, ionic liquid, carbonate, ether, and sulfoxide. The 2D distribution of local current density and concentrations of electrochemically active species (O2 and Li+) in the cathode is also discussed w.r.t electrode saturation. Furthermore, the efficacy of species transport in the cathode is quantified by introducing two parameters, firstly, a transport efficiency that gives local insight into the distribution of mass transfer losses, and secondly, an active electrode volume that gives global insight into the cathode volume utilization at different current densities. A detailed discussion is presented toward understanding the design-induced performance limitations in a Li-air button cell prototype.
The DMFC is a promising option for backup power systems and for the power supply of portable devices. However, from the modeling point of view liquid-feed DMFC are challenging systems due to the complex electrochemistry, the inherent two-phase transport and the effect of methanol crossover. In this paper we present a physical 1D cell model to describe the relevant processes for DMFC performance ranging from electrochemistry on the surface of the catalyst up to transport on the cell level. A two-phase flow model is implemented describing the transport in gas diffusion layer and catalyst layer at the anode side. Electrochemistry is described by elementary steps for the reactions occurring at anode and cathode, including adsorbed intermediate species on the platinum and ruthenium surfaces. Furthermore, a detailed membrane model including methanol crossover is employed. The model is validated using polarization curves, methanol crossover measurements and impedance spectra. It permits to analyze both steady-state and transient behavior with a high level of predictive capabilities. Steady-state simulations are used to investigate the open circuit voltage as well as the overpotentials of anode, cathode and electrolyte. Finally, the transient behavior after current interruption is studied in detail.
Lithium-ion batteries show a complex thermo-electrochemical performance and aging behavior. This paper presents a modeling and simulation framework that is able to describe both multi-scale heat and mass transport and complex electrochemical reaction mechanisms. The transport model is based on a 1D + 1D + 1D (pseudo-3D or P3D) multi-scale approach for intra-particle lithium diffusion, electrode-pair mass and charge transport, and cell-level heat transport, coupled via boundary conditions and homogenization approaches. The electrochemistry model is based on the use of the open-source chemical kinetics code CANTERA, allowing flexible multi-phase electrochemistry to describe both main and side reactions such as SEI formation. A model of gas-phase pressure buildup inside the cell upon aging is added. We parameterize the model to reflect the performance and aging behavior of a lithium iron phosphate (LiFePO4, LFP)/graphite (LiC6) 26650 battery cell. Performance (0.1–10 C discharge/charge at 25, 40 and 60°C) and calendaric aging experimental data (500 days at 30°C and 45°C and different SOC) from literature can be successfully reproduced. The predicted internal cell states (concentrations, potential, temperature, pressure, internal resistances) are shown and discussed. The model is able to capture the nonlinear feedback between performance, aging, and temperature.
This book offers a compendium of best practices in game dynamics. It covers a wide range of dynamic game elements ranging from player behavior over artificial intelligence to procedural content generation. Such dynamics make virtual worlds more lively and realistic and they also create the potential for moments of amazement and surprise. In many cases, game dynamics are driven by a combination of random seeds, player records and procedural algorithms. Games can even incorporate the player’s real-world behavior to create dynamic responses. The best practices illustrate how dynamic elements improve the user experience and increase the replay value.
The book draws upon interdisciplinary approaches; researchers and practitioners from Game Studies, Computer Science, Human-Computer Interaction, Psychology and other disciplines will find this book to be an exceptional resource of both creative inspiration and hands-on process knowledge.