Refine
Year of publication
- 2017 (131) (remove)
Document Type
- Conference Proceeding (47)
- Bachelor Thesis (18)
- Working Paper (18)
- Article (unreviewed) (12)
- Article (reviewed) (8)
- Contribution to a Periodical (7)
- Report (7)
- Letter to Editor (5)
- Periodical Part (4)
- Master's Thesis (2)
- Part of a Book (1)
- Doctoral Thesis (1)
- Other (1)
Conference Type
- Konferenzartikel (24)
- Konferenz-Abstract (16)
- Konferenz-Poster (3)
- Konferenzband (2)
- Sonstiges (2)
Keywords
- CST (5)
- HF-Ablation (5)
- CRT (4)
- Social Media (4)
- RoboCup (3)
- Controlling (2)
- Dehnungsmessung (2)
- Energieversorgung (2)
- Energy Harvesting (2)
- Geschäftsmodell (2)
- IVD (2)
- Internet der Dinge (2)
- Low-Power (2)
- Lückenskript (2)
- Musik (2)
- TRIZ (2)
- Tablet (2)
- Zugversuch (2)
- 2D axi-symmetric (1)
- Adaptive Steuerung (1)
- Aktivierung (1)
- Algotithmus (1)
- Anhörung Hess. Landtag zum Thema DIGITALISIERUNG (19/4111; 192896; 194357) (1)
- Anhörung Hessischer Landtag Digitalisierung (1)
- Animation (1)
- Anti-Boykott-Regelung (1)
- Arbeitsrecht (1)
- BCM (1)
- BLIKK-Studie Medien (1)
- Bank (1)
- Battery (1)
- Blended Learning (1)
- Blockheizkraftwerke (1)
- Business Continuity Management (1)
- Business Impact Analyse (1)
- Button cell (1)
- Compliance (1)
- Compliance Due Diligence (1)
- Computerspiel (1)
- Corporate Governance (1)
- DMS (1)
- Digitalisierung (1)
- Digitalisierung als Heilslehre (1)
- Durchhaltevermögen (1)
- E-Learning (1)
- EPU (1)
- Effizient (1)
- Elastomere (1)
- Emerging Markets (1)
- Energienetzmanagement (1)
- Ergebnissicherung (1)
- FEM (1)
- FPGA (1)
- Finite-Elemente-Methode (1)
- Formzahlen (1)
- Funksensor (1)
- Funktion (1)
- Gehirn (1)
- Grenzformänderungsdiagramm (1)
- Götz von Berlichingen (1)
- Haaranalyse (1)
- Halbkreisnut (1)
- Heterogenität (1)
- Hirnschrittmacher (1)
- Hochschulrechnungswesen (1)
- Humanoid Robots (1)
- Induktive Abstandsmessung (1)
- Industrie 4.0 (1)
- Innovation (1)
- Innovationsmarketing (1)
- Integriertes Lernen (1)
- Interactive Documentary (1)
- Internet of Things (1)
- IoT (1)
- Ionic (1)
- JavaScript (1)
- KMU-Management (1)
- Kommunikationsinstrument (1)
- Kraft-Wärme-Kälte-Kopplung (1)
- Kraftmessung (1)
- Krisenkommunikation (1)
- Krisenmanagement (1)
- Kybernetik (1)
- LFP (1)
- LPWAN (1)
- Label (1)
- Lernkonzept (1)
- LiFePO4 (1)
- Lithium-air (1)
- Low Power Wide Area Networks (1)
- Machine Learning (1)
- Marketing (1)
- Media Ecology (1)
- Medienwirtschaft (1)
- Mehrfachkerbwirkung (1)
- Mikroelektronik (1)
- Mobile App (1)
- Mobilfunkhandel (1)
- Modeling (1)
- Modul (1)
- Multiple lineare Regressiomn (1)
- Musikwirtschaft (1)
- Neurophysiologie (1)
- Neurorobotik (1)
- Nutzerorientierung (1)
- Paganini, Niccolò (1)
- Performance (1)
- Polymer-Elektrolytmembran-Brennstoffzelle (1)
- Privatsphäre (1)
- Probengeometrie (1)
- Projectionmapping (1)
- Qualitätsmanagement (1)
- Querbohrung (1)
- Rechnungslegung (1)
- Rechtsrahmen (1)
- Regelparameter (1)
- Risikomanagement (1)
- Robotic Soccer (1)
- SEI (1)
- Schleudertrauma (1)
- Sensor-Netzwerk-Plattform (1)
- Smart Grid (1)
- Snapchat (1)
- Social Collaboration Plattform (1)
- Social Media Marketing (1)
- Social Video Marketing (1)
- Softcore (1)
- Sound (1)
- Spannungs-Dehnungs-Kurve (1)
- Spiel (1)
- Strategie (1)
- TABS Steuerung (1)
- TRIZ methodology (1)
- TRIZ, Knowledge-based innovation (1)
- Thermoaktives Bauteilsystem (1)
- Topology (1)
- UN-Kaufrecht (1)
- Unternehmens- und IT-Sicherheit (1)
- Unternehmenskrise (1)
- Verlagerung (1)
- Video (1)
- Videospiele (1)
- Virtual Reality (1)
- Wahlkampf (1)
- Web-Usability Optimierung (1)
- ageing (1)
- aging (1)
- biachsial (1)
- brain machine interface (1)
- brain-machine-interface (1)
- chemistry (1)
- computerspiele (1)
- cross hole (1)
- design methods (1)
- design process (1)
- emotionen (1)
- functional neuroimaging (1)
- games (1)
- hair analysis (1)
- hand prosthesis (1)
- lithium-ion battery (1)
- medical history (1)
- miniaturisiert (1)
- modeling and simulation (1)
- multi-scale (1)
- multiple notch-effective (1)
- musik (1)
- new product development (1)
- semicircular groove (1)
- signal averaging (1)
- stress concentration factors (1)
- technologischer Totalitarisms (1)
- videospiele (1)
- wavelet transformation (1)
- whiplash syndrome (1)
- zweiachsig (1)
- Öffentliche Rechnungslegung (1)
- Überlebensstrategien (1)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (46)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (39)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (36)
- INES - Institut für nachhaltige Energiesysteme (6)
- Fakultät Wirtschaft (W) (5)
- Zentrale Einrichtungen (3)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (3)
- Rektorat/Verwaltung (2)
- CRT - Campus Research & Transfer (1)
Open Access
- Open Access (131) (remove)
In this TDP we describe a new tool created for testing the strategy layer of our soccer playing agents. It is a complete 2D simulator that simulates the games based on the decisions of 22 agents. With this tool, debugging the decision and strategy layer of our agents is much more efficient than before due to various interaction methods and complete control over the simulation.
In the future, the tool could also serve as a measure to run simulations of game series much faster than with the 3D simulator. This way, the impact of different play strategies could be evaluated much faster than before.
Automatic Identification of Travel Locations in Rare Books - Object Oriented Information Management
(2017)
The digital content of the Internet is growing exponentially and mass digitization of printed media opens access to literature, in particular the genre of travel literature from the 18th and 19th century, which consists of diaries or travel books describing routes, observations or inspirations. The identification of described locations in the digital text is a long-standing challenge which requires information technology to supply dynamic links to sources by new forms of interaction and synthesis between humanistic texts and scientific observations.
Using object oriented information technology, a prototype of a software tool is developed which makes it possible to automatically identify geographic locations and travel routes mentioned in rare books. The information objects contain properties such as names and classification codes for populated places, streams, mountains and regions. Together, with the latitudes and longitudes of every single location, it is possible to geo-reference this information in order that all processed and filtered datasets can be displayed by a map application. This method has already been used in the Humboldt Digital Library to present Alexander von Humboldt’s maps and was tested in a case study to prove the correctness and reliability of the automatic identification of locations based on the work of Alexander von Humboldt and Johann Wolfgang von Goethe.
The results reveal numerous errors due to misspellings, change of location names, equality of terms and location names. But on the other hand it becomes very clear that results of the automatic object detection and recognition can be improved by error-free and comprehensive sources. As a result an increase in quality and usability of the service can be expected, accompanied by more options to detect unknown locations in the descriptions of rare books.
Technology and computer applications influence our daily lives and questions arise concerning the role of artificial intelligence and decision-making algorithms. There are warning voices, that computers can, in theory, emulate human intelligence-and exceed it. This paper points out that a replacement of humans by computers is unlikely, because human thinking is characterized by cognitive heuristics and emotions, which cannot simply be implemented in machines operating with algorithms, procedural data processing or artificial neural networks. However, we are going to share our responsibilities with superior computer systems, which are tracking and surveying all of our digital activities, whereas we have no idea of the decision-making processes inside the machines. It is shown that we need a new digital humanism defining rules of computer responsibilities to avoid digital totalism and comprehensive monitoring and controlling of individuals within the planet Earth.
Qualitative Wissenschaft, künstlerisches Forschen und forschendes Lernen verbinden Erkenntnis aus Praxis und Erfahrung. In der Autoethnographie der eigenen Werkstatt des Hörens wie der Kultur in Studios anderer, wird die noch neue Interdisziplin Sound (Studies) erprobt und vertieft, mit Impulsen für die Praxis und Theorie, von der noch wenig bekannten A/r/t ographie heute, hin zu einer künftig A/R/Tophonie, dem künstlerischen Forschen in der Musik, ebenso wie durch Klang Komposition, Radio Kunst und visuelle Musik.
Objective: This paper deals with the design and the optimization of mechatronic devices.
Introduction: Comparing with existing works, the design approach presented in this paper aims to integrate optimization in the design phase of complex mechatronic systems in order to increase the efficiency of this method.
Methods: To solve this problem, a novel mechatronic system design approach has been developed in order to take the multidisciplinary aspect and to consider optimization as a tool that can be used within the embodiment design process to build mechatronic solutions from a set of solution concepts designed with innovative or routine design methods.
Conclusions: This approach has then been applied to the design and optimization of a wind turbine system that can be implemented to autonomously supply a mountain cottage.
Im vorliegenden Beitrag wird ein Strommarktsimulationsmodell entwickelt, mit dessen Hilfe die Bereitstellung von Flexibilität auf dem Strom- und Regelleistungsmarkt in Deutschland modell-gestützt analysiert werden soll. Das Modell bildet dabei zwei parallel verlaufende, zentrale Wettbewerbsmärkte ab, an denen Akteure durch die individuelle Gebotsermittlung handeln können. Die entsprechend hierzu entwickelte Gebotslogik wird detailliert erläutert, wobei der Fokus auf der Flexibilität fossil-thermischer Kraftwerke liegt. In der anschließenden Gegen-überstellung mit realen Marktpreisen zeigt sich, dass die verwendete Methodik und die Ge-botslogik den bestehenden Markt und dessen Marktergebnis in geeigneter Form wiederspie-geln, wodurch zukünftig unterschiedlichste Flexibilitätsszenarien analysiert und Aussagen zu deren Auswirkungen auf den Markt und seine Akteure getroffen werden können.
Das Thema des Forschungsprojekts ist Digitaltechnik im Spannungsfeld von Freiheitsversprechen und Totalüberwachung. Das Projekt „futur iii“ ist nicht nur der Name, sondern zugleich der Logo und URL für Publikationen.
Dieses Projekt wird im intensiven Dialog und z.T. in Kooperationen mit Kolleginnen und Kollegen verschiedener Hochschulen und Bildungseinrichtungen realisiert. Das übergreifende Thema ist bereits seit dem letzten Forschungssemester 2010 die Veränderung des Web durch Kommerzialisierung und Monopolisierung sowie die kritisch-reflektierende Auseinandersetzung mit Digitaltechnik bzw. Geräten und Diensten unter besonderer Berücksichtigung der konkreten Technikfolgeabschätzung (TA) für den Einsatz digitaler Bildschirmmedien und -dienste im Kontext von Lehre und Lernen.
Kinder am Bildschirm
(2017)
Wenn in Studien über digitale Medien und Kinder berichtet wird, liegt der Fokus meist darauf, Kinder „fit für die digitale Zukunft“ zu machen. Welche Folgen eine zu frühe und nicht regulierte Nutzung von Bildschirmmedien bei Kindern und Jugendlichen haben kann, zeigt sich in den Praxen der Kinderärzte. Das Spektrum der zu behandelnden Erkrankungen und der Beratungsbedarf bei psychosozialen Problemen haben sich in den letzten Jahren grundlegend verändert, schreiben die Verantwortlichen der BLIKK-Studie.
Schriftliche Stellungnahme Lankau zu:
a) Dringlicher Antrag der Fraktion der FDP betreffend Hessen 4.0 – Agenda Digitales Hessen (Drucksache 19/4111)
b) Großen Anfrage der Abg. Eckert, Barth, Decker, Degen, Faeser, Frankenberger, Geis, Gremmels, Grüger, Lotz, Dr. Sommer, Weiß (SPD) und Fraktion betreffend Auswirkungen der Digitalisierung auf Arbeit und Wirtschaft in Hessen (Drucksache 19/2896) und
c) Antwort der Landesregierung auf die Große Anfrage der Abg. Eckert, Barth, Decker, Degen, Faeser, Frankenberger, Geis, Gremmels, Grüger, Lotz, Dr. Sommer, Weiß (SPD) und Fraktion betreffend Auswirkungen der Digitalisierung auf Arbeit und Wirtschaft in Hessen (Drucksache 19/4357)
Das könnte die Zukunft des Lernens sein: Ab 2036 werden Eltern einen virtuellen Lehrer bereits für ihre fünfjährigen Kinder abonnieren. Die Stimme des Computers wird uns durchs Leben begleiten, vom Kindergarten über Schule und Universität bis zur beruflichen Weiterbildung. Der Computer erkennt, was ein Schüler schon kann oder wo Nachholbedarf besteht. Wir werden uns als lernende Menschen neu erfinden … Solche und andere Dystopien über unser künftiges Leben und Lernen kann man etwa bei Fritz Breithaupt und seiner „Talking Method“ nachlesen. Doch: wollen wir so etwas?
Wenn man die Verlautbarungen aus dem Wissenschafts- und Kultusministerien verfolgt (oder den Beitrag von Saskia Esken in „Schule im Blickpunkt“ liest), scheint es für Bildungseinrichtungen nur noch ein Thema und nur noch ein Ziel zu geben: die Digitalisierung. Dabei reicht bereits die einfache Frage des „cui bono“ (wem nützt es), um zu zeigen: Die einzigen Nutznießer von Digitalagenda und Digitalpakt sind IT-Firmen – auf Kosten der Schülerinnen und Schüler, zu Lasten ihrer Selbständigkeit und damit ihrer Zukunftsperspektiven – und zum Schaden öffentlicher Bildungseinrichtungen.
The electrical field (E-field) of the biventricular (BV) stimulation is important for the success of cardiac resynchronization therapy (CRT) in patients with cardiac insufficiency and widened QRS complex.
The aim of the study was to model different pacing and ablation electrodes and to integrate them into a heart model for the static and dynamic simulation of BV stimulation and HF ablation in atrial fibrillation (AF).
The modeling and simulation was carried out using the electromagnetic simulation software CST. Five multipolar left ventricular (LV) electrodes, four bipolar right atrial (RA) electrodes, two right ventricular (RV) electrodes and one HF ablation catheter were modelled. A selection were integrated into the heart rhythm model (Schalk, Offenburg) for the electrical field simulation. The simulation of an AV node ablation at CRT was performed with RA, RV and LV electrodes and integrated ablation catheter with an 8 mm gold tip.
The BV stimulation were performed simultaneously at amplitude of 3 V at the LV electrode and 1 V at the RV electrode with a pulse width of 0.5 ms each. The far-field potential at the RA electrode tip was 32.86 mV and 185.97 mV at a distance of 1 mm from the RA electrode tip. AV node ablation was simulated with an applied power of 5 W at 420 kHz at the distal ablation electrode. The temperature at the catheter tip was 103.87 °C after 5 s ablation time and 37.61 °C at a distance of 2 mm inside the myocardium. After 15 s, the temperature was 118.42 °C and 42.13 °C.
Virtual heart and electrode models as well as the simulations of electrical fields and temperature profiles allow the static and dynamic simulation of atrial synchronous BV stimulation and HF ablation at AF and could be used to optimize the CRT and AF ablation.
Wer sich mit Digitalisierungsbestrebungen an Schulen befasst, stellt fest, dass die Tragweite der intendierten Transformation von Bildungseinrichtungen zu automatisierten Lernfabriken durch Digitaltechnik nur von Wenigen realisiert wird. Viele Beteiligte (wollen) glauben, es ginge nur um eine bessere technische Ausstattung der Lehreinrichtungen zur Unterstützung der Lehrkräfte – und übersehen, dass mit Kybernetik und Behaviorismus zwei den Menschen determinierende Theorien eine Renaissance erleben. Vertreter dieser Disziplinen glauben daran, dass sowohl der einzelne Mensch wie ganze Gesellschaften oder Sozialgemeinschaften wie ein Maschinenpark programmiert und gesteuert werden könne. Dabei werden Lernprozesse zu Akten der systematischen Selbstentmündigung umdefiniert: die Zurichtung der Lernenden auf abfragbare Kompetenzen mit Hilfe von Algorithmen und Software.
The ability to detect a target signal masked by noise is improved in normal-hearing listeners when interaural phase differences (IPDs) between the ear signals exist either in the masker or in the signal. To improve binaural hearing in bilaterally implanted cochlear implant (BiCI) users, a coding strategy providing the best possible access to IPDs is highly desirable. Outcomes of a previous study (Zirn, Arndt et al. 2016) revealed that a subset of BiCI users showed improved IPD detection thresholds with the fine structure processing strategy FS4 compared to the constant rate strategy HDCIS using narrowband stimuli. In contrast, little differences between the coding strategies were found for broadband stimuli with regard to binaural speech intelligibility level differences (BILD) as an estimate of binaural unmasking. Compared to normalhearing listeners (7.5 ± 1.2 dB) BILD were small in BiCI users (around 0.5 dB with both coding strategies).
In the present work, we investigated the influence of binaural fitting parameters on BILD. In our cohort of BiCI users many were implanted with electrode arrays differing in length left versus right. Because this length difference typically corresponded to the distance of two electrode contacts the first modification of bilateral fitting was a tonotopic adjustment by deactivation of the most apical electrode contact on the side with the deeper inserted array (tonotopic approach).
The second modification was the isolation of the residual, most apical electrode contacts by deactivation of the basally adjacent electrode contact on each side (tonotopic sparse approach). Applying these modifications, BILD improved by up to 1.5 dB.
Das normalhörende auditorische System ist in der Lage, interaurale Zeit- bzw. Phasendifferenzen zur verbesserten Signaldetektion im Störgeräusch zu nutzen. Dieses Phänomen wird häufig als binaurale Entmaskierung bezeichnet und ist sowohl bei einfachen Signalen wie Sinustönen, als auch bei Sprachsignalen im Störgeräusch wirksam. Vorangegangene Studien haben gezeigt, dass binaurale Entmaskierung eingeschränkt auch bei bilateralen CI-Trägern beobachtbar ist (Zirn et al., 2016).
Aktuelle Ergebnisse zeigen, dass die binaurale Entmaskierung sensitiv gegenüber der bilateralen CI-Anpassung ist. So lässt sich der Effekt durch tonotopen Abgleich und Herausstellen eines apikalen Feinstrukturkanals modulieren. Steigerungen der binauralen Entmaskierung um bis zu 1,5 dB sind auf diese Weise gegenüber der konventionellen CI-Anpassung möglich. Allerdings variiert der Einfluss der CI-Anpassung interindividuell erheblich.
Die drei großen Hersteller von Cochlea-Implantat (CI)-Systemen ermöglichen es klinischen Audiologen, die Mikrofoneigenschaften der meisten CI-Sprachprozessoren zu prüfen. Dazu können bei diesen Sprachprozessoren Monitorkopfhörer angeschlossen und das/die Mikrofon(e) inklusive eines Teils der Signalvorverarbeitung abgehört werden. Präzise Angaben dazu, mit welchen Stimuli, bei welchem Pegel und nach welchem Kriterium diese Prüfung stattfinden soll, machen die CI-Hersteller nicht. Auf Basis dieser Prüfung soll der Audiologe dann über die Funktion der Mikrofone und damit darüber entscheiden, ob der betreffende Sprachprozessor an den Hersteller eingeschickt wird oder nicht.
Zur Objektivierung der CI-Sprachprozessor-Mikrofon-Prüfung haben wir eine Testbox entwickelt, mit der alle abhörbaren aktuellen CI-Sprachprozessoren der drei großen Hersteller geprüft werden können. Die Box wurde im 3D-Druck-Verfahren hergestellt. Der zu prüfende Sprachprozessor wird in die Messbox eingehängt und über einen darin verbauten Lautsprecher mit definierten Prüfsignalen (Sinustöne unterschiedlicher Frequenz) beschallt. Das Mikrofonsignal wird über das Kabel der Monitorkopfhörer herausgeführt und mit einer Shifting- and Scaling-Schaltung in einen Spannungsbereich transformiert, der für die AD-Wandlung mit einem Mikrokontroller (ATmega1280 verbaut auf einem Arduino Mega) geeignet ist. Derselbe Mikrokontroller übernimmt über einen eigens gebauten DA-Wandler die Ausgabe der Sinustöne über den Lautsprecher. Signalaufnahme und –wiedergabe erfolgen mit jeweils 38,5 kHz Samplingrate. Der für jede Frequenz über mehrere Perioden des Prüfsignals ermittelte Effektivwert wird mit dem Effektivwert, der mit einem neuwertigen Referenzprozessor für diese Frequenz gemessen wurde, verglichen. Die Messergebnisse werden graphisch auf einem Display ausgegeben.
Derzeit läuft eine erste Datenerhebung mit in der Klinik subjektiv auffällig gewordenen CI-Sprachprozessoren, die anschließend in der Messbox untersucht werden. So sollen realistische Schwellen für kritische Abweichungen von den Referenz-Effektivwerten ermittelt werden. Im weiteren Verlauf sollen dann Hit und False Alarm-Raten der subjektiven Prüfung bestimmt werden.
Wie man die Vorlesung "Technische Mechanik 1 - Statik" für alle Beteiligten dynamisch gestaltet
(2017)
Lehrende nehmen vielfältige Veränderungen, insbesondere bei Studienanfängern wahr: Vorkenntnisse, Aufnahme- und Konzentrationsfähigkeit werden zunehmend heterogener. In der Vorlesung „Technische Mechanik 1“ wurde darauf konstruktiv reagiert, indem der Ablauf und die Struktur verändert wurden. Aufgaben und ihre Lösungen stehen im Mittelpunkt des Unterrichts. Neben der Lehrenden als aktiv Handelnde wird jeder Studierende im Lauf des Semesters in den Ablauf integriert und muss individuelle Lösungen der verteilten Aufgaben präsentieren. Im Vergleich entwickeln die Studierenden durch „Lernen am Modell“ dadurch ihre methodischen und fachlichen Fähigkeiten weiter. Um den Studierenden die Relevanz der behandelten Themenbereiche zu verdeutlichen wurden spezielle Aufgaben mit einem lebensweltlichem Bezug entwickelt. Befragungen zeigen, dass die Studierenden von den vielfältigen interaktiven Lernangeboten profitieren und die entwickelten Kompetenzen auch auf andere Lernsituationen übertragen.
eLetter zum Artikel "How hair can reveal a history" von Hanae Armitage & Nala Rogers, veröffentlicht in Science, Vol. 351, Issue 6278, Seite 1134 (doi.org/10.1126/science.351.6278.1134)
Musik und Neurophysiologie
(2017)
eLetter zum Artikel "Hybrid EEG/EOG-based brain/neural hand exoskeleton restores fully independent daily living activities after quadriplegia" von Surjo R. Soekadar et al., veröffentlicht in Science Robotics, Vol. 1, No. 1 (DOI: 10.1126/scirobotics.aag3296)
Nicht-invasives, nicht-ionisierendes funktionelles Neuroimaging mit räumlich und zeitlich hochauflösender Elektroenzephalographie oder Echtzeit-Naheinfrarotspektroskopie in Kombination mit modernen Robotorsystemen ist ein entscheidender Entwicklungsschritt auf dem Gebiet der Neuroprothetik und Brain-Machine-Interfaces. In der Medizintechnik an der Hochschule Offenburg wird hierzu geforscht.
Die in dieser Arbeit vorgestellte Vorgehensweise erlaubt die Ortung von Schienenfahrzeugen in topologischen Karten allein mit Hilfe eines Wirbelstromsensorsystems (WSS). Zur Ortung primär erforderlich ist die Identifizierung des befahrenen Gleises selbst, wofür unterschiedliche in einer Karte gespeicherte Merkmale herangezogen werden sowie der zurückgelegte Weg, der durch Zählen der passierten Schwellen ermittelt wird. Diese Merkmale werden mittels eigens definierter, virtueller Sensoren aus dem Signal des WSS gewonnen und mittels einem Bayes’schen Formalismus mit den Referenzdaten aus der vorliegenden topologischen Karte abgeglichen. Diese auf virtuellen Sensoren basierende Vorgehensweise erlaubt eine Parallelisierung der Sensorsignalverarbeitung und eine flexible Einbindung von Sensoren in das Ortungssystem. Die Möglichkeit, Weichen mit einer Trefferquote von 99% zu detektieren, erlaubt die Verfolgung der Fahrzeugposition über die gesamte Fahrstrecke hinweg, unter alleiniger Verwendung der vom WSS gelieferten Messdaten.
Für die genaue Positionsbestimmung in Innenräumen, beispielsweise in Bahnhöfen oder Einkaufszentren, soll in dem beschriebenen Projekt untersucht werden, inwiefern lokale Magnetfelder genutzt werden können, um Genauigkeit und Robustheit zu erhöhen. Hierzu wird untersucht, ob und wie kostengünstige Magnetfeldsensoren und mobile Roboterplattformen genutzt werden können, um Karten zu erstellen, die eine spätere Navigation, beispielsweise mit Smartphones oder mit anderen mobilen Geräten.
In this paper we show that a model-free approach to learn behaviors in joint space can be successfully used to utilize toes of a humanoid robot. Keeping the approach model-free makes it applicable to any kind of humanoid robot, or robot in general. Here we focus on the benefit on robots with toes which is otherwise more difficult to exploit. The task has been to learn different kick behaviors on simulated Nao robots with toes in the RoboCup 3D soccer simulator. As a result, the robot learned to step on its toe for a kick that performs 30% better than learning the same kick without toes.
Minderjährige genießen in diversen Rechtsgebieten zu Recht besonderen Schutz. Dazu gehören das allgemeine Vertragsrecht des Bürgerlichen Gesetzbuchs (BGB), das Lauterkeitsrecht des UWG1 und auch das Datenschutzrecht, wo dies in der Datenschutz-Grundverordnung (DS-GVO) ausdrücklich festgeschrieben wird. Der Beitrag diskutiert einige der relevanten Fragen.
Im vorliegenden Bericht werden die Arbeiten und Ergebnisse der Hochschule Offenburg (HSOG) des Teilvorhabens 3 (TV3) dargestellt. Im Rahmen dieses Teilvorhabens war die HSOG direkt in das Teilprojekt 3 – berufsbegleitender Bachelorstudiengang Informatik/IT-Sicherheit – involviert. Für dieses Teilprojekt wurden Studieninhalte entwickelt und die Pilotierung für ausgewählte Jahrgänge durchgeführt.
In dieser Arbeit werden die außentemperaturgeführte Vorlauftemperaturregelung (Standard-TABS-Strategie), ein Verfahren das auf einer multiplen linearen Regression basiert (AMLR-Strategie) und ein Verfahren, das unter dem Obergriff der modellprädiktiven Regelung (MPC-Strategie) zusammengefasst werden kann, untersucht. Anhand der Simulationsergebnisse und des Integrationsaufwandes in die Gebäudeautomation des Seminargebäudes wurde eine Fokussierung auf die AMLR-Strategie vorgenommen.
Durch die fortschreitende Globalisierung der Märkte verschiebt sich der Schwerpunkt der Nachfrage nach Investitionsgütern deutlich in die Emerging Markets, welche mittelfristig an Bedeutung die stagnierenden westlichen Märkte übertreffen werden. In letzter Zeit zeichnet sich dabei eine konjunkturelle Erholung, ein sogenanntes Comeback, in diesen Schwellenländern ab. Im Mittelpunkt steht dabei vor allem auch Indien. Indien ist mittelfristig einer der größten Investitionsgütermärkte und damit ein erfolgversprechender Standort bei der im deutschen Maschinenbau notwendigen Internationalisierung. Allerdings sind deutsche Unternehmen in Indien auch mit Herausforderungen konfrontiert, die in der unternehmerischen Praxis oftmals zum Scheitern einer Markterschließung geführt haben. Vor diesem Hintergrund stellt sich die Frage nach denjenigen Faktoren, die den Erfolg einer Erschließung des indischen Marktes durch den deutschen Maschinenbau bestimmen.
Die Unternehmenslandschaft, nicht nur in Deutschland, sondern weltweit, wird aktuell gerade in all ihren Bereichen vor allem von der stetig wachsenden Welle der Digitalisierung nachhaltig geprägt. Die ganzen Auswirkungen davon in der Zukunft lassen sich im Augenblick oft noch nicht einmal ansatzweise erahnen. Das hier zu beobachtende Collingridge-Dilemma besteht darin, dass Wirkungen nicht leicht prognostiziert werden können, solange die betreffenden Technologien noch nicht ausreichend entwickelt und in Folge entsprechend weit verbreitet sind. Deren Gestalten beziehungsweise gewünschtes Ändern und Anpassen werden jedoch umso schwieriger, je intensiver die Technologien bereits verwurzelt sind. Die Digitalisierung stellt dabei nur einen, wenn auch wohl gravierendsten Aspekt derartiger Veränderungserscheinungen beziehungsweise -herausforderungen dar. Der Wandel des wirtschaftlichen und politischen Umfeldes auf globaler Ebene ist unumstritten. Zugleich ist eine zunehmende Komplexität festzustellen, die es erschwert, im Sinne einer verlässlichen Planung heute solide fundierte Entscheidungen für die zukünftige Entwicklung zu treffen.
Das vorliegende Arbeitspapier gibt einen Überblick über das Thema Web-Usability Optimierung und der nutzerorientierten Gestaltung von Internetpräsenzen. Aktuell gibt es weltweit mehr als 1,1 Milliarde Websites und über 3,5 Milliarden Internet Nutzer. Bei der hieraus resultierenden Informationsflut ist es für die Websitebetreiber eine besonders große Herausforderung, Informationen konzentriert zusammenzufassen, um benutzerfreundliche und nutzerorientierte Inhalte anzubieten. Ein zentraler Aspekt in diesem Zusammenhang ist die Web-Usability. Allerdings zeigt sich insbesondere bei kleinen und mittleren Unternehmen, dass diese häufig vernachlässigt wird. Merkmale für fehlende oder mangelnde Web-Usability lassen sich in verschiedene Kategorien einordnen. Dabei gibt es zum einen viele unstrukturierte Websites, die kaum einen Mehrwert für den Nutzer bieten und eine unübersichtliche Navigation aufweisen, die keine Orientierung bietet. Zum anderen hängen Usability-Probleme häufig mit einer fehlenden Informations-Architektur, hohen Ladezeiten, schlechter Zugänglichkeit sowie einer schlechten Suchfunktion zusammen. Ein zentrales Element der Usability ist die Ausrichtung der Inhalte an die Bedürfnisse der Zielgruppe. Häufig wird diesem Aspekt bei der Umsetzung lediglich geringe Aufmerksamkeit geschenkt. Mögliche Gründe für die fehlende Fokussierung auf Usability-Aspekte sind vielseitig: fehlende Zeit, geringes Budget, Komplexität, vernachlässigte Usability-Evaluierung sowie mangelnder Einsatz von Usability-Experten beim Relaunch oder Erstellen einer Website. Das Ziel des Arbeitspapieres ist es daher, zentrale Komponenten und Prozesse der Web-Usability aufzuzeigen und so einen Orientierungsrahmen zur Optimierung für Unternehmen zu schaffen. Ergänzt werden diese Ausführungen um einen umfangreichen Leitfaden, der Online frei verfügbar ist.
Die Nachrichtenübermittlung im professionellen Mobilfunk hat sich vom Analog- hin zum Digitalfunk entwickelt und dadurch die gesamte Arbeitsweise der Branche verändert. Wurde diese früher vom Handwerk geprägt, so geht es nun hauptsächlich noch um Programmierung und Beratung. Für die Unternehmen des professionellen Mobilfunks ergeben sich durch die vielen Veränderungen neue Risiken, welche Haftungsansprüche auslösen können. Dieses Arbeitspapier konzentriert sich auf Unternehmen des professionellen Mobilfunkhandels und speziell auf die hier weit verbreitete Gesellschaft mit beschränkter Haftung. Im Zuge der Digitalisierung und der damit einhergehenden weitreichenden Veränderungen in der Branche des professionellen Mobilfunkhandels hat der Geschäftsführer Entscheidungen zu treffen, welche mit Risiko behaftet sind und sogar den Fortbestand der Gesellschaft gefährden können. Um nicht gegen seine Rechte und Pflichten als Geschäftsführer zu verstoßen und einer persönlichen Haftung aus dem Weg zu gehen, sollen die auftretenden Risiken benannt und Wege aufgezeigt werden, diese zu minimieren bzw. ganz zu vermeiden. Geschäftsführer sind sich oftmals ihren persönlichen Haftungsrisiken nicht bewusst.
Das Projektvorhaben "Energienetzmanagement dezentraler KWK‐Anlagen mit diversen Verbraucherstrukturen", das vom Innovationsfonds der badenova AG & Co KG von Mai 2012 bis Juli 2016 unter der Fördernummer 2012‐09 gefördert wurde kann aus Sicht des Projektnehmers Hochschule Offenburg und seiner Partner Stadt Offenburg und G. und M. Zapf Energie GbR mbH als sehr erfolgreich umgesetztes Fördervorhaben bezeichnet werden. Während der ca. vier Jahre Projektlaufzeit konnten mehrere Reallabore geschaffen werden, die an die Eigenschaften eines Subnetzes in einem Smart Grid sehr nah herangeführt wurden. Alle Objekte bzw. Netzstrukturen verfügen über typische Komponenten eines Microgrids mit Energiequellen, Speichern und Senken. Auch wurde die Trigeneration als Netzvariante mit Strom‐ Wärme und Kältebereitstellung aufgegriffen und für Verteilnetzmodelle der Niederspannungsebene beschrieben. Ausgehend von einem Mikronetzmodell für jede Energieart kann hinter jeder Trafostation eine beliebig komplexe Energieversorgungsstruktur aufgespannt werden.
One of the practical bottlenecks associated with commercialization of lithium-air cells is the choice of an appropriate electrolyte that provides the required combination of cell performance, cyclability and safety. With the help of a two-dimensional multiphysics model, we attempt to narrow down the electrolyte choice by providing insights into the effect of the transport properties of electrolyte, electrode saturation (flooded versus gas diffusion), and electrode thickness on a single discharge performance of a lithium-air button cell cathode for five different electrolytes including water, ionic liquid, carbonate, ether, and sulfoxide. The 2D distribution of local current density and concentrations of electrochemically active species (O2 and Li+) in the cathode is also discussed w.r.t electrode saturation. Furthermore, the efficacy of species transport in the cathode is quantified by introducing two parameters, firstly, a transport efficiency that gives local insight into the distribution of mass transfer losses, and secondly, an active electrode volume that gives global insight into the cathode volume utilization at different current densities. A detailed discussion is presented toward understanding the design-induced performance limitations in a Li-air button cell prototype.
Lithium-ion batteries show a complex thermo-electrochemical performance and aging behavior. This paper presents a modeling and simulation framework that is able to describe both multi-scale heat and mass transport and complex electrochemical reaction mechanisms. The transport model is based on a 1D + 1D + 1D (pseudo-3D or P3D) multi-scale approach for intra-particle lithium diffusion, electrode-pair mass and charge transport, and cell-level heat transport, coupled via boundary conditions and homogenization approaches. The electrochemistry model is based on the use of the open-source chemical kinetics code CANTERA, allowing flexible multi-phase electrochemistry to describe both main and side reactions such as SEI formation. A model of gas-phase pressure buildup inside the cell upon aging is added. We parameterize the model to reflect the performance and aging behavior of a lithium iron phosphate (LiFePO4, LFP)/graphite (LiC6) 26650 battery cell. Performance (0.1–10 C discharge/charge at 25, 40 and 60°C) and calendaric aging experimental data (500 days at 30°C and 45°C and different SOC) from literature can be successfully reproduced. The predicted internal cell states (concentrations, potential, temperature, pressure, internal resistances) are shown and discussed. The model is able to capture the nonlinear feedback between performance, aging, and temperature.
The present-day methods of numerical simulation offer a great variety of options for optimizing metal forming processes. Although it is possible to simulate complex forming processes, the results are typically available only as 2D projections on screens. Some forming processes have reached a level of complexity beyond the level of spatial sense, which makes it necessary to use physical 3D representations to develop a deeper understanding of the material flow, microstructural processes, process and design limits, or to design the required tooling. Physical 3D models can be produced in a short amount of time using 3D printing, and indexed with a wide range of colors. In this paper, the additive manufacturing of 3D color models based on simulation results are explored by means of examples from metal forming. Different 3D-printing processes are compared on the basis of quality as well as technical and economic criteria. Other examples from the fields joining by upset-bulging of tubes and microstructure simulation are also analyzed. This paper discusses the possibilities offered by the rapid progress and wide availability of 3D printers for the design and optimization of complex metal forming processes.
Architecture models are an essential component of the development process and enable a physical representation of virtual designs. In addition to the conventional methods of model production using the machining of models made of wood, metal, plastic or glass, a number of additive manufacturing processes are now available. These new processes enable the additive manufacturing of architectural models directly from CAAD or BIM data. However, the boundary conditions applicable to the ability to manufacture models with additive manufacturing processes must also be considered. Such conditions include the minimum wall thickness, which depends on the applied additive manufacturing process and the materials used. Moreover, the need for the removal of support structures after the additive manufacturing process must also be considered. In general, a change in the scale of these models is only possible at very high effort. In order to allow these restrictions to be adequately incorporated into the CAAD model, this contribution develops a parametrized CAAD model that allows such boundary conditions to be modified and adapted while complying with the scale. Usability of this new method is illustrated and explained in detail in a case study. In addition, this article addresses the additive manufacturing processes including subsequent post-processing.
Implementation of lightweight design in the product development process of unmanned aerial vehicles
(2017)
The development and manufacturing of unmanned aerial vehicles (UAVs) require a multitude of design rules. Thereby, additive manufacturing (AM) processes provide a number of significant advantages over conventional production methods, particularly for implementing requirements with regard to lightweight construction and sustainability. A new, promising approach is presented, with which, through the combination of very light structural elements with a ribbed construction, an attached covering by means of foil is used. This contribution develops and presents a development process that is based on various development cycles. Such cycles differ in their effort and scope within the overall development, and may only comprise one part of the development process, or the entire development process. The applicability of this development process is demonstrated within the framework of a comprehensive case study. The aim is to develop an additively manufactured product that is as light as possible in the form of a UAV, along with a sustainable manufacturing process for such product. Finally, the results of this case study are analyzed with regard to the improvement of lightweight construction.
Viele hochbeanspruchte Bauteile müssen zur Erfüllung ihres konstruktiven Zwecks mit Durchdringungskerben versehen werden. Infolge der gegenseitigen Wechselwirkung gelten für die Kerbwirkung dieser Art von Mehrfachkerben andere Gesetzmäßigkeiten als bei Einzelkerben. Die Weiterentwicklung der Lehre von der Tragfähigkeitsberechnung höchstbeanspruchter Maschinenelemente macht es notwendig, sich mit der Durchdringungskerbwirkung eingehend zu befassen. Thum und Svenson [1] entwickelten im Jahr 1949 ein Näherungsverfahren zur Abschätzung der Formzahl an einem zugbelasteten Stab mit Durchdringungskerben. In vielen Lehrbüchern findet dieses Verfahren Anwendung. Aus heutiger Sicht erscheint die Eignung der aus diesem Ansatz erzielten Ergebnisse als dringend überprüfungswürdig. Das thum’sche Verfahren wird unter die Lupe genommen. Der hier vorliegende Beitrag präsentiert mit Hilfe der Finiten-Elemente-Methode (FEM) neue Untersuchungsergebnisse an zugbeanspruchten Stäben mit Halbkreisnut und überlagerter Querbohrung. Diese ergaben, dass die Berechnung nach [1] Lücken aufweist. Ihr Ansatz stellt für den heutigen Entwicklungsstand eine mit zu großen Abweichungen behaftete Näherungshypothese dar.
The paper is addressing the needs of the universities regarding qualification of students as future R&D specialists in efficient techniques for successfully running innovation process. In comparison with the engineers, the students often demonstrate lower motivation in learning systematic inventive techniques, like for example TRIZ methodology, and prefer random brainstorming for idea generation. The quality of obtained solutions also depends on the level of completeness of the problem analysis, which is more complex and time consuming in the case of interdisciplinary systems. The paper briefly describes one-semester-course of 60 hours in new product development with the Advanced Innovation Design Approach and TRIZ methodology, in which a typical industrial innovation process for one selected interdisciplinary mechatronic product is modelled.
Background: The electrical field (E-field) of the biventricular (BV) stimulation is important for the success of cardiac resynchronization therapy (CRT) in patients with cardiac insufficiency and widened QRS complex. The 3D modeling allows the simulation of CRT and high frequency (HF) ablation.
Purpose: The aim of the study was to model different pacing and ablation electrodes and to integrate them into a heart model for the static and dynamic simulation of atrial and BV stimulation and high frequency (HF) ablation in atrial fibrillation (AF).
Methods: The modeling and simulation was carried out using the electromagnetic simulation software CST (CST Darmstadt). Five multipolar left ventricular (LV) electrodes, one epicardial LV electrode, four bipolar right atrial (RA) electrodes, two right ventricular (RV) electrodes and one HF ablation catheter were modeled. Selected electrodes were integrated into the Offenburg heart rhythm model for the electrical field simulation. The simulation of an AV node ablation at CRT was performed with RA, RV and LV electrodes and integrated ablation catheter with an 8 mm gold tip.
Results: The right atrial stimulation was performed with an amplitude of 1.5 V with a pulse width of 0.5. The far-field potentials generated by the atrial stimulation were perceived by the right and left ventricular electrode. The far-field potential at a distance of 1 mm from the right ventricular electrode tip was 36.1 mV. The far-field potential at a distance of 1 mm from the left ventricular electrode tip was measured with 37.1 mV. The RV and LV stimulation were performed simultaneously at amplitude of 3 V at the LV electrode and 1 V at the RV electrode with a pulse width of 0.5 ms each. The far-field potentials generated by the BV stimulations could be perceived by the RA electrode. The far-field potential at the RA electrode tip was 32.86 mV. AV node ablation was simulated with an applied power of 5 W at 420 kHz and 10 W at 500 kHz at the distal 8 mm ablation electrode.
Conclusions: Virtual heart and electrode models as well as the simulations of electrical fields and temperature profiles allow the static and dynamic simulation of atrial synchronous BV stimulation and HF ablation at AF. The 3D simulation of the electrical field and temperature profile may be used to optimize the CRT and AF ablation.
Process engineering focuses on the design, operation, control and optimization of chemical, physical and biological processes and has applications in many industries. Process Intensification is the key development approach in the modern process engineering. The proposed Advanced Innovation Design Approach (AIDA) combines the holistic innovation process with the systematic analytical and problem solving tools of the theory of inventive problem solving TRIZ. The present paper conceptualizes the AIDA application in the field of process engineering and especially in combination with the Process Intensification. It defines the AIDA innovation algorithm for process engineering and describes process mapping, problem ranking, and concept design techniques. The approach has been validated in several industrial case studies. The presented research work is a part of the European project “Intensified by Design® platform for the intensification of processes involving solids handling”.
The collection of selected papers of the TRIZ Future Conference 2017 is in open access and is included to the Innovator, the journal of the European TRIZ Assocation.
Spectral analysis of signal averaging electrocardiography in atrial and ventricular tachyarrhythmias
(2017)
Background: Targeting complex fractionated atrial electrograms detected by automated algorithms during ablation of persistent atrial fibrillation has produced conflicting outcomes in previous electrophysiological studies. The aim of the investigation was to evaluate atrial and ventricular high frequency fractionated electrical signals with signal averaging technique.
Methods: Signal averaging electrocardiography (ECG) allows high resolution ECG technique to eliminate interference noise signals in the recorded ECG. The algorithm uses automatic ECG trigger function for signal averaged transthoracic, transesophageal and intracardiac ECG signals with novel LabVIEW software (National Instruments, Austin, Texas, USA). For spectral analysis we used fast fourier transformation in combination with spectro-temporal mapping and wavelet transformation for evaluation of detailed information about the frequency and intensity of high frequency atrial and ventricular signals.
Results: Spectral-temporal mapping and wavelet transformation of the signal averaged ECG allowed the evaluation of high frequency fractionated atrial signals in patients with atrial fibrillation and high frequency ventricular signals in patients with ventricular tachycardia. The analysis in the time domain evaluated fractionated atrial signals at the end of the signal averaged P-wave and fractionated ventricular signals at the end of the QRS complex. The analysis in the frequency domain evaluated high frequency fractionated atrial signals during the P-wave and high frequency fractionated ventricular signals during QRS complex. The combination of analysis in the time and frequency domain allowed the evaluation of fractionated signals during atrial and ventricular conduction.
Conclusions: Spectral analysis of signal averaging electrocardiography with novel LabVIEW software can utilized to evaluate atrial and ventricular conduction delays in patients with atrial fibrillation and ventricular tachycardia. Complex fractionated atrial electrograms may be useful parameters to evaluate electrical cardiac arrhythmogenic signals in atrial fibrillation ablation.
Heart rhythm model and simulation of electrophysiological studies and high-frequency ablations
(2017)
Background: Target of the study was to create an accurate anatomic CAD heart rhythm model, and to show its usefulness for cardiac electrophysiological studies and high-frequency ablations. The method is more careful for the patients’ health and has the potential to replace clinical studies due to its high efficiency regarding time and costs.
Methods: All natural heart components of the new HRM were based on MRI records, which guaranteed electronic functionality. The software CST was used for the construction, while CST’s material library assured genuine tissue properties. It should be applicable to simulate different heart rhythm diseases as well as various diffusions of electromagnetic fields, caused by electrophysiological conduction, inside the heart tissue.
Results: It was achievable to simulate sinus rhythm and fourteen different heart rhythm disturbance with different atrial and ventricular conduction delays. The simulated biological excitation of healthy and sick HRM were plotted by simulated electrodes of four polar right atrial catheter, six polar His bundle catheter, ten polar coronary sinus catheter, four polar ablation catheter and eight polar transesophageal left cardiac catheter. Accordingly, six variables were rebuilt and inserted into the anatomic HRM in order to establish heart catheters for ECG monitoring and HF ablation. The HF ablation catheters made it possible to simulate various types of heart rhythm disturbance ablations with different HF ablation catheters and also showed a functional visualisation of tissue heating. The use of tetrahedral meshing HRM made it attainable to store the results faster accompanied by a higher degree of space saving. The smart meshing function reduced unnecessary high resolutions for coarse structures.
Conclusions: The new HRM for EPS simulation may be additional useful for simulation of heart rhythm disturbance, cardiac pacing, HF ablation and for locating and identification of complex fractioned signals within the atrium during atrial fibrillation HF ablation.
Die Entwicklung von neuartigen Elektrodentypen und die Weiterentwicklung bestehender Produkten machen einen großen Teil der entstehenden Kosten für ein Unternehmen aus. Mithilfe geeigneter Software können Änderungen der Konstruktionen erfasst und bestimmte Simulationen, bspw. das Auftreten von Wechselwirkungen im elektrischen Feld, vor der eigentlichen Prototypenerstellung durchgeführt werden. Das Ziel der Studie besteht in der Modellierung unterschiedlicher Schrittmacher- und Ablationselektroden und deren Integration in das Offenburger Herzrhythmusmodell (HRM) zur statischen und dynamischen Simulation der biventrikulären Stimulation und HF Ablation bei Vorhofflimmern (AF).
Die Simulation komplexer kardialer Strukturen und kardialer Elektroden ist von Bedeutung für die Optimierung langatmiger und kostspieliger klinischer Studien. Das Risiko der Patientengefährdung wird durch diese Methode auf ein Minimum reduziert. Das Ziel der Studie besteht im Entwurf eines anatomisch korrekten 3D CAD Herzrhythmusmodells (HRM) zur Simulation von elektrophysiologischen Untersuchungen (EPU) und Hochfrequenz-(HF-)Ablationen.
Background: Cardiac resynchronization therapy (CRT) with biventricular (BV) pacing is an established therapy for heart failure (HF) patients (P) with sinus rhythm, reduced left ventricular (LV) ejection fraction (EF) and electrical ventricular desynchronization. The aim of the study was to evaluate electrical interventricular delay (IVD) and left ventricular delay (LVD) in right ventricular (RV) pacemaker pacing before upgrading to CRT BV pacing.
Methods: HF P (n=11, age 69.0 ± 7.9 years, 1 female, 10 males) with DDD pacemaker (n=10), DDD defibrillator (n=1), RV pacing, New York Heart Association (NYHA) class 3.0 ± 0.2 and 24.5 ± 4.9 % LVEF were measured by surface ECG and transesophageal bipolar LV ECG before upgrading to CRT defibrillator (n=8) and CRT pacemaker (n=3). IVD was measured between onset of QRS in the surface ECG and onset of LV signal in the transesophageal ECG. LVD was measured between onset and offset of LV signal in the transesophageal ECG. CRT atrioventricular (AV) and BV pacing delay were optimized by impedance cardiography.
Results: Interventricular and intraventricular desynchronization in RV pacemaker pacing were 228.2 ± 44.8 ms QRS duration, 86.5 ± 32.8ms IVD, 94.4 ± 23.8ms LVD, 2.6 ± 0.8 QRS-IVD-ratio with correlation between IVD and QRS-IVD-ratio (r=-0.668 P=0.0248) and 2.3 ± 0.7 QRS-LVD-ratio. The LVEF-IVD-ratio was 0.3 ± 0.1 with correlation between IVD and LVEF-IVD-ratio (r=-0.8063 P=0.00272) and with correlation between QRS duration and LVEF-IVD-ratio (r=-0.7251 P=0.01157). Optimal sensing and pacing AV delay were 128.3 ± 24.8 ms AV delay after atrial sensing (n=6) and 173.3 ± 40.4 ms AV delay after atrial pacing (n=3). Optimal BV pacing delay was -4.3 ± 11.3 ms between LV and RV pacing (n=7). During 30.4 ± 29.6 month CRT follow-up, the NYHA class improved from 3.1 ± 0.2 to 2.2 ± 0.3.
Conclusions: Transesophageal electrical IVD and LVD in RV pacemaker pacing may be additional useful ventricular desynchronization parameters to improve P selection for upgrading RV pacemaker pacing to CRT BV pacing.
Electrochemical impedance spectroscopy (EIS) is a widely-used diagnostic technique to characterize electrochemical processes. It is based on the dynamic analysis of two electrical observables, that is, current and voltage. Electrochemical cells with gaseous reactants or products (e.g., fuel cells, metal/air cells, electrolyzers) offer an additional observable, that is, the gas pressure. The dynamic coupling of current and/or voltage with gas pressure gives rise to a number of additional impedance definitions, for which we have introduced the term electrochemical pressure impedance spectroscopy (EPIS) [1,2]. EPIS shows a particular sensitivity towards transport processes of gas-phase or dissolved species, in particular, diffusion coefficients and transport pathway lengths. It is as such complementary to standard EIS, which is mainly sensitive towards electrochemical processes. This sensitivity can be exploited for model parameterization and validation. A general analysis of EPIS is presented, which shows the necessity of model-based interpretation of the complex EPIS shapes in the Nyquist plot (cf. Figure). We then present EPIS simulations for two different electrochemical cells: (1) a sodium/oxygen battery cell and (2) a hydrogen/air fuel cell. We use 1D or 2D electrochemical and transport models to simulate current excitation/pressure detection or pressure excitation/voltage detection. The results are compared to first EPIS experimental data available in literature [2,3].
Simulation-based degradation assessment of lithium-ion batteries in a hybrid electric vehicle
(2017)
The insufficient lifetime of lithium-ion batteries is one of the major cost driver for mobile applications. The battery pack in vehicles is one of the most expensive single components that practically must be excluded from premature replacement (i.e., before the life span of the other components end). Battery degradation is a complex physicochemical process that strongly depends on operating condition and environment. We present a simulation-based analysis of lithium-ion battery degradation during operation with a standard PHEV test cycle. We use detailed multiphysics (extended Newman-type) cell models that allow the assessment of local electrochemical potential, species and temperature distributions as driving forces for degradation, including solid electrolyte interphase (SEI) formation [1]. Fig. 1 shows an exemplary test cycle and the predicted resulting spatially-averaged SEI formation rate. We apply a time-upscaling approach to extrapolate the degradation analysis over long time scales, keeping physical accuracy while allowing end-of-life assessment [2]. Results are presented for lithium-ion battery cells with graphite/LFP chemistry. The behavior of these cells in terms of degradation propensity, performance, state of charge and other internal states is predicted during long-term cycling. State of health (SOH) is quantified as capacity fade and internal resistance increase as function of operation time.
Practical bottlenecks associated with commercialization of Lithium-air cells include capacity limitation and low cycling efficiency. The origin of such losses can be traced to complex electrochemical side reactions and reactant mass transport losses[1]. The efforts to minimize such losses include exploration of various electrolytes with additives[2], and cell component geometry and material design. Given the wide range of options for such materials, it is almost impractical to experimentally setup and characterize all those cells. Consequently, modeling and simulation studies are efficient alternatives to analyze spatially and temporally resolved cell behavior for various combinations of materials[3]. In this study, with the help of a two-dimensional multi physics model, we have focused on the effect of electrode and electrolyte interaction (electrochemistry), choice of electrolyte (species transport), and electrode geometry (electrode design) on the performance of a lithium-air button cell. Figure1a shows the schematics of the 2D axisymmetric computational domain. A comparative analysis of five different electrolytes was performed while focusing on the 2D distribution of local current density and the concentration of electro-chemically active species in the cell, that is, O2and Li+. Using two different cathode configurations, namely, flooded electrode and gas diffusion electrode (GDE)[4] at different cathode thickness, the effect of cell geometry and electrolyte saturation on cell performance was explored. Further, a detailed discussion on electrode volume utilization (cf. Figure1b) is presented via changes in the active volume of cathode that produces 90% of the total current with the cell current density for different combinations of electrolyte saturations and cathode thickness.
Entwicklung und Evaluierung eines adaptiv-prädiktiven Algorithmus für thermoaktive Bauteilsysteme
(2017)
Der Gebäudesektor ist einer der Hauptverbraucher von Energie und somit mitverantwortlich für einen wesentlichen Anteil an CO2-Emissionen. Heiz- und Kühlkonzepte, die erneuerbare Energiequellen nutzen können, gewinnen daher immer mehr an Bedeutung. Hierfür besonders geeignet sind Niedertemperatursysteme, wie beispielsweise Thermoaktive Bauteilsysteme (TABS). Die große thermische Trägheit und die geringe Leistung dieser Systeme verhindern eine schnelle Reaktion auf Raumtemperaturänderungen. Bisherige Steuer- und Regelstrategien für TABS können nur sehr schlecht mit der thermischen Trägheit umgehen, da diese in der Regel keine Prädiktionen verwenden. Hinzu kommt eine aufwändige Parametrierung dieser TABS-Strategien, was in der Praxis zu Inbetriebnahmephasen von oft mehreren Jahren führt. Die Möglichkeit TABS als einen Kurzzeitenergiespeicher für das durch die wachsende Einspeisung aus fluktuierenden erneuerbaren Energiequellen belastete Stromnetz nutzbar zu machen, spielt bei diesen Standard-TABS-Strategien bisher keine Rolle.
In dieser Arbeit wurde ein neuartiger Algorithmus für die Steuerung von TABS entwickelt, der hier durch die Abkürzung AMLR gekennzeichnet wird. Die AMLR nutzt Vorhersagen der Hauptstörgrößen einer TABS-Zone zur Berechnung eines innerhalb des nächsten Tages zuzuführenden Energiepaketes. Zu den Hauptstörgrößen zählen die tagesgemittelte Außentemperatur, die tagesgemittelte globale Einstrahlung sowie ein Belegungsplan jeder TABS-Zone. Die AMLR verwendet ein dynamisches und ein stationäres Widerstands-Kapazitäten(RC)-Modell mit einem Verzögerungsglied erster Ordnung (PT1). Das stationäre TABS- und Raummodell wird für eine Adaptionsfähigkeit und das dynamische Modell für die zeitdiskrete Berechnung von Leistungen genutzt. Es wird gezeigt, dass die Genauigkeit eines Modells mit PT1-Glied für die Steuerung von TABS ausreichend ist. Durch die Adaptionfähigkeit kann sich der Algorithmus automatisiert an unterschiedliche Gebäude, Standorte und Nutzungsprofile anpassen. Auf die Erstellung eines Gebäudemodells inklusive dessen technischer Gebäudeausrüstung (TGA), der Wärmelasten sowie der Wettereinflüsse kann somit verzichtet werden. Weiterhin können mit der AMLR mittlere Soll-Raumtemperaturen pro TABS-Zone vorgegeben werden, was bei Standard-TABS-Strategien nicht möglich ist. Dem Autor stehen als Testumgebungen zur Evaluierung der AMLR die Triple-Klimakammer des Instituts für Energiesystemtechnik (INES) der Hochschule Offenburg sowie zwei reale Gebäude und deren Simulationsmodelle zur Verfügung. Bei den Gebäuden handelt es sich um das in Basel befindliche IWB CityCenter sowie das Seminargebäude der Hochschule Offenburg.
Mit Hilfe der Triple-Klimakammer werden die verwendeten RC-Modelle sowie das TRNSYS-Simulationsmodell der Kammer selbst validiert. Durch den direkten Vergleich der AMLR zu Standard-TABS-Strategien kann in Model-in-the-Loop (MiL) Simulationen, Laborversuchen und Pilotanlagen gezeigt werden, dass die AMLR insbesondere dann thermische Energie einsparen kann, wenn es bei der Standardstrategie zu Überhitzungen im Heizfall und Unterkühlungen im Kühlfall kommt. Des Weiteren zeigen sich Energieeinsparpotenziale durch die Möglichkeit der zonenspezifischen Beladung der TABS. Anhand von Messdaten einer Pilotanlage kann eine Reduktion des thermischen TABS-Energiebedarfs von über 41 % belegt werden. In allen Testumgebungen kann eine Einsparung an Hilfsenergie von bis zu 86 % für die TABS-Pumpen bei gleichzeitiger Verbesserung des thermischen Komforts nachgewiesen werden. Neben Energieeinsparungen sind durch den Einsatz der AMLR Investitionseinsparungen durch eine vereinfachte TABS-Hydraulik möglich, da keine konstanten Vorlauftemperaturen notwendig sind. Weiterhin kann gezeigt werden, dass die Leistung eines Zusatzkühlsystems durch den Einsatz der AMLR im Vergleich zur Standard-TABS-Strategie reduziert werden kann, ohne den thermischen Komfort zu beeinträchtigen. Anhand von Simulationsrechnungen wird das Potenzial von TABS für Lastverschiebemaßnahmen quantifiziert. Durch die Verwendung der AMLR mit dynamischen Strompreisen ist im gezeigten Beispiel eine Einsparung an monetären Kosten von 38 % möglich. Weiterhin konnten Anfragen zur Abschaltung der Beladung der TABS zum Ausgleich fluktuierender erneuerbarer Energieerzeuger durch die AMLR unter Einhaltung des thermischen Komforts durchgeführt werden.
The aim of the smart grid is to achieve more efficient, distributed and secure supply of energy over the traditional power grid by using a bidirectional information flow between the grid agents (e.g. generator node, customer). One of the key optimization problems in smart grid is to produce power among generator nodes with a minimum cost while meeting the customer demand, known as Economic Dispatch Problem (EDP). In recent years, many distributed approaches to solve EDP have been proposed. However, protecting the privacy-sensitive data of individual generator nodes has been largely overlooked in the existing solutions. In this work, we show an attack against an existing auction-based EDP protocol considering a non-colluding semi-honest adversary. We briefly introduce our approach to a practical privacy-preserving EDP solution as our work in progress.
For the RoboCup Soccer AdultSize League the humanoid robot Sweaty uses a single fully convolutional neural network to detect and localize the ball, opponents and other features on the field of play. This neural network can be trained from scratch in a few hours and is able to perform in real-time within the constraints of computational resources available on the robot. The time it takes to precess an image is approximately 11 ms. Balls and goal posts are recalled in 99 % of all cases (94.5 % for all objects) accompanied by a false detection rate of 1.2 % (5.2 % for all). The object detection and localization helped Sweaty to become finalist for the RoboCup 2017 in Nagoya.
One of the challenges in humanoid robotics is motion control. Interacting with humans requires impedance control algorithms, as well as tackling the problem of the closed kinematic chains which occur when both feet touch the ground. However, pure impedance control for totally autonomous robots is difficult to realize, as this algorithm needs very precise sensors for force and speed of the actuated parts, as well as very high sampling rates for the controller input signals. Both requirements lead to a complex and heavy weight design, which makes up for heavy machines unusable in RoboCup Soccer competitions.
A lightweight motor controller was developed that can be used for admittance and impedance control as well as for model predictive control algorithms to further improve the gait of the robot.
Micro gas turbines (MGTs) are regarded as combined heat and power (CHP) units which offer high fuel utilization and low emissions. They are applied in decentralized energy neration.
To facilitate the planning process of energy systems, namely in the context of the increasing application of optimization techniques, there is a need for easy-to-parametrize component models with sufficient accuracy which allow a fast computation. In this paper, a model is proposed where the non-linear part load characteristics of the MGT are linearized by means of physical insight of the working principles of turbomachinery. Further, it is shown that the model can be parametrized by the data usually available in spec sheets. With this model a uniform description of MGTs from several manufacturers
covering an electrical power range from 30kW to 333kW can be obtained. The MGT model was
implemented by means of Modelica/Dymola. The resulting MGT system model, comprising further heat exchangers and hydraulic components, was validated using the experimental data of a 65kW MGT from a trigeneration energy system.
Simulation-based degradation assessment of lithium-ion batteries in a hybrid electric vehicle
(2017)
Muli-scale thermos-electrochemical modelling of aging mechanisms in an LFP/graphite lithium-ion cell
(2017)
Passive hybridization of battery cell and photovoltaic cell: modeling and experimental validation
(2017)
Hintergrund: Das elektrische interventrikuläre Delay (IVD) ist bei Patienten (P) mit Herzinsuffizienz (HF), reduzierter linksventrikulärer (LV) Funktion und verbreitertem QRS Komplex von Bedeutung für den Erfolg der kardialen Resynchronisationstherapie (CRT). Die transösophageale LV Elektrokardiographie (EKG) ermöglicht die Bestimmung des elektrischen IVD und linksventrikulären Delays (LVD). Das Ziel der Studie besteht in der Untersuchung des transösophagealen elektrischen IVD, LVD und deren Verhältnis zur QRS Dauer bei rechtsventrikulärer (RV) Stimulation vor Aufrüstung auf eine biventrikuläre (BV) Stimulation.
Methoden: Bei 11 HF P (Alter 69,0 ± 7,9 Jahre; 10 Männer und 1 Frau) mit DDD Schrittmacher (n=10), DDD Defibrillator (n=1) und RV Stimulation, New York Heart Association (NYHA) Klasse 3,0 ± 0,2, LV Ejektionsfraktion 24,5 ± 4,9 % und QRS-Dauer 228,2 ± 44,8 ms wurden das elektrische IVD als Intervall zwischen Beginn des QRS-Komplexes im Oberflächen EKG und Beginn des LV Signals im transösophagealen LV EKG und das elektrische LVD als Intervall zwischen Beginn und Ende des LV Signals im transösophagealen LV EKG präoperativ vor Aufrüstung auf CRT Defibrillator (n=8) und CRT Schrittmacher (n=3) bestimmt. Der Anstieg des arteriellen Pulse Pressure (PP) wurde zwischen RV Stimulation und transösophagealer LV Stimulation mit unterschiedlichem AV-Delay (n=5) vor Aufrüstung von RV auf BV Stimulation getestet.
Ergebnisse: Bei RV Stimulation betrugen IVD 86,54 ± 32,80 ms, LVD 94,45 ± 23,80 ms, QRS-IVD-Verhältnis 2,63 ± 0,81 mit negativer Korrelation zwischen IVD und QRS-IVD-Verhältnis (r=-0,668 P=0,0248) (Fig.) und QRS-LVD-Verhältnis 2,33 ± 0,73. Vorhofsynchrone ventrikuläre Stimulation führte zu 63,6 ± 27,7 mmHg PP bei RV Stimulation und 80,6 ± 38,5 mmHg PP bei LV Stimulation und der PP erhöhte sich bei LV Stimulation mit optimalem AV Delay um 17 ± 11,2 mmHg gegenüber RV Stimulation (P<0,001). Nach Aufrüstung von RV Stimulation auf BV Stimulation verbesserten sich die NYHA Klasse von 3,1 ± 0,2 auf 2,2 ± 0,3 während 30,4 ± 29,6 Monaten CRT.
Schlussfolgerungen: Das transösophageale LV EKG ermöglicht die Bestimmung des elektrischen IVD und LVD bei RV Stimulation zur Evaluierung der interventrikulären und linksventrikulären elektrischen Desynchronisation. IVD, LVD und deren Verhältnis zur QRS Dauer können möglicherweise zur Vorhersage einer CRT Response vor Aufrüstung von RV auf BV Stimulation genutzt werden.
Heart rhythm model and simulation of electrophysiological studies and high-frequency ablations
(2017)
Background: The simulation of complex cardiologic structures has the potential to replace clinical studies due to its high efficiency regarding time and costs. Furthermore, the method is more careful for the patients’ health than the conventional ways. The aim of the study was to create an anatomic CAD heart rhythm model (HRM) as accurate as possible, and to show its usefulness for cardiac electrophysiological studies (EPS) and high-frequency (HF) ablations.
Methods: All natural heart components of the new HRM were based on MRI records, which guaranteed electronic functionality. The software CST (Computer Simulation Technology, Darmstadt) was used for the construction, while CST’s material library assured genuine tissue properties. It should be applicable to simulate different heart rhythm diseases as well as various diffusions of electromagnetic fields, caused by electrophysiological conduction, inside the heart tissue.
Results: It was achievable to simulate normal sinus rhythm and fourteen different heart rhythm disturbance with different atrial and ventricular conduction delays. The simulated biological excitation of healthy and sick HRM were plotted by simulated electrodes of four polar right atrial catheter, six polar His bundle catheter, ten polar coronary sinus catheter, four polar ablation catheter and eight polar transesophageal left cardiac catheter (Fig.). Accordingly, six variables were rebuilt and inserted into the anatomic HRM in order to establish heart catheters for ECG monitoring and HF ablation. The HF ablation catheters made it possible to simulate various types of heart rhythm disturbance ablations with different HF ablation catheters and also showed a functional visualisation of tissue heating. The use of tetrahedral meshing HRM made it attainable to store the results faster accompanied by a higher degree of space saving. The smart meshing function reduced unnecessary high resolutions for coarse structures.
Conclusions: The new HRM for EPS simulation may be additional useful for simulation of heart rhythm disturbance, cardiac pacing, HF ablation and for locating and identification of complex fractioned signals within the atrium during atrial fibrillation HF ablation.
Sportübertragungen im öffentlich-rechtlichen Fernsehen – Situationsanalyse und Zukunftsprognose
(2017)
Gegenstand dieser Bachelorarbeit ist die Analyse des Sportrechtemarktes. Besonders im Fokus steht dabei die Rolle der öffentlich-rechtlichen Fernsehsender. Zunächst werden hierfür die zurückliegenden Jahre betrachtet und die aktuelle Situation auf dem sehr umkämpften Markt dargestellt. Für den starken Preisanstieg bei den Übertragungsrechten werden die Ursachen sowie deren Folgen benannt. Darüber hinaus wird auf die Bedeutung von sportlichen Großereignissen für die ausrichtenden Verbände und die übertragenden Sender eingegangen. Anschließend wird der Verlust der Übertragungsrechte der öffentlich-rechtlichen Sender an den Olympischen Spielen beleuchtet. Hierfür werden die Gründe und die Folgen für die unterschiedlichen Marktteilnehmer erklärt.
Des Weiteren werden verschiedenen Sportarten vorgestellt, die in den vergangenen Jahren an medialer Bedeutung dazugewonnen haben. Gleichzeitig wird dabei auch auf Sportarten eingegangen, die aus dem Programm der öffentlich-rechtlichen Sender verschwunden sind. Zusätzlich wird auf die Situation und die möglichen Chancen der Randsportarten eingegangen. Durch Streaming und die sozialen Netzwerke sind zuletzt Instrumente hinzugekommen, die den Sportarten unterschiedliche und eigene Vermarktungsmöglichkeiten bieten. Den Abschluss der Arbeit bildet eine Zukunftsprognose für die öffentlich-rechtlichen Sender. Es wird aufgezeigt, wie sich die Entwicklung des Sportrechtemarktes auf das Programm von ARD und ZDF auswirken wird.
Gelingt den Studienanfängern eine strukturierte Ergebnissicherung der Lehrveranstaltungen? Oder sind viele allein schon mit einem vollständigen Mitschrieb überfordert? Laufen aktivierende Methoden, Medienwechsel und der Wunsch nach strukturierter Sicherung der Inhalte des Lehrgesprächs teilweise sogar auseinander? Immer mehr Studierende (möchten) auch per Tablet mitschreiben. Wie könnte man in der Lehre auf diese Aspekte stärker eingehen?
Es wird ein praktischer Ansatz gezeigt, Mathematik-Vorlesungen über ein Tablet-basiertes Mitmach-Skript zu gestalten. Dieses dient als Schrittmacher zwischen Input- und Verarbeitungsphasen und unterstützt die strukturierte Verschriftlichung, indem es Vorteile von Tafel, PPT und klassischem Skript vereint. Traditionelle Methoden werden mit technologischen Möglichkeiten kombiniert, um die angesprochenen Herausforderungen bewusster im Lehrstil zu berücksichtigen. Verbindungen zu Virtual Classroom und Video-gestützter Lehre werden aufgezeigt.
In the past two decades much has been published on whiplash injury, yet both the confusion regarding the condition, and the medicolegal discussion about it have increased. In this paper, functional imaging research results are summarized using MRIcroGL3D visualization software and assembled in an image comprising regions of cerebral activation and deactivation.
Wie in Ausgabe 44 bereits angekündigt startet bwLehrpool im März 2017 offiziell als Landesdienst. Neben der originären Aufgabe der Bereitstellung virtueller Lehrumgebungen in PC-Räumen wurde der Dienst nun
um die Möglichkeit der einfachen und sicheren Durchführung von E-Prüfungen sowie des Pool Video Switch (PVS)-Systems erweitert. bwLehrpool wird bereits an zahlreichen Hochschulen und Universitäten in den unterschiedlichsten Fachberei-
chen erfolgreich eingesetzt.
Microscale trigeneration systems are highly flexible in their operation and thus offer the technical possibility for peak load shifting in building demand side management. However to harness their potential modern control methods such as model predictive control must be implemented for their optimal scheduling. In literature the need for experimental investigation of microscale trigeneration systems to identify typical characteristics of the components and their interactions has been identified. On a real-life setup control specific information of the components is collected and lessons learnt during commissioning of the equipment is shared. The data is analysed to draw the vital characteristics of the system and it will be used for creating models of the components that can be utilised for optimal control.
Within this work, the benefits of using predictive control methods for the operation of Adsorption Cooling Machines (ACMs) are shown on a simulation study. Since the internal control decisions of series-manufactured ACMs often cannot be influenced, the work focuses on optimized scheduling of an ACM considering its internal functioning as well as forecasts for load and driving energy occurrence. For illustration, an assumed solar thermal climate system is introduced and a system model suitable for use within gradient-based optimization methods is developed. The results of a system simulation using a conventional scheme for ACM scheduling are compared to the results of a predictive, optimization-based scheduling approach for the same exemplary scenario of load and driving energy occurrence. The benefits of the latter approach are shown and future actions for application of these methods for system control are addressed.
Gaps in basic math knowledge are among the biggest obstacles to a successful start in university. Students starting their studies in STEM disciplines display significant diversity, “math anxiety” is a widespread phenomenon, and the transition to a self-determined way of studying presents a huge challenge. Universities offer support measures such as preparatory courses. Over the years, Offenburg University realized that with increased diversity, traditional ways of teaching in front of the class have become inefficient. The majority of the students remained inactive and just listened to the teachers’ explanations and the few active participants’ answers.
Since 2013 our new course concept fosters a shift from teaching to active learning on a large scale, involving several hundred participants of our on-site preparatory math courses. This switch to broad active practicing, however, must go hand in hand with providing individual support for an increasingly diverse student body. Meanwhile students bring along their mobile devices, and the training App TeachMatics serves as a facilitator. The course concept has been very well received by both students and teachers.
Das Ziel des Vorhabens TempOLadung war die Entwicklung von optimierten Ladeverfahren für eine Lithium-Ionen-Batterie. Die Optimierung erfolgte unter besonderer Berücksichtigung des Temperaturverhaltens. Es wurden Methoden der mathematischen Modellierung und numerischen Simulation sowie der experimentellen Diagnostik eingesetzt. Kooperationspartner war das mittelständische Unternehmen Leclanché, ein traditioneller Batteriehersteller mit Produktionsstandort in Willstätt/Baden-Württemberg.
Um sicherzustellen, dass vom Unternehmen keine Verstöße gegen gesetzliche Vorschriften und Regeln erfolgen, ist es unabdingbar, dass die Mitarbeiter des Unternehmens den aufgestellten Pflichten nachkommen und diese befolgen. Dabei kann dies nur verwirklicht werden, wenn die Regelungen für die Arbeitnehmer verbindlich werden und bei Fehlverhalten auch arbeitsrechtliche Sanktionen als Konsequenz durchgesetzt werden können. Damit die Verhaltensrichtlinien und -grundsätze für die Arbeitnehmer verbindlich werden, müssen diese arbeitsrechtlich im Unternehmen implementiert werden. Die Implementierung kann dabei grundsätzlich durch unterschiedliche arbeitsrechtliche Instrumente umgesetzt werden, wobei sowohl das Individual- als auch das Kollektivarbeitsrecht verschiedene Optionen anbietet, welche im Folgenden näher erläutert werden.
Spätestens nach den erfolgreichen Wahlkämpfen 2008 und 2012 in den USA des zweimaligen US-Präsidenten Barack Obama, ist Social Media als Schlüsselmedium für die politische Kommunikation angekommen. Nach der Wahl von Donald Trump als 45. Präsidenten der Vereinigten Staaten ist zudem deutlich geworden: Social Media erreicht in der Politik eine nie dagewesene Dimension und hat insbesondere im Wahlkampf eine sehr wichtige Bedeutung. Im vorliegenden Arbeitspapier sollen die folgenden Aspekte näher beleuchtet werden: Welche Auswirkungen haben Social Media auf die Politik und wie können sie in der politischen Kommunikation eingesetzt werden? Wie können mit Social Media Wähler gewonnen werden? Welche Möglichkeiten bieten Social Media für die Bürger, um sich in der politisch zu beteiligen? Welche Risiken können durch Social Media in der Politik entstehen?
In der heutigen, vielschichtigen und komplexen Geschäftswelt werden die meisten Unternehmen nicht als Personengesellschaften, sondern als Kapitalgesellschaften geführt. Wie das Wort Kapitalgesellschaft bereits nahelegt, stehen bei dieser Gesellschaftsform nicht natürliche Personen im Mittelpunkt, sondern vielmehr ein Mindestmaß an Kapital, welches von den Gesellschaftern in Form von Einlagen aufgebracht werden muss. Die Kapitaleinlage ist somit der persönliche Risikobeitrag der Gesellschafter und zudem die Voraussetzung für ein wirtschaftliches Tätigwerden im Geschäftsbereich, für das die Gesellschafter eine persönliche Haftung nicht übernehmen wollen und grundsätzlich auch nicht müssen.
Deutsche Banken begleiten vielfältige Geschäfte mit Auslandsbezug. Vor allem Kreditgeschäfte und Akkreditive sind die häufigsten Geschäftsarten, an denen deutsche Banken als Finanzierungspartei gemeinschaftlich mit anderen ausländischen Finanzinstituten auftreten. Im Rahmen solcher Geschäfte verlangen ausländische Geschäftspartner häufig die Einhaltung von ausländischen Sanktionsvorschriften und verankern dies in den vertraglichen Dokumenten. Beteiligen sich Finanzinstitute, beispielsweise als Kreditnehmer, so wird die Einhaltung der ausländischen Sanktionsvorschriften direkt von den Finanzinstituten verlangt. Treten jedoch Finanzinstitute als Kreditgeber auf, was eher häufiger der Fall ist, so fordern die Finanzinstitute den Kreditnehmer auf, ausländisches Sanktionsrecht einzuhalten. Die Verpflichtung zur Einhaltung von ausländischen Sanktionsvorschriften widerspricht den Anti-Boykott-Regelungen auf nationaler und gegebenenfalls auf europäischer Ebene.
Die Digitalisierung der Gesellschaft betrifft nicht nur einzelne Lebensbereiche, sondern beeinflusst und verändert enorm die Arbeitswelt. In diesem Sinne wird oft im Rahmen des Zukunftsprojekts Industrie 4.0 von Arbeiten 4.0, Arbeitswelt 4.0 und Arbeitsrecht 4.0 berichtet. Komplexe Produktionsprozesse lassen sich durch die Vernetzung von Systemen zu unterschiedlichen Zeiten und an nahezu jedem Ort steuern. Diese neuen Freiheiten können wiederum von den Arbeitnehmern positiv genutzt werden, um die persönliche Arbeitsgestaltung weiter zu individualisieren. Somit können beispielsweise die Arbeitszeiten und der Arbeitsort an die eigenen Bedürfnisse angepasst werden. Außerdem können diese sich neu ergebenden Möglichkeiten die Beschäftigten in ihrer Arbeitstätigkeit entlasten. Durch die Einführung neuer Technologien ergeben sich somit neue Chancen, aber auch Herausforderungen für das Arbeitsrecht. Infolgedessen sind diverse Handlungsfelder beziehungsweise Problemfelder betroffen, die es in diesem neuen Arbeitspapier darzustellen gilt. Es bezieht sich dabei speziell auf die Arbeitszeit, den Arbeitsort, die Arbeitnehmerqualifikation und die Datensicherheit. In diesem Zusammenhang werden die derzeit bestehenden Gesetze und Richtlinien aufgezeigt, die im Rahmen der Industrie 4.0 eine Rolle spielen. Auch die Herausforderungen, die durch die Interaktion der Digitalisierung in der Arbeitswelt aufkommen, gilt es, in diesem Arbeitspapier hervorzuheben.
Compliance Due Diligence
(2017)
Nahezu jedes Unternehmen hat heute auf seiner Homepage einen eigenen Bereich integriert, in welchem Compliance- und Integrity-Maßnahmen vorgestellt werden. Auslöser hierfür dürften wohl nicht nur die immer strengeren Gesetze sein, sondern vielmehr Unternehmensskandale, welche in den Unternehmen für Unruhe sorgten. Man denke hierbei beispielsweise an die Korruptionsskandale bei MAN oder Siemens sowie aktuell der Volkswagen Abgas-Skandal. Die Folgen können weitreichend sein. Schadensersatzzahlungen, Auftragsverluste oder auch große Image-Schäden sind die Folgen. Zu erkennen ist ebenfalls, dass auch immer mehr mittelständische Unternehmen das Thema Compliance für sich entdecken. Es ist also keinesfalls davon auszugehen, dass nur die großen Unternehmen hohen Haftungsrisiken ausgesetzt sind. Dennoch sind konkrete Compliance-Programme in diesen meist eher vorhanden und konkret ausgestaltet.
In den 1980er Jahren begann die Normengruppe die DIN EN ISO 9000 ff. sich zunächst in der Fertigungsindustrie zu etablieren. Anschließend, begleitet von einigen Revisionen, schlossen sich weitere Branchen an, sodass sie immer wichtiger wurde. Anfangs hatten die Unternehmen bei der Umsetzung der Zertifizierung noch erhebliche Probleme. Diese entstanden vornehmlich dadurch, dass man unter dem Druck der Zertifizierung vermied, die Norm genau zu lesen und sich eine für die Umsetzung angemessene Zeitvorgabe zu geben. Das Ergebnis der Zertifizierung lag in diesen Fällen viel zu oft in der Erstellung einer „Papierorganisation“. Diese Schwächen haben sich mit der Zeit zum Teil erübrigt. Das hing mit der Vereinheitlichung beziehungsweise der Annäherung mehrerer Normen zusammen. Außerdem war die starke Begrenzung des Umfangs der Normenreihe ein großer Fortschritt. Ein weiterer Nachteil des Umfangs der älteren Versionen war die Praxis, die Organisation an die Norm anzugleichen. Dies hört sich zunächst nachvollziehbar an, allerdings sollte die Herangehensweise doch eher aus der entgegengesetzten Richtung geschehen, denn das Qualitätsmanagement sollte auf bestehende Prozesse des Unternehmens angepasst werden. Demnach soll die Norm an das Unternehmen angepasst werden, da diese Herangehensweise die innerhalb des Unternehmens funktionierenden Prozesse beachtet und optimiert. Ein weiterer Kritikpunkt an den älteren Versionen war die Konzentration auf Fertigungsbetriebe; so standen andere Industriezweige vor Schwierigkeiten der Umsetzung, insbesondere weil die Begriffe der Norm dort auf Gegenwehr bei Mitarbeitern und dem Management stießen. Somit war die Auswahl der Begrifflichkeiten kontraproduktiv, da sich eine Norm grundsätzlich für alle Branchen eignen muss. Zu dem Optimierungsprozess der ISO 9000 ff. haben auch Diskussionen beigetragen, in denen der Inhalt teilweise stark attackiert wurde. Dabei ging es darum, dass die Kundenbedürfnisse in der Norm keine Beachtung finden würden.
Die digitale Transformation beeinflusst nicht nur unsere Gesellschaft, sondern schreitet vor allem in unserer Arbeitswelt zügig voran. Bereits in den letzten Jahrzehnten haben sich die Kommunikation und die Zusammenarbeit in Unternehmen durch den Einsatz von Informationstechnologie stark gewandelt. E-Mails, Newsletter, Intranet und Extranet vernetzen die Unternehmen seit Jahren und gehören schon lange zum Standard in der Unternehmenskommunikation. Den nächsten Schritt in dieser Entwicklung bringen nun Social Media Anwendungen, die sich im privaten Umfeld bereits seit einigen Jahren von der neuartigen Innovation zu etablierten Tools entwickelt haben und aus dem Alltag unserer Gesellschaft nicht mehr wegzudenken sind. Das Web 2.0 hat die Kommunikation grundlegend verändert: Sie wurde bi- und multidirektional. Es ist möglich, Wissen und Informationen zu jedem Zeitpunkt an jedem Ort abzurufen sowie als Anwender aktiv zu partizipieren, wodurch dieser nicht mehr nur Empfänger ist, sondern selbst zum Sender und zum Publizisten wird. Es entsteht eine neue Art der Kommunikation, in der der Nutzer stärker eingebunden wird, mehr Transparenz entsteht und aus der sich schließlich viele neue Möglichkeiten des Austausches und der Zusammenarbeit ergeben. Diese Veränderung bringt zahlreiche Vorteile mit sich, die nicht nur im privaten Umfeld, sondern auch für Organisationen interessant sind. Deshalb hat das Web 2.0 schon von Beginn an mit seinen Charakteristiken und Möglichkeiten Aufmerksamkeit bei Unternehmen erlangt und Social Media Funktionen werden seitdem auch für Unternehmensaktivitäten genutzt.
Die Globalisierung, der technische Fortschritt, sowie die politischen Entwicklungen weltweit führen dazu, dass heute kaum ein Unternehmen existiert, das nicht internationale Geschäftsbeziehungen mit ausländischen Unternehmen aufrecht erhält, unabhängig davon, ob als Exporteur oder Importeur. Grenzüberschreitend tätige Unternehmen sehen sich dabei fremden Rechtsordnungen gegenüberstehend. Dies kann Konflikte mit sich bringen und den Handelsverkehr beeinträchtigen. Dabei stellen neben unterschiedlichen Rechtssystemen auch die kulturellen Differenzen und die räumliche Distanz der beteiligten Länder Hindernisse dar. Zumindest auf dem Gebiet der Gesetzgebung gab es Bemühungen nach Vereinheitlichung. So kam das Übereinkommen der Vereinten Nationen über Verträge über den internationalen Warenkauf, kurz UN-Kaufrecht, das den internationalen Warenhandel vereinfachen soll, zustande. Dieses Regelwerk, sowie die Analyse möglicher Vorteile für den deutschen Exporteur sind Thema dieses Arbeitspapieres. Dabei soll die Analyse nicht nur auf der Literaturrecherche beruhen, sondern sich auch damit auseinandersetzen, wie die Handhabung des UN-Kaufrechts in der Praxis durch Unternehmen erfolgt.
Die Insolvenzzahlen in Deutschland sind das sechste Jahr in Folge rückläufig. Im Jahr 2016 gab es in Deutschland insgesamt 21.700 Unternehmensinsolvenzen. Dies ist der niedrigste Stand seit Einführung der Insolvenzordnung im Jahre 1999. Das weiter rückläufige Insolvenzgeschehen lässt sich auf das grundsätzlich sehr gute Konjunkturumfeld zurückführen. Die gute Binnenkonjunktur und Finanzierungssituation sorgen für steigende Umsätze und Erträge und verbessern die Stabilität der Unternehmen.1 Mit 30,3 % entfiel der zweitgrößte Anteil der Unternehmensinsolvenzen auf die Rechtsform der GmbH, am häufigsten von Insolvenzen betroffen waren mit 48,3 % nach wie vor die Kleingewerbetreibenden.2 Ca. 98 % aller Unternehmen in Deutschland sind kleine und mittlere Unternehmen (KMU).
Kleine Unternehmen haben weniger als zehn Mitarbeiter und einen Jahresumsatz oder eine Jahresbilanzsumme von höchstens zehn Millionen Euro. Mittlere Unternehmen hingegen verfügen über weniger als 250 Mitarbeiter und einen Jahresumsatz von höchstens 50 Millionen Euro oder eine Jahresbilanzsumme von höchstens 43 Millionen Euro. Diese Unternehmen sind überdurchschnittlich oft von Insolvenzen betroffen.3 Eine Auswertung des Statistischen Bundesamtes aus dem Jahr 2014 zeigt, dass die GmbH als gewählte Rechtsform bei den eingetragenen Betriebsgründungen mit 39,3 % weiterhin hoch im Kurs liegt und verdeutlicht somit deren Bedeutung im deutschen Wirtschaftsverkehr.4 Die GmbH ist die typische Gesellschaftsform für kleine und mittlere Unternehmen und wird als Unternehmensträger gewählt, wenn keiner der Beteiligten eine volle persönliche Haftung übernehmen möchte und wenn die Form einer Kapitalgesellschaft zwar gewollt, aber aufgrund der geringen Unternehmensgröße sowie der überschaubaren Gesellschafterzahl die AG nicht geeignet ist.5 Die folgenden Ausführungen beziehen sich daher auf Kapitalgesellschaften in der Rechtsform der GmbH und richten sich vor allem an die Geschäftsführer mittelständischer Unternehmen, in denen z. B. häufig eine fundierte Unternehmensplanung fehlt.
Vergleich aktueller LPWAN-Technologien im Internet der Dinge unter Einbindung von Energy-Harvesting
(2017)
Die vorliegende Bachelorthesis gibt einen Überblick über die Möglichkeiten zur drahtlosen Machine-to-Machine Kommunikation im Internet der Dinge. Sie bietet eine Einführung in die Low-Power-Wide-Area-Network-Technologie (LPWAN) und einen Vergleich deren Anbieter.
Zu Beginn der Arbeit wird die Funktionsweise der drahtlosen Datenübertragung erklärt und die wichtigsten Fachbegriffe werden erläutert. Anschließend werden die Technologien Short-Range Wireless Network, Mobilfunk und Low-Power-Wide-Area-Network voneinander differenziert und einige Standards jeder Kommunikationstechnik vorgestellt.
Anschließend wird konkreter auf die Funktionsweise der aussichtsreichsten LPWAN-Technologien eingegangen. Nach der Erläuterung der Funktionsweisen werden die
Übertragungstechniken der Anbieter LoRa Alliance, SigFox, Ingenu und EnOcean anhand festgelegter Parameter untersucht und anhand eines Bewertungsschemas verglichen. Dabei zeigte sich, dass die Anbieter im Vergleich über verschiedene Ansätze zum Einsatz der
LPWAN-Technologie verfügen und diese zudem von allen unterschiedlich umgesetzt wird. Aus dem Vergleich wurde jedoch deutlich, wo die Stärken und Schwächen der einzelnen Technologien liegen. Ein kurzer Exkurs in das Thema des Energy-Harvesting – Der Technologie zur Stromerzeugung aus Umweltressourcen – zeigt die möglichen Umsetzungsarten der neuartigen Energiegewinnung und deren Einsatzgebiete für technische Geräte im Internet der Dinge. Die Dokumentation eines Beispielprojekts beschreibt die Umsetzung einer
solarbetriebenen LoRaWAN-Sendeeinheit, welche in der Lage ist die GPS-Daten ihrer Position über eine freie Funkfrequenz an ein LoRaWAN-Gateway in der Umgebung zu senden. Das Gateway interpretiert die Daten und stellt diese mithilfe eines Webdienstes auf einer interaktiven Karte dar.
Egal ob Smart City, Smart Home oder als kleine Alltagshilfen, das Internet der Dinge ist heutzutage allgegenwärtig. Um die Dinge der vernetzten Welt nutzen zu können, benötigt man in der Regel ein User Interface. Es gibt verschiedenste Möglichkeiten für den Menschen, mit vernetzten Dingen zu kommunizieren. Es kann über ein Voice User Interface (VUI) mit der Sprache kommuniziert werden oder sogar bereits nur mit Gedanken über sogenannte Brain User Interfaces (BUI). Eine zentrale Rolle hat momentan vor allem das Smartphone, welches als leistungsstarker, dauerhafter Begleiter im Alltag durch eingebaute Sensoren und Kommunikationsmöglichkeiten wie Wifi, Bluetooth oder NFC, ein ideales Interface zum IoT bietet. Das Smartphone, sowie bereits viele Mikrocontroller, bieten zudem die Möglichkeit mit Internettechnologien wie HTML, CSS und JavaScript programmiert zu werden. Somit sind Webentwickler in der Lage, komplette IoT-Anwendungen zu implementieren. Für die webtechnologienbasierte User-Interfaceentwicklung des Smartphones bieten sich Frameworks wie Ionic, React Native, NativeScript oder Evothings an. Zu diesen vier Frameworks wird ein fundierter Vergleich durchgeführt, der Aufschluss über die Einsetzbarkeit der Frameworks bei einer IoT-Anwendung gibt. Ionic steht bei diesem Vergleich beispielsweise durch eine große Community, oder unzählige UI-Elemente mit hoher Usability, an erster Stelle. Die Möglichkeiten von Ionic werden anhand der App für den smarten Briefkasten Mail-E verdeutlicht.