Refine
Year of publication
Document Type
- Conference Proceeding (1184)
- Article (reviewed) (677)
- Article (unreviewed) (566)
- Part of a Book (458)
- Contribution to a Periodical (287)
- Book (226)
- Other (139)
- Working Paper (104)
- Patent (98)
- Report (76)
Conference Type
- Konferenzartikel (945)
- Konferenz-Abstract (156)
- Sonstiges (42)
- Konferenz-Poster (32)
- Konferenzband (13)
Language
- German (2068)
- English (1854)
- Other language (5)
- Russian (3)
- Multiple languages (2)
- French (1)
- Spanish (1)
Is part of the Bibliography
- yes (3934) (remove)
Keywords
- Digitalisierung (40)
- RoboCup (32)
- Dünnschichtchromatographie (28)
- COVID-19 (23)
- Kommunikation (23)
- Arbeitszeugnis (22)
- Energieversorgung (22)
- Social Media (22)
- E-Learning (21)
- Gamification (21)
Institute
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (944)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (808)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (779)
- Fakultät Wirtschaft (W) (615)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (464)
- INES - Institut für nachhaltige Energiesysteme (239)
- Fakultät Medien (M) (ab 22.04.2021) (216)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (155)
- Zentrale Einrichtungen (81)
- IMLA - Institute for Machine Learning and Analytics (78)
Open Access
- Open Access (1461)
- Closed Access (1245)
- Closed (525)
- Bronze (284)
- Diamond (77)
- Gold (74)
- Hybrid (49)
- Grün (16)
Das Geschäftsgeheimnisgesetz - Praxisrelevante Aspekte der Umsetzung der EU Richtlinie 2016/943
(2019)
Geschäftsgeheimnisse sind wertvoll. Mit dem neuen Geschäftsgeheimnisgesetz vom 18.4.2019 (Gesetz zum Schutz von Geschäftsgeheimnissen – GeschGehG, BGBl. I 2019, 466) ist die Know-how-Richtlinie (Richtlinie (EU) 2016/943 des Europäischen Parlaments und des Rates vom 8.6.2016 über den Schutz vertraulichen Know-hows und vertraulicher Geschäftsinformationen vor rechtswidrigem Erwerb sowie rechtswidriger Nutzung und Offenlegung) umgesetzt. Der bisher dezentral und weitgehend unspezifiziert (§§ 823 ff., 826, 1004 BGB) bestehende Geheimnisschutz ist nunmehr einheitlich und übersichtlich zusammengefasst. Stefan Ernst gibt einen Überblick über die Neuerungen gegenüber der bisherigen Rechtslage und Anhaltspunkte für Handlungsbedarf bei betroffenen Unternehmen.
One of the challenges for autonomous driving in general is to detect objects in the car's camera images. In the Audi Autonomous Driving Cup (AADC), among those objects are other cars, adult and child pedestrians and emergency vehicle lighting. We show that with recent deep learning networks we are able to detect these objects reliably on the limited Hardware of the model cars. Also, the same deep network is used to detect road features like mid lines, stop lines and even complete crossings. Best results are achieved using Faster R-CNN with Inception v2 showing an overall accuracy of 0.84 at 7 Hz.
Most machine learning methods require careful selection of hyper-parameters in order to train a high performing model with good generalization abilities. Hence, several automatic selection algorithms have been introduced to overcome tedious manual (try and error) tuning of these parameters. Due to its very high sample efficiency, Bayesian Optimization over a Gaussian Processes modeling of the parameter space has become the method of choice. Unfortunately, this approach suffers from a cubic compute complexity due to underlying Cholesky factorization, which makes it very hard to be scaled beyond a small number of sampling steps. In this paper, we present a novel, highly accurate approximation of the underlying Gaussian Process. Reducing its computational complexity from cubic to quadratic allows an efficient strong scaling of Bayesian Optimization while outperforming the previous approach regarding optimization accuracy. First experiments show speedups of a factor of 162 in single node and further speed up by a factor of 5 in a parallel environment.
Current training methods for deep neural networks boil down to very high dimensional and non-convex optimization problems which are usually solved by a wide range of stochastic gradient descent methods. While these approaches tend to work in practice, there are still many gaps in the theoretical understanding of key aspects like convergence and generalization guarantees, which are induced by the properties of the optimization surface (loss landscape). In order to gain deeper insights, a number of recent publications proposed methods to visualize and analyze the otimization surfaces. However, the computational cost of these methods are very high, making it hardly possible to use them on larger networks. In this paper, we present the GradVis Toolbox, an open source library for efficient and scalable visualization and analysis of deep neural network loss landscapes in Tesorflow and PyTorch. Introducing more efficient mathematical formulations and a novel parallelization scheme, GradVis allows to plot 2d and 3d projections of optimization surfaces and trajectories, as well as high resolution second order gradient information for large networks.
Recent deep learning based approaches have shown remarkable success on object segmentation tasks. However, there is still room for further improvement. Inspired by generative adversarial networks, we present a generic end-to-end adversarial approach, which can be combined with a wide range of existing semantic segmentation networks to improve their segmentation performance. The key element of our method is to replace the commonly used binary adversarial loss with a high resolution pixel-wise loss. In addition, we train our generator employing stochastic weight averaging fashion, which further enhances the predicted output label maps leading to state-of-the-art results. We show, that this combination of pixel-wise adversarial training and weight averaging leads to significant and consistent gains in segmentation performance, compared to the baseline models.
Deep generative models have recently achieved impressive results for many real-world applications, successfully generating high-resolution and diverse samples from complex datasets. Due to this improvement, fake digital contents have proliferated growing concern and spreading distrust in image content, leading to an urgent need for automated ways to detect these AI-generated fake images.
Despite the fact that many face editing algorithms seem to produce realistic human faces, upon closer examination, they do exhibit artifacts in certain domains which are often hidden to the naked eye. In this work, we present a simple way to detect such fake face images - so-called DeepFakes. Our method is based on a classical frequency domain analysis followed by basic classifier. Compared to previous systems, which need to be fed with large amounts of labeled data, our approach showed very good results using only a few annotated training samples and even achieved good accuracies in fully unsupervised scenarios. For the evaluation on high resolution face images, we combined several public datasets of real and fake faces into a new benchmark: Faces-HQ. Given such high-resolution images, our approach reaches a perfect classification accuracy of 100% when it is trained on as little as 20 annotated samples. In a second experiment, in the evaluation of the medium-resolution images of the CelebA dataset, our method achieves 100% accuracy supervised and 96% in an unsupervised setting. Finally, evaluating a low-resolution video sequences of the FaceForensics++ dataset, our method achieves 91% accuracy detecting manipulated videos.
Recent studies have shown remarkable success in image-to-image translation for attribute transfer applications. However, most of existing approaches are based on deep learning and require an abundant amount of labeled data to produce good results, therefore limiting their applicability. In the same vein, recent advances in meta-learning have led to successful implementations with limited available data, allowing so-called few-shot learning.
In this paper, we address this limitation of supervised methods, by proposing a novel approach based on GANs. These are trained in a meta-training manner, which allows them to perform image-to-image translations using just a few labeled samples from a new target class. This work empirically demonstrates the potential of training a GAN for few shot image-to-image translation on hair color attribute synthesis tasks, opening the door to further research on generative transfer learning.
Machine Learning als Schlüsseltechnologie für Digitalisierung: Wie funktioniert maschinelles Lernen?
(2019)
Apache Hadoop is a well-known open-source framework for storing and processing huge amounts of data. This paper shows the usage of the framework within a project of the university in cooperation with a semiconductor company. The goal of this project was to supplement the existing data landscape by the facilities of storing and analyzing the data on a new Apache Hadoop based platform.
Einleitung
(2019)
Industrie 4.0 bedeutet nicht nur einen Wandel der technischen Möglichkeiten und Arbeitsbedingungen, sondern auch einen Bedarf an neuen, sich kontinuierlich weiterentwickelnden Kompetenzen und die Bereitschaft der Beschäftigten, Veränderungen mitzugestalten. Spielerische Ansätze der Kompetenzentwicklung können v.a. bei weiterbildungsfernen Mitarbeitern hilfreich sein, um das komplexe Thema verständlich zu vermitteln. Der Beitrag beschreibt ein Seminarkonzept mit integriertem Brettspiel, mit dem Teilnehmer anhand eines fiktiven Unternehmens (Müller GmbH) die Transformation eines Unternehmens in die Industrie 4.0 spielerisch nachvollziehen. Dieses Konzept erweist sich in einer ersten Evaluation als durchaus vielversprechend.
Leitsätze des Verfassers:
1. Art. 85 DSGVO erlaubt wie die Vorgängerregelung in Art. 9 RL 95/46/EG nationale Gesetze mit Abweichungen von der DSGVO zu Gunsten der Verarbeitung zu journalistischen Zwecken. Er enthält damit eine Öffnungsklausel, die nicht nur neue Gesetze erlaubt, sondern auch bestehende Regelungen – soweit sie sich einfügen – erfassen kann.
2. Die umfangreichen Abwägungsmöglichkeiten im Rahmen des KUG erlauben eine Berücksichtigung auch der unionsrechtlichen Grundrechtspositionen.
Anmerkung zu OLG Köln, Beschluss vom 18.06.2018 – 15 W 27/18 (rechtskräftig; LG Köln). DSGVO Art. 85; RL 95/46/EG Art. 9; BGB §§ 823, 1004; KUG §§ 22, 23
Urteilsausspruch (Verfahrenssprache: Deutsch):
Art. 16 lit. e RL 2011/83/EU ist dahin auszulegen, dass eine Ware wie eine Matratze, deren Schutzfolie vom Verbraucher nach der Lieferung entfernt wurde, nicht unter den Begriff „versiegelte Waren …, die aus Gründen des Gesundheitsschutzes oder aus Hygienegründen nicht zur Rückgabe geeignet sind und deren Versiegelung nach der Lieferung entfernt wurde“ im Sinne dieser Vorschrift fällt.
EuGH, Urteil vom 27.03.2019 – Rs C-681/17 (BGH), ZIP 2019, 715 (LS) = BB 2019, 769
Leitsatz des Gerichts:
Die Übermittlung eines „presserechtlichen Informationsschreibens“ greift in der Regel nicht rechtswidrig in das Recht am eingerichteten und ausgeübten Gewerbebetrieb eines Presseunternehmens ein. Eine andere Beurteilung ist allerdings dann geboten, wenn das übersandte Informationsschreiben von vornherein ungeeignet ist, präventiven Rechtsschutz zu bewirken. Hiervon ist auszugehen, wenn es keine Informationen enthält, die dem Presseunternehmen die Beurteilung erlauben, ob Persönlichkeitsrechte durch eine etwaige Berichterstattung verletzt werden.
BGB § 823 Abs. 1, § 1004; ZPO § 253. BGH, Urteil vom 15.01.2019 – VI ZR 506/17 (OLG Frankfurt/M.), MDR 2019, 290 = NJW 2019, 781 = WM 2019, 473
Urteilsausspruch (Verfahrenssprache: Deutsch):
1. Art. 6 Abs. 1 lit. c RL 2011/83/EU ist zum einen dahin auszulegen, dass er einer nationalen Regelung … entgegensteht, nach der ein Unternehmer verpflichtet ist, vor Abschluss eines Vertrags mit einem Verbraucher im Fernabsatz oder außerhalb von Geschäftsräumen i. S. v. Art. 2 Nr. 7 und 8 dieser RL stets seine Telefonnummer anzugeben. Zum anderen impliziert diese Bestimmung keine Verpflichtung des Unternehmers, einen Telefon- oder Telefaxanschluss bzw. ein E-Mail-Konto neu einzurichten, damit die Verbraucher mit ihm in Kontakt treten können. Sie verpflichtet den Unternehmer nur dann zur Übermittlung der Telefon- oder Telefaxnummer bzw. seiner E-Mail-Adresse, wenn er über diese Kommunikationsmittel mit den Verbrauchern bereits verfügt.
2. Art. 6 Abs. 1 lit. c RL 2011/83/EU ist dahin auszulegen, dass diese Bestimmung zwar den Unternehmer verpflichtet, dem Verbraucher ein Kommunikationsmittel zur Verfügung zu stellen, das geeignet ist, die Kriterien einer direkten und effizienten Kommunikation zu erfüllen, doch steht diese Bestimmung dem nicht entgegen, dass der Unternehmer andere Kommunikationsmittel als die in ihr genannten zur Verfügung stellt, um diese Kriterien zu erfüllen.
EuGH, Urteil vom 10.07.2019 – Rs C-649/17 (BGH), ZIP 2019, 1431
Urteilsausspruch (Verfahrenssprache: Deutsch):
Art. 2 lit. c RL 2002/21/EG des EU-Parlaments und des Rates vom 7. 3. 2002 über einen gemeinsamen Rechtsrahmen für elektronische Kommunikationsnetze und -dienste (Rahmenrichtlinie) in der durch die RL 2009/140/EG des EU-Parlaments und des Rates vom 25. 11. 2009 geänderten Fassung ist dahin auszulegen, dass ein internetbasierter E-Mail-Dienst, der wie der von der Google LLC erbrachte Dienst GMail keinen Internetzugang vermittelt, nicht ganz oder überwiegend in der Übertragung von Signalen über elektronische Kommunikationsnetze besteht und daher keinen „elektronischen Kommunikationsdienst“ im Sinne dieser Bestimmung darstellt.
EuGH, Urteil vom 13.06.2019 – Rs C-193/18 (OVG Münster), NJW 2019, 2597
Störerhaftung des beworbenen Unternehmens bei unverlangter E-Mail-Werbung durch beauftragten Dritten
(2019)
Leitsätze des Verfassers:
1. Ein Unternehmen, das einen Dritten mit der Durchführung von Werbeaktionen beauftragt, haftet für die unverlangte Zusendung von Werbe-E-Mails im Rahmen einer solchen Werbeaktion.
2. Der Adressat unverlangter E-Mail-Werbung hat auch dann einen datenschutzrechtlichen Auskunftsanspruch gegen das beworbene Unternehmen, wenn die Werbung durch eine Drittfirma durchgeführt wurde.
LG Frankenthal (Pfalz), Urteil vom 10.07.2018 – 6 O 322/17 (nicht rechtskräftig, Az. des OLG Zweibrücken 4 U 114/18)
Online-Zahlungssystem der Deutschen Bahn unionsrechtswidrig ("Verein für Konsumenteninformation")
(2019)
Urteilsausspruch (Verfahrenssprache: Deutsch):
Art. 9 Abs. 2 VO (EU) Nr. 260/2012 ist dahin auszulegen, dass er einer Vertragsklausel … entgegensteht, die die Zahlung mittels einer Lastschrift, die auf Euro lautet und über das in der EU bestehende Lastschriftverfahren vorgenommen wird (SEPA-Lastschrift), ausschließt, wenn der Zahler seinen Wohnsitz nicht in dem Mitgliedstaat hat, in dem der Zahlungsempfänger seinen Sitz hat.
EuGH, Urteil vom 05.09.2019 – Rs C-28/18 (EuGH GA ZIP 2019, 1272; Oberster Gerichtshof (Österreich)), ZIP 2019, 1760
Data Science
(2019)
Data Science steht derzeit wie kein anderer Begriff für die Auswertung großer Datenmengen mit analytischen Konzepten des Machine Learning oder der künstlichen Intelligenz. Nach der bewussten Wahrnehmung der Big Data und dabei insbesondere der Verfügbarmachung in Unternehmen sind Technologien und Methoden zur Auswertung dort gefordert, wo klassische Business Intelligence an ihre Grenzen stößt.
Dieses Buch bietet eine umfassende Einführung in Data Science und deren praktische Relevanz für Unternehmen. Dabei wird auch die Integration von Data Science in ein bereits bestehendes Business-Intelligence-Ökosystem thematisiert. In verschiedenen Beiträgen werden sowohl Aufgabenfelder und Methoden als auch Rollen- und Organisationsmodelle erläutert, die im Zusammenspiel mit Konzepten und Architekturen auf Data Science wirken. Neben den Grundlagen werden unter anderem folgende Themen behandelt:
- Data Science und künstliche Intelligenz
- Konzeption und Entwicklung von Data-driven Products
- Deep Learning
- Self-Service im Data-Science-Umfeld
- Data Privacy und Fragen zur digitalen Ethik
- Customer Churn mit Keras/TensorFlow und H2O
- Wirtschaftlichkeitsbetrachtung bei der Auswahl und Entwicklung von Data Science
- Predictive Maintenance
- Scrum in Data-Science-Projekten
Zahlreiche Anwendungsfälle und Praxisbeispiele geben Einblicke in die aktuellen Erfahrungen bei Data-Science-Projekten und erlauben dem Leser einen direkten Transfer in die tägliche Arbeit.
Finding clusters in high dimensional data is a challenging research problem. Subspace clustering algorithms aim to find clusters in all possible subspaces of the dataset, where a subspace is a subset of dimensions of the data. But the exponential increase in the number of subspaces with the dimensionality of data renders most of the algorithms inefficient as well as ineffective. Moreover, these algorithms have ingrained data dependency in the clustering process, which means that parallelization becomes difficult and inefficient. SUBSCALE is a recent subspace clustering algorithm which is scalable with the dimensions and contains independent processing steps which can be exploited through parallelism. In this paper, we aim to leverage the computational power of widely available multi-core processors to improve the runtime performance of the SUBSCALE algorithm. The experimental evaluation shows linear speedup. Moreover, we develop an approach using graphics processing units (GPUs) for fine-grained data parallelism to accelerate the computation further. First tests of the GPU implementation show very promising results.
Die Wörz´sche Heuristik
(2019)
Die Erfindung betrifft eine Photovoltaik-Stromversorgungsvorrichtung, insbesondere vom öffentlichen Stromnetz unabhängige Photovoltaik-Stromversorgungsvorrichtung, mit einem positiven (204) und einem negativen (206) Lastanschluss für den Anschluss einer elektrischen Last, mit einer Mehrzahl von photovoltaischen Zellen (104) und einer wiederaufladbaren Batterie (5), welche wenigstens zwei in Serie geschaltete Batteriezellen (112) umfasst. Nach der Erfindung sind die photovoltaischen Zellen (104) zu einer der Anzahl der Batteriezellen (112) entsprechenden Anzahl von seriell verbundenen Teilstrings (108) verschaltet und jeder Teilstring (108) ist mit einem positiven Teilstringanschluss mit einem Pluspol und mit einem negativen Teilstringanschluss mit einem Minuspol einer zugeordneten Batteriezelle (112) oder mehreren zugeordneten parallel geschalteten Batteriezellen (112) verbunden. Dabei kann jeder Teilstring (108) zwischen dem positiven und negativen Teilstringanschluss eine maximale Leerlaufspannung erzeugen, die kleiner oder gleich einer vorgegebenen Ladeschlussspannung der zugeordneten Batteriezelle (112) oder der zugeordneten parallel geschalteten Batteriezellen (112) ist. Weiterhin betrifft die Erfindung eine Schaltungsanordnung zum Laden einer wiederaufladbaren Batterie, die zur Realisierung einer derartigen Photovoltaik-Stromversorgungsvorrichtung geeignet ist.
Heat generation that is coupled with electricity usage, like combined heat and power generators or heat pumps, can provide operational flexibility to the electricity sector. In order to make use of this in an optimized way, the flexibility that can be provided by such plants needs to be properly quantified. This paper proposes a method for quantifying the flexibility provided through a cluster of such heat generators. It takes into account minimum operational time and minimum down-time of heat generating units. Flexibility is defined here as the time period over which plant operation can be either delayed or forced into operation, thus providing upward or downward regulation to the power system on demand. Results for one case study show that a cluster of several smaller heat generation units does not provide much more delayed operation flexibility than one large unit with the same power, while it more than doubles the forced operation flexibility. Considering minimum operational time and minimum down-time of the units considerably limits the available forced and delayed operation flexibility, especially in the case of one large unit.
Commercial simulators can only reproduce electrocardiograms (ECG) of the normal and diseased heart rhythm in a simplified waveform and with a low number of channels. With the presented project, the variety of digitally archived ECGs, recorded during electrophysiological examinations, should be made usable as original analogue signals for research and teaching purposes by the development of a special printed circuit board for the mini-computer “Raspberry-Pi “.
Occluders made of the shape memory alloy Nitinol are commonly used to close Atrial Septal Defects (ASD). Until now, standard parameters are missing defining the mechanical properties of these implants. In this study,we developed a special measuring setup for the determination of the mechanical properties of customly available occluders (i.e. Occlutech Figulla®Flex II 29ASD12 and AGA AMPLATZER™9-ASD-012
Die Erfindung betrifft eine Ösophaguselektrodensonde bzw. einen Ösophaguskatheter 10 zur Bioimpedanzmessung und/oder zur Neurostimulation, eine Vorrichtung 100 zur transösophagealen kardiologischen Behandlung und/oder kardiologischen Diagnose und ein Verfahren zum Steuern oder Regeln einer Ablationseinrichtung zum Durchführen einer Herzablation. Die Ösophaguselektrodensonde 10 umfasst eine Bioimpedanzmesseinrichtung zur Messung der Bioimpedanz von zumindest einem Teil des die Ösophaguselektrodensonde 10 umgebenden Gewebes. Die Bioimpedanzmesseinrichtung umfasst mindestens eine erste Elektrode 12A und mindestens eine zweite Elektrode 12B, wobei die mindestens eine erste Elektrode 12A auf einer dem Herzen zugewandten Seite 14 der Ösophaguselektrodensonde 10 angeordnet ist, und die mindestens eine zweite Elektrode 12B auf einer vom Herzen abgewandten Seite 16 der Ösophaguselektrodensonde 10 angeordnet ist.Die Vorrichtung 100 umfasst die Ösophaguselektrodensonde 10 und eine Steuer- und/oder Auswerteinrichtung 30. Die Steuer- und/oder Auswerteinrichtung 30 ist eingerichtet, ein erstes Bioimpedanzmesssignal von der mindestens einen ersten Elektrode 12A und ein zweites Bioimpedanzmesssignal von der mindestens einen zweiten Elektrode 12B zu empfangen und zu vergleichen, und ein Kontrollsignal auf Basis des Vergleichs zu generieren. Das Kontrollsignal kann ein Signal zum Steuern oder Regeln einer Ablationseinrichtung zum Durchführen einer Herzablation sein.
Die öffentliche Diskussion über den Einsatz digitaler Medien in Schule und Unterricht verkennt die zugrundeliegenden Interessen. Seit über 30 Jahren wird jede neue Generation von Digitaltechnik in die Schulen gedrückt. 1984 waren es Personal Computer (PC), in den 1990er Jahren Laptops, aktuell sind es WLAN, Tablets und Smartphones. Die Argumente sind identisch: Angeblich sorgen die Geräte für moderneren, innovativeren Unterricht, höhere Motivation der Schüler/innen, bessere Lernergebnisse. Wissenschaftlich valide Studien belegen das Gegenteil. Der pädagogische Nutzen war und ist bis heute negativ. PISA-Koordinator Andreas Schleicher: „Wir müssen es als Realität betrachten, dass Technologie in unseren Schulen mehr schadet als nützt.“ (Schleicher, 2016) Der Aktionsrat Bildung bestätigt in einer Studie für die Vereinigung der Bayerischer Wirtschaft (vbw) „statistisch signifikant niedrigere Kompetenzen in den Domänen Mathematik und Naturwissenschaften“, wenn Grundschülerinnen und Grundschüler im Unterricht mindestens einmal wöchentlich Computer einsetzen im Vergleich zu Grundschulkindern, die seltener als einmal pro Woche Computer im Unterricht nutzten - und fordert trotzdem, die Schulen müssten schneller digitalisiert werden.
Es geht offensichtlich um Anderes. Es sind wirtschaftliche Interessen der IT-Wirtschaft und der Global Education Industries (GEI), die die Bildungsmärkte nach angelsächsischem Vorbild privatisieren und kommerzialisieren wollen. Es sind zugleich die Geschäftsmodelle der Daten-Ökonomie, die alle Lebensbereiche verdaten und Menschen per Algorithmus und kybernetischen Modellen steuern wollen – wie in den 1950er Jahren (Behaviorismus, programmiertes Lernen). Die Digitalisierung ist „nur“ die technische Infrastruktur zur Datenerhebung, die empirische Bildungsforschung das Instrumentarium zur Quantifizierung auch des Sozialen (Mau, 2018). Nach Arbeitsmarkt und Kommunikation stehen derzeit Bildung und Gesundheit auf der Agenda der Digitalisten. Das Problem: Werden soziale Systeme nach der binären Logik der IT umgebaut, verlieren sie alles Soziale. Daher ist die vordringliche Aufgabe der Pädagogik, die derzeit dominierenden Denkstrukturen von BWL und IT, Empirie, Kennzahlenfixierung und behavioristischen Lerntheorien als dysfunktionalen und a-sozialen Irrweg zu kennzeichnen und stattdessen Schule und Unterricht wieder vom Menschen und seinen Lernprozessen her zu denken.
Die Digitalisierung aller Lebensbereiche ist kein Technik-, sondern ein Systemwechsel. Alles, was wir im Netz tun, wird verdatet; idealiter prenatal bis postmortal. Dieser Datenpool wird mit immer ausgefeilteren Algorithmen des Big Data Mining analysiert und mit Methoden der Empirie, Statistik und Mustererkennung ausgewertet. Der Mensch wird zum Datensatz. Je früher Menschen psychometrisch vermessen werden können, desto exaktere Persönlichkeits-, Lern- und Leistungsprofile entstehen – und umso leichter ist die Einflussnahme. Das ist der Grund für die Forderung nach Digitaltechnik in KiTas und Grundschulen. Menschen werden daran gewöhnt zu tun, was Maschinen ihnen sagen. Das ist Gegenaufklärung aus dem Silicon Valley per App und Web. Wie Alternativen aussehen können, zeigt dieser Beitrag.
Über Chancen und Risiken von Computern an Schulen wird seit deren Einführung im Jahr 1984 kontrovers diskutiert. Neben Laptops und Tablets geht es heute um die Nutzung von Schulclouds und privaten Smartphones im Unterricht. Das Akronym dafür ist BYOD – »Bring Your Own Device«.
Dabei stellen sich grundsätzliche pädagogische und politische Fragen: Welcher Unterrichts- und Medienkonzepte bedarf es, um den Risiken der Digitalisierung vorzubeugen, die Schüler_innen aber zugleich an deren Chancen teilhaben zu lassen? Bei Netzanwendungen ist zudem der Datenschutz zu beachten, vor allem, wenn eigene Geräte genutzt werden sollen. So fördert das BMBF eine Schulcloud, in der Lehrkräfte und Schüler_innen wie bei Facebook Gruppen bilden, Dokumente austauschen und online darüber diskutieren können.
Das Buch greift die aktuelle Kontroverse auf und fragt nach den Zielen und Nebenwirkungen von »Bildung 4.0«. Was davon ist für die Unterrichtspraxis relevant? Und wessen Interessen werden bei welchen Konzepten vertreten?
Controlling ist ein Begriff aus der Wirtschaftslehre und bezeichnet nicht Kontrollle, sondern Prozeßsteuerung. Definierte Ziele werden durch kleinteilige Messungen und permanente Überwachung aller Arbeitsschritte und Handlungen der beteiligten Personen protokolliert und stetig optimiert. Dieses Konzept der Planungs-, Koordinations- und Kontrollaufgaben wird beim „Bildungs-Controlling“ auf Schulen und Hochschulen übertragen. Ziel ist dabei, entsprechend der Gary Beckerschen Humankapitaltheorie, die Produktion von Humankapital mit validierten Kompetenzen. Zwei Probleme gibt es dabei: Lernen und vor allem Verstehen lassen sich nicht automatisieren und auch nicht automatisiert prüfen. Und: Sozialsysteme unter dem Regime der Kennzahlen des Quality Management (QM) oder Total Quality Management (TQM) verlieren ihre Eigenschaft als soziale Systeme
Unternehmerische Entscheidungen sollten auf einer angemessene Informationsgrundlage basieren. Diese rechtliche Aufforderung stellt Geschäftsleiter in der Praxis vor erhebliche Herausforderungen, die insbesondere die Erstellung von Prognosen betreffen. Um hier einen Unterstützungsbeitrag zu leisten, wird eine Heuristik vorgestellt, die das Treffen prognosebezogener Informationsentscheidungen anleitet. Die Heuristik übernimmt aus der Multiattributiven Nutzentheorie die Empfehlung, Informationsentscheidungen als Gesamtheit aus Zielfunktion und Bewertungsfunktion zu modellieren. In der Zielfunktion werden die Ziele der Informationsentscheidungen von den allgemeinen Unternehmenszielen wie etwa dem Gewinn gelöst. Statt dessen wird auf die Bewirkung besonderer Qualitätseigenschaften von Informationen abgestellt; das sind Vollständigkeit, Genauigkeit und Zuverlässigkeit. Daraus ergeben sich die beiden grundlegenden Ziele von Informationsentscheidungen: „Maximierung der Informationsqualität“ und „Minimierung der Informationskosten“. Auf dieser Grundlage besteht für die Bewertungsfunktion die Herausforderung darin, die positiven Nutzenwirkungen aus einer Vergrößerung der Informationsqualität abzuwägen gegen die negativen Nutzenwirkungen, die aus einer damit verbundenen Vergrößerung der Informationskosten resultieren. Um diese Herausforderung zu bewältigen, wird ein iteratives Verfahren aus sequentiell zu treffenden und in diesem Sinne inkrementellen Informationsentscheidungen vorgeschlagen. Wertvoll ist diese Heuristik einerseits in entscheidungstheoretischer Hinsicht, weil sie vorliegende methodische Überlegungen zum Treffen von Informationsentscheidungen erweitert. Vor allem aber besitzt die Heuristik einen praktischen Wert für Geschäftsleiter, da ihre Anwendung bessere Voraussetzungen dafür schafft, der rechtlichen Pflicht zur ordentlichen und gewissenhaften Geschäftsführung zu genügen.
Wer sich als Pädagoge und Wissenschaftler mit dem Thema „Digitalisierung und Schule“ befasst, stellt fest, dass nur Wenige die Tragweite der beabsichtigten Transformation von Bildungseinrichtungen zu automatisierten, algorithmisch gesteuerten Lernfabriken realisieren. Dabei wird übersehen, dass mit Theorien und empirischen Modellen wie der „datengestützten Schulentwicklung“ und „Learning Analytics“ grundlegende Paradigmenwechsel verbunden sind, die das humane wie das christliche Menschenbild erschüttern. Mit Kybernetik und Behaviorismus auf der einen, mit der sogenannten „Künstlichen Intelligenz“ (KI) und darauf aufbauenden Geschäftsmodellen der Datenökonomie auf der anderen Seite, untergraben diese Beschulungsmodelle die Autonomie, das Selbstbestimmungsrecht und die Handlungsfreiheit des Menschen. Vertreter dieser Disziplinen behaupten, dass sowohl der einzelne Mensch wie Sozialgemeinschaften wie Maschinen programmiert und gesteuert werden können. Sie blenden aus, dass Mündigkeit und Selbstverantwortung das Ziel von Schule und Unterricht sind, nicht maschinell berechnete Verhaltenssteuerung und -manipulation. Diese Fehlentwicklungen sind nicht der Technik an sich geschuldet, die sich anders einsetzen ließe, sondern den Geschäftsmodellen der IT-Anbieter.
Numerische Physik
(2019)
Dieses Lehrbuch stellt die Numerische Physik anhand einer Vielzahl von Beispielen aus den Bereichen Mechanik, Elektrodynamik, Optik, Statistischer Physik und Quantenmechanik dar. Der Leser lernt hier nicht nur die wichtigsten numerischen Techniken in der Programmiersprache C++ kennen, sondern erhält auch neue Einblicke in die Physik, die konventionelle Zugänge nicht bieten. Das Werk schließt damit eine Lücke zwischen den Standardlehrbüchern der Theoretischen Physik und denen der reinen Programmierung.
Zu jedem der physikalischen Themen gibt es eine kurze Wiederholung des theoretischen Hintergrunds und anschließend werden ausgewählte Beispiele im Detail ausgearbeitet. Übungen am Ende des Kapitels bieten weitere Gelegenheit die Anwendungen des Gelernten zu vertiefen.
Das Buch richtet sich vornehmlich an Physikstudierende höherer Semester, die bereits über eine Basis in Theoretischer Physik verfügen und auch Grundkenntnisse in der Programmierung in C++ mitbringen.
Auf der Produktseite zum Buch auf springer.com finden sich alle Quelltexte zu den Programmen im Buchtext zum Download. Im Anhang erhalten Sie eine Zusammenstellung und Erläuterung frei verfügbarer Software, die sowohl dem Windows-Anwender als auch dem Linux-Freund alle Werkzeuge an die Hand gibt, die er zur Bearbeitung anspruchsvoller physikalischer Fragestellungen benötigt - von Compilern über numerische Bibliotheken bis hin zu Visualisierungstools.
Auf Grundlage der Computer-Aided-Design (CAD)-rekonstruierten ersten „Eisernen Hand“ des Götz von Berlichingen wird ein umgebautes, controllergesteuertes sensomotorisches Fingersystem auf seine Funktionalität beim Greifen von unterschiedlichen Gegenständen beschrieben und geprüft. Die elektronischen Finger, die den „Pinzettengriff“ nachahmen und automatisch bei dem zuvor eingestellten Anpressdruck abschalten, bewiesen eine bemerkenswerte Alltagstauglichkeit. Das vorgestellte Grundkonzept könnte eine Alternative bei der Entwicklung einfacher und kostengünstiger, aber dennoch gut einsatzfähiger bionischer Hände sein und zeigt einmal mehr, wie historische Ideen in die Gegenwart transferiert werden können.
This book, now in its second, completely revised and updated edition, offers a critical approach to the challenging interpretation of the latest research data obtained using functional neuroimaging in whiplash injury. Such a comprehensive guide to recent and current international research in the field is more necessary than ever, given that the confusion regarding the condition and the medicolegal discussions surrounding it have increased further despite the publication of much literature on the subject. In recent decades especially the functional imaging methods – such as single-photon emission tomography, positron emission tomography, functional MRI, and hybrid techniques – have demonstrated a variety of significant brain alterations. Functional Neuroimaging in Whiplash Injury - New Approaches covers all aspects, including the imaging tools themselves, the various methods of image analysis, different atlas systems, and diagnostic and clinical aspects. The book will help physicians, patients and their relatives and friends, and others to understand this condition as a disease.
In recent times, the energy consumed by buildings facilities became considerable. Efficient local energy management is vital to deal with building power demand penalties. This operation becomes complex when a hybrid energy system is included in the power system. This study proposes new energy management between photovoltaic (PV) system, Battery Energy Storage System (BESS) and the power network in a building by controlling the PV/BESS inverter. The strategy is based on explicit model predictive control (MPC) to find an optimal power flow in the building for one-day ahead. The control algorithm is based on a simple power flow equation and weather forecast. Then, a cost function is formulated and optimised using genetic algorithms-based solver. The objective is reducing the imported energy from the grid preventing the saturation and emptiness of BESS. Including other targets to the control policy as energy price dynamic and BESS degradation, MPC can optimise dramatically the efficacy of the global building power system. The strategy is implemented and tested successfully using MATLAB/SimPowerSystems software, compared to classical hysteresis management, MPC has given 10% in energy cost economy and 25% improvement in BESS lifetime.
Gesellschaftliche, wirtschaftliche und technologische Umbrüche stellen das klassische Governance-Verständnis heute auf den Prüfstand. Sowohl organisationsintern als auch in den Beziehungen zu den Stakeholdern und der Umwelt zeigt sich immer mehr, dass Unternehmenssteuerung nur noch begrenzt möglich ist.
Wie der Spagat gelingt, im Unternehmen für ein stabilisierendes Mindestmaß an Orientierung zu sorgen, aber auch unter hoher Marktdynamik flexibel zu bleiben, beleuchtet Sybille Schwarz aus verschiedenen Blickwinkeln. Diese verknüpft sie zu einer multiperspektivischen Governance-Betrachtung.
• Die managementorientierte Perspektive: zu normativen, strategischen und unternehmenskulturellen Gestaltungsmöglichkeiten
• Die ökonomische Perspektive: zu Verhaltensmustern unter komplexen Markt- und Wettbewerbsbedingungen
• Die gesellschaftliche Perspektive: zu Veränderungen durch die Digitalisierung oder Fragen der Nachhaltigkeit
Eine Einladung zum Perspektivwechsel für Aufsichtsräte und Entscheidungsträger, um Chancen und Risiken eingesetzter Governance-Strukturen organisationsgerecht zu beurteilen.
Virtual reality in the hotel industry: assessing the acceptance of immersive hotel presentation
(2019)
In the hotel industry, it is crucial to reduce the inherent information asymmetry with regard to the goods offered. This asymmetry can be minimised through the use of smartphone-based virtual reality applications (SBVRs), which allow virtual simulation of real experiences and thus enable more efficient information retrieval. The aim of the study is to determine for the first time the user acceptance of these immersive hotel presentations for assessing the performance of a travel accommodation. For this purpose, the Technology Acceptance Model (TAM) was used to explain the acceptance behaviour for this new technology. A virtual reality application was specially developed, in which the participants could explore a hotel virtually. A total of 569 participants took part in the study. The structural equation model and the hypotheses were tested using a Partial Least Squares (PLS) analysis. The results illustrate that the immersive product experience leads to more efficient information gathering. The perceived usefulness significantly affects the attitude towards using the technology as well as the intention to use it. In contrast to the traditional TAM, the perceived ease of use of SBVRs has no effect on the perceived usefulness or attitude towards using the technology.
In this paper pathophysiological interrelated deactivation/activation phenomena are set out in the example of whiplash injury. These phenomena could have been underestimated in previous positron emission tomography studies as their focus was on hypoperfusion rather than hyperperfusion. In addition, statistical parametric mapping analysis of cerebral studies is normally not fine-tuned to special interesting areas rather than to obvious clusters of difference.
Es wird eine Fallstudie vorgestellt, die die Visualisierung von Geschäftsdaten nach dem International Business Communication Standard IBCS (Hichert & Faisst 2016 / 2017) auf der cloudbasierten Plattform SAP Analytics Cloud umsetzt. Mit der Fallstudie soll die Frage beantwortet werden, ob IBCS im Rahmen einer Lehreinheit mit hohem praktischem Anteil mit SAP Analytics Cloud umgesetzt werden kann. Darüber hinaus soll der generelle Einsatz von SAP Analytics Cloud für die Lehre im Analytics-Umfeld evaluiert werden.
Vorgestellt wird ein Konzept zur biologischen Methanisierung von Wasserstoff direkt in Biogasreaktoren, mit dem durch Membranbegasung der Methangehalt des Biogases auf > 96 % erhöht werden kann. Essentiell zum Erreichen solch hoher Methanwerte sind die Einhaltung eines optimalen pH-Bereichs und die Vermeidung von H2-Akkumulation. Im Falle einer Limitierung der Methanbildungsrate durch den eigentlichen anaeroben Abbauprozess der Biomasse ist auch eine externe Zufuhr von CO2 zur weiteren Methanbildung denkbar. Das Verfahren soll weiter optimiert und in einem von der Deutschen Bundesstiftung Umwelt geförderten Projekt in der Biogasanlage einer regionalen Käserei in der Praxis getestet werden. Die hier angestrebte Kombination aus dezentraler Abfallverwertung und Eigenenergieerzeugung eines lebensmittelverarbeitenden Betriebs unter Einbindung in ein intelligentes Erneuerbare Energien - Konzept soll einen zusätzlichen Mehrwert liefern.
Das Ziel der Arbeit ist es, die Wirkung von datenschutzbezogenen Gütesiegeln auf das Vertrauen, die Teilnahmebereitschaft und die freiwillige Datenbekanntgabe in Webbefragungen zu untersuchen. Hierbei soll der unternehmerische Nutzen im Kontext der deutschen Markt-, Medien- und Sozialforschung transparent gemacht werden. Da sich an diesem Markt überwiegend kleine und mittlere Forschungseinrichtungen befinden, werden die wirtschaftlichen Belange dieser Unternehmen besonders berücksichtigt. Insgesamt beschäftigt sich die Arbeit durch den besonderen Branchenbezug zur deutschen Markt-, Medien- und Sozialforschung mit einem neuartigen Forschungsfeld. Vor diesem Hintergrund werden die konzeptionellen und theoretischen Grundlagen, die zum Einsatz von Gütesiegeln im E-Commerce vorliegen, in einem neuen Licht betrachtet. Dabei liegt die Besonderheit der Arbeit darin, dass sie sich mit der freiwilligen Bekanntgabe von persönlichen Daten auf der Basis von intrinsisch motivierten Faktoren befasst.
Forschung im Fokus 2019
(2019)
Smart Cities und Big Data
(2019)
Brückenkurs Physik
(2019)
Dieses Lehrbuch fasst alle wesentlichen, für das Studium eines MINT-Faches relevanten Inhalte der Physik zusammen und hilft physikalisches Grundwissen aufzufrischen. Es unterstützt Studienanfänger dabei, die Routine in der konkreten Anwendung, die an der Hochschule vorausgesetzt wird, zu festigen. Dabei folgt die Stoffauswahl dem Mindestanforderungskatalog Physik, den ein Arbeitskreis aus Professoren der baden-württembergischen Hochschulen für angewandte Wissenschaften zusammengestellt hat.
High temperature components in internal combustion engines and exhaust systems must withstand severe mechanical and thermal cyclic loads throughout their lifetime. The combination of thermal transients and mechanical load cycling results in a complex evolution of damage, leading to thermomechanical fatigue (TMF) of the material. Analytical tools are increasingly employed by designers and engineers for component durability assessment well before any hardware testing. The DTMF model for TMF life prediction, which assumes that micro-crack growth is the dominant damage mechanism, is capable of providing reliable predictions for a wide range of high-temperature components and materials in internal combustion engines. Thus far, the DTMF model has employed a local approach where surface stresses, strains, and temperatures are used to compute damage for estimating the number of cycles for a small initial defect or micro-crack to reach a critical length. In the presence of significant gradients of stresses, strains, and temperatures, the use of surface field values could lead to very conservative estimates of TMF life when compared with reported lives from hardware testing. As an approximation of gradient effects, a non-local approach of the DTMF model is applied. This approach considers through-thickness fields where the micro-crack growth law is integrated through the thickness considering these variable fields. With the help of software tools, this method is automated and applied to components with complex geometries and fields. It is shown, for the TMF life prediction of a turbocharger housing, that the gradient correction using the non-local approach leads to more realistic life predictions and can distinguish between surface cracks that may arrest or propagate through the thickness and lead to component failure.
Cast aluminum alloys are frequently used as materials for cylinder head applications in internal combustion gasoline engines. These components must withstand severe cyclic mechanical and thermal loads throughout their lifetime. Reliable computational methods allow for accurate estimation of stresses, strains, and temperature fields and lead to more realistic Thermomechanical Fatigue (TMF) lifetime predictions. With accurate numerical methods, the components could be optimized via computer simulations and the number of required bench tests could be reduced significantly. These types of alloys are normally optimized for peak hardness from a quenched state that maximizes the strength of the material. However due to high temperature exposure, in service or under test conditions, the material would experience an over-ageing effect that leads to a significant reduction in the strength of the material. To numerically account for ageing effects, the Shercliff & Ashby ageing model is combined with a Chaboche-type viscoplasticity model available in the finite-element program ABAQUS by defining field variables. The constitutive model with ageing effects is correlated with uniaxial cyclic isothermal tests in the T6 state, the overaged state, as well as thermomechanical tests. On the other hand, the mechanism-based TMF damage model (DTMF) is calibrated for both T6 and over-aged state. Both the constitutive and the damage model are applied to a cylinder head component simulating several cycles on an engine dynamometer test. The effects of including ageing for both models are shown.
In users of a cochlear implant (CI) together with a contralateral hearing aid (HA), so-called bimodal listeners, differences in processing latencies between digital HA and CI up to 9 ms constantly superimpose interaural time differences. In the present study, the effect of this device delay mismatch on sound localization accuracy was investigated. For this purpose, localization accuracy in the frontal horizontal plane was measured with the original and minimized device delay mismatch. The reduction was achieved by delaying the CI stimulation according to the delay of the individually worn HA. For this, a portable, programmable, battery-powered delay line based on a ring buffer running on a microcontroller was designed and assembled. After an acclimatization period to the delayed CI stimulation of 1 hr, the nine bimodal study participants showed a highly significant improvement in localization accuracy of 11.6% compared with the everyday situation without the delay line (p < .01). Concluding, delaying CI stimulation to minimize the device delay mismatch seems to be a promising method to increase sound localization accuracy in bimodal listeners.
Mathematik 2 Beweisaufgaben
(2019)
Der zweite Band der Beweisaufgabensammlung richtet sich an angehende Ingenieure und Naturwissenschaftler, die die im Rahmen einer Mathematik 2-Vorlesung behandelten Formeln nicht nur anwenden, sondern selbst herleiten wollen. Bei der Zusammenstellung des Inhalts wurde großer Wert auf Vollständigkeit gelegt, weshalb sich die Beweise hinsichtlich Umfang und Schwierigkeitsgrad mitunter sehr deutlich voneinander unterscheiden. Um die Herleitung der auf Lern- und Klausur-Formelsammlung aufgeteilten mathematischen Gleichungen und Regeln zu erleichtern, wird eine Dreiteilung der Beweise in Aufgabe, Lösungshinweis und Lösung vorgenommen. Umfangreichere Herleitungen sind in Teilaufgaben zerlegt und anspruchsvollere Beweise durch Sternchen bzw. durch Sterne kenntlich gemacht.
In thermomechanisch hochbelasteten Bauteilen begrenzt das Wachstum von Ermüdungsrissen die Bauteillebensdauer. Es kommen Lebensdauermodelle und Finite-Elemente Simulationen zum Einsatz, um ein vorzeitiges Bauteilversagen zu verhindern. Hierbei werden im Allgemeinen deterministische Werkstoffeigenschaften unterstellt, sodass die Information über die im realen Werkstoff auftretenden Streuungen verloren geht, was eine Unsicherheit im Auslegungsprozess mit sich bringt. In der vorliegenden Ausarbeitung werden Methoden zur adäquaten Bestimmung der Werkstoffkennwerte und zur Beschreibung ihrer Streuung durch statistische Verteilungen entwickelt. Einen wesentlichen Aspekt der Arbeit stellt die Bestimmung von objektiven Werkstoffkennwerten dar, zu deren Zweck ein Robustheitskriterium eingeführt wird. Anhand zahlreicher Versuchsdatensätze der Nickelbasislegierung MARM247 und des niobstabilisierten austenitischen Stahls X6 CrNiNb 18-10 kann diese Methodik ausgearbeitet werden und führt auf ein probabilistisches Lebensdauermodell, dass die Abschätzung des Einfluusses von statistisch verteilten Werkstoffkennwerten auf die Ermüdungslebensdauer erlaubt. Als Ergebnis einer Monte-Carlo Simulation zeigt sich, dass im Vergleich von deterministischer zu probabilistischer Lebensdauerbewertung eine probabilistische Auswertung bei beiden untersuchten Werkstoffen zu einem um circa Faktor zwei größeren Streuband in der Lebensdauer führt. In einem Bauteilkonzept wird die anhand der Versuchsdaten erarbeitete Methodik erweitert, sodass eine Abschätzung des Ein usses von streuenden Werkstoffeigenschaften auf Bauteilebene durch Finite-Elemente Simulationen möglich wird. Es kommt das Two-Layer-Viscoplasticity Modell zum Einsatz. Um die Streuung seiner Werkstoffkennwerte ermitteln zu können, reicht die vorliegende Datenbasis nicht aus, sodass Annahmen zu den Werkstoffkennwerten getroffen werden müssen.
Synergieprognosen spielen bei der Begründung von Unternehmensübernahmen regelmäßig eine wichtige Rolle. Da diese Prognosen unsicher sind, bedürfen sie einer fundierten Beurteilung, was wiederum eine offene Diskussion innerhalb von Vorstand und Aufsichtsrat voraussetzt. Solche Diskussionen sind jedoch keine Selbstverständlichkeit, da Gruppen dazu neigen, problematische Entscheidungsaspekte nicht angemessen zu würdigen. Mit dem Tornado-Diagramm wird ein Instrument vorgestellt, das diesem Effekt entgegenwirkt und die Entscheider dazu motiviert, auch ungünstige Synergieprognosen zu diskutieren. Auf diese Weise kann die Übernahmeentscheidung auf eine bessere Informationsgrundlage gestellt werden.
Hot working tools are subjected to complex thermal and mechanical loads during service. Locally, the stresses can exceed the material’s yield strength in highly loaded areas. During production, this causes cyclic plastic deformation and thus thermomechanical fatigue, which can significantly shorten the lifetime of hot working tools. To sustain this high loads, the hot working tools are typically made of tempered martensitic hot work tool steels. While the annealing temperatures of the tool steels usually lie in the range of 400 to 600 °C, the steels may experience even higher temperatures during hot working, resulting in softening of the material due to changes in microstructure. Therefore, the temperature-dependent cyclic mechanical properties of the frequently used hot work tool steel 1.2367 (X38CrMoV5-3) after tempering are investigated in this work. To this end, hardness measurements are performed. Furthermore, the Institute of Forming Technology and Machines (IFUM) provides test results from cyclic tests at temperatures ranging from 20 °C (room temperature) to 650 °C. To describe the observed time- and temperature-dependent softening during tempering, a kinetic model for the evolution of the mean size of secondary carbides based on Ostwald ripening is developed. In addition, both mechanism-based and phenomenological relationships for the cyclic mechanical properties of the Ramberg- Osgood model depending on carbide size and temperature are proposed. The stress-strain hysteresis loops measured at different temperatures and after different heat treatments can be well described with the proposed kinetic and mechanical model. Furthermore, the model is suitable for integration in advanced mechanism-based lifetime models. However, since the Ramberg-Osgood model is not suitable for finite element implementation, a temperature-dependent incremental cyclic plasticity model is presented as well. Thus, softening due to particle coarsening can be applied in the finite element method (FEM). Therefore, a kinetic model is coupled with a cyclic plasticity model including kinematic hardening. The plasticity model is implemented via subroutines in the finite element program ABAQUS for implicit integration (subroutine called UMAT) and explicit integration (subroutine called VUMAT). The implemented model is used for the simulation of an exemplary hot working process to assess the effects of softening due to particle coarsening. It shows that the thermal softening at high temperatures, which occur over a long time at a mechanically highly loaded area, has a great influence. If this influence is not considered in tool design, an unexpected tool failure might occur bringing the production to a standstill.
Erweiterung der Ackermann-Formel für Mehrgrößensysteme um Freiheitsgrade zur Führungsentkopplung
(2019)
Der Beitrag zeigt bisher nicht genutzte Freiheitsgrade beim Entwurf eines linearen, zeitinvarianten Zustandsreglers für steuerbare Mehrgrößensysteme auf, wenn dieser auf der Basis der Ackermann´schen Formel durchgeführt wird. Darüber hinaus wird dargelegt, wie diese Freiheitsgrade zur Führungsentkopplung gezielt eingesetzt werden können. Damit dies gelingt, wird wie in der einschlägigen Literatur eine Transformation der Zustandsgleichungen in eine teilsystemorientierte Struktur vorgenommen. Jedoch werden modifizierte Transformationsbeziehungen verwendet, die die benötigten Freiheitsgrade hervorbringen. Der Beitrag konzentriert sich hierbei auf zeitdiskrete Systeme, wenngleich die geschilderte Vorgehensweise grundsätzlich auch bei zeitkontinuierlichen Systemen anwendbar ist. Angesichts der gewählten Methodik, die Regelungseigenwerte vorzugeben und die verbleibenden Freiheitsgrade zur Erfüllung weiterer Forderungen an den Regler heranzuziehen, ist das vorgestellte Verfahren eine unmittelbare Alternative zu anderen Polvorgabeverfahren wie z. B. zur Vollständigen Modalen Synthese. Im Fall einer nicht realisierbaren vollständigen Führungsentkopplung bietet die vorgestellte Methode die Möglichkeit einer Lösungsfindung, bei der die verbleibenden Verkopplungen im Sinne eines quadratischen Gütemaßes minimiert werden.
As part of the design education at Offenburg University, the teaching in technical documentation is continuously optimised. In this study, numerous mechanical engineering students, ages 19 to 29, are observed using the eye tracking technology and a video camera while performing various design exercises. The aim of the study is to enhance the students’ ability to read, understand and analyse complex engineering drawings. In one experiment, the students are asked to perform the “cube perspective test” after Stumpf and Fay to assess their ability for mental rotation as part of spatial visualization ability. Furthermore, the students are asked to prepare and give micro presentations on a topic related to their studies. Students have a maximum of 100 s time for these presentations. Thus, they can practise presenting important information in a short amount of time, show their rhetorical skills and demonstrate their acquisition of basic knowledge. During the presentation, the eye movement of a few selected students is recorded to analyse their information acquisition. In a further test, the students’ eye movements are analysed while reading an engineering drawing that consists of multiple views. All the spatial connections have to be included based on the different component views. Including these and their acquired knowledge, the students are asked to identify the correct representation of a component view. Furthermore the subjects are describing the function of an assembly, a parallel gripper and then they are to mentally disassemble the assembly to replace a damaged cylindrical pin. Simultaneously, they are filmed using a video camera to see which terms the students use for the individual technical terms. The evaluation of the eye movements shows that the increasing digitalisation of society and the use of electronic devices in everyday life lead to fast and only selective perceptual behaviour and that students feel insecure when dealing with technical drawings. The analysis of the videos shows a mostly non-technical and inaccurate manner of expression and a poor use of technical terms. The transferability of the achieved results to other technical tasks is part of further investigations.
In den hier vorliegenden Fallstudien wurden mehrere Studierende des Studiengangs Maschinenbau an der Hochschule Offenburg im Alter von 18 bis 28 Jahren bei der Lösungsfindung für Konstruktionsaufgaben mit der Eye-Tracking-Technologie und einer Videokamera beobachtet. Ziel der empirischen Untersuchung war es, die praktische Fähigkeit von Studierenden beim Lesen, Verstehen und Analysieren von technischen Darstellungen zu fördern. Die Auswertung der Augenbewegungen zeigt, dass die zunehmende Digitalisierung der Gesellschaft und der Umgang mit elektronischen Kleinstgeräten im Alltag zu einem punktuellen und flüchtigen Wahrnehmungsverhalten führen und dass sich die Studierenden im Umgang mit technischen Zeichnungen unsicher fühlen. Die Analyse der Videos zeigt eine meist nicht-technische und ungenaue Ausdrucksweise und eine schlechte Verwendung von Fachbegriffen.
Spinal cord stimulation (SCS) is the most commonly used technique of neurostimulation. It involves the stimulation of the spinal cord and is therefore used to treat chronic pain. The existing esophageal catheters are used for temperature monitoring during an electrophysiology study with ablation and transesophageal echocardiography. The aim of the study was to model the spine and new esophageal electrodes for the transesophageal electrical pacing of the spinal cord, and to integrate them in the Offenburg heart rhythm model for the static and dynamic simulation of transesophageal neurostimulation. The modeling and simulation were both performed with the electromagnetic and thermal simulation software CST (Computer Simulation Technology, Darmstadt). Two new esophageal catheters were modelled as well as a thoracic spine based on the dimensions of a human skeleton. The simulation of directed transesophageal neurostimulation is performed using the esophageal balloon catheter with an electric pacing potential of 5 V and a trapezoidal signal. A potential of 4.33 V can be measured directly at the electrode, 3.71 V in the myocardium at a depth of 2 mm, 2.68 V in the thoracic vertebra at a depth of 10 mm, 2.1 V in the thoracic vertebra at a depth of 50 mm and 2.09 V in the spinal cord at a depth of 70 mm. The relation between the voltage delivered to the electrodes and the voltage applied to the spinal cord is linear. Virtual heart rhythm and catheter models as well as the simulation of electrical pacing fields and electrical sensing fields allow the static and dynamic simulation of directed transesophageal electrical pacing of the spinal cord. The 3D simulation of the electrical sensing and pacing fields may be used to optimize transesophageal neurostimulation.
The visualization of heart rhythm disturbance and atrial fibrillation therapy allow the optimization of new cardiac catheter ablations. With the simulation software CST (Computer Simulation Technology, Darmstadt) electromagnetic and thermal simulations can be carried out to analyze and optimize different heart rhythm disturbance and cardiac catheters for pulmonary vein isolation. Another form of visualization is provided by haptic, three-dimensional print models. These models can be produced using an additive manufacturing method, such as a 3D printer. The aim of the study was to produce a 3D print of the Offenburg heart rhythm model with a representation of an atrial fibrillation ablation procedure to improve the visualization of simulation of cardiac catheter ablation.
The basis of 3D printing was the Offenburg heart rhythm model and the associated simulation of cryoablation of the pulmonary vein. The thermal simulation shows the pulmonary vein isolation of the left inferior pulmonary vein with the cryoballoon catheter Arctic Front AdvanceTM from Medtronic. After running through the simulation, the thermal propagation during the procedure was shown in the form of different colors. The three-dimensional print models were constructed on the base of the described simulation in a CAD program. Four different 3D printers are available for this purpose in a rapid prototyping laboratory at the University of Applied Science Offenburg. Two different printing processes were used: 1. a binder jetting printer with polymer gypsum and 2. a multi-material printer with photopolymer. A final print model with additional representation of the esophagus and internal esophagus catheter was also prepared for printing.
With the help of the thermal simulation results and the subsequent evaluation, it was possible to make a conclusion about the propagation of the cold emanating from the catheter in the myocardium and the surrounding tissue. It could be measured that already 3 mm from the balloon surface into the myocardium the temperature drops to 25 °C. The simulation model was printed using two 3D printing methods. Both methods as well as the different printing materials offer different advantages and disadvantages. While the first model made of polymer gypsum can be produced quickly and cheaply, the second model made of photopolymer takes five times longer and was twice as expensive. On the other hand, the second model offers significantly better properties and was more durable overall. All relevant parts, especially the balloon catheter and the conduction, are realistically represented. Only the thermal propagation in the form of different colors is not shown on this model.
Three-dimensional heart rhythm models as well as virtual simulations allow a very good visualization of complex cardiac rhythm therapy and atrial fibrillation treatment methods. The printed models can be used for optimization and demonstration of cryoballoon catheter ablation in patients with atrial fibrillation.
Die Vorlesung Physik ist ein grundlegender Baustein der meisten Ingenieursstudiengänge und stellt für viele Studienanfänger eine Hürde zum Studienstart da. Die Vorkenntnisse der Studienanfänger sind zunehmend heterogen und der sichere Umgang mit physikalischen Konzepten erfordert mehr oder wenig Übung, um diese zu festigen oder auch erstmals einzuführen. Um dieses Üben zu ermöglichen, wurde für die Vorlesung "Physik 1" in den Studiengängen Maschinenbau, Werkstofftechnik, Mechatronik, Biomechanik, Biotechnologie und Umwelt- und Verfahrenstechnik der Hochschule Offenburg ein E-Tutorium erarbeitet, das die Übungsaufgaben in Form von 10 Online-Selbsttest mit jeweils vier Übungsaufgaben anbietet. Die Selbsttests beinhalten dabei typische Aufgabenstellungen, deren Zahlenwerte (Masse, Geschwindigkeit usw.) bei jedem Aufruf der Aufgabe variieren. Dadurch lassen sich die Selbsttests zum selbständigen Üben nutzen. Ein reines Abschreiben einer Musterlösung ist durch die veränderlichen Zahlenwerte darüber hinaus unmöglich. Wir beschreiben eine Methode zur effizienten Erzeugung der Moodle-basierten Selbsttests mit Hilfe der Software R/exams und berichten über die Erfahrungen beim ersten Einsatz.
Die Studienanfänger in den technischen Studiengängen der Hochschulen für angewandte Wissenschaften haben nicht nur in Mathematik sondern auch in Physik sehr unterschiedliche Vorkenntnisse. Obwohl diese Fächer für das grundlegende Verständnis technischer Vorgänge von großer Bedeutung sind, kann die Ausbildung in diesen Bereichen angesichts der begrenzten dafür im Verlauf des Studiums zur Verfügung stehenden Zeitfenster nicht bei Null anfangen. Für Mathematik wurde daher von der Arbeitsgruppe cosh ein Mindestanforderungskatalog zusammengestellt und 2014 veröffentlicht. Er beschreibt Kenntnisse und Fertigkeiten, die Studienanfänger zur erfolgreichen Aufnahme eines WiMINT-Studiums (Wirtschaft, Mathematik, Informatik, Naturwissenschaft, Technik) an einer Hochschule benötigen. Inzwischen hat sich nun eine Arbeitsgruppe von Physikerinnen und Physikern an Hochschulen in Baden-Württemberg gebildet, deren Ziel es ist, einen analogen Mindestanforderungskatalog für den Bereich Physik zu erstellen. Hier wird der aktuell erreichte Stand der Arbeiten vorgestellt.
Im Beitrag wird für lineare, zeitinvariante, zeitdiskrete und stabile Regelstrecken beschrieben, wie zwei bekannte Zustandsraumverfahren zur Windup-Vermeidung so miteinander kombiniert werden können, dass dadurch für sämtliche PI-Zustandsregler Strecken- und Regler-Windup verhindert wird, sofern diese Regler im unbegrenzten Fall stabil sind. Zurückgegriffen wird hierbei auf das „Additional Dynamic Element“ (ADE) von Hippe zur Vermeidung von Strecken-Windup [Hippe, P.: Windup in control – Its effects and their prevention, 2006; at – Automatisierungstechnik, 2007], dessen Übertragung auf zeitdiskrete Systeme im Beitrag kurz skizziert wird, sowie auf das Verfahren der Führungsgrößenkorrektur [Nuß, U.: at – Automatisierungstechnik, 2017] zur Vermeidung von Regler-Windup. Das vorgestellte Kombinationsverfahren setzt für die jeweilige Regelstrecke lediglich die Einbeziehung eines bereits existierenden P-Zustandsreglers voraus, der Strecken-Windup vermeidet. Die Bereitstellung eines möglichst einfachen und dennoch nicht allzu einschränkenden Kriteriums zur Überprüfung, ob ein P-Zustandsregler diese Eigenschaft besitzt, ist ebenfalls ein Anliegen des Beitrags. Diesbezüglich wird auf der Basis einer geeigneten Ljapunow-Funktion ein hinreichendes Kriterium angegeben, das umfassender ist als das in [Nuß, U.: at – Automatisierungstechnik, 2017] verwendete. Ein Beispiel aus der elektrischen Antriebstechnik demonstriert die Leistungsfähigkeit der vorgestellten Methode.
Elektrische Antriebe sind ein innovationstreibender Kernbestandteil vieler industrieller Anlagen und Einrichtungen. Damit sie diese herausragende Rolle mit den daran geknüpften Erwartungen erfüllen können, ist neben optimierten Elektromotoren und sie speisenden, schnell schaltenden Stromrichterstellgliedern auch eine hochdynamische Regelung erforderlich. Diesem Umstand wird mit der angebotenen Veranstaltung in Form einer detaillierten Einführung in die Thematik der Regelung elektrischer Antriebe Rechnung getragen.
Grundlagen der Organisation
(2019)
Eine betriebswirtschaftliche Theorie der Organisationsgestaltung hat Strukturmodelle zu entwickeln, die als Grundlage für Organisationsentscheidungen des Managements geeignet sind. Es geht dabei um die Bewältigung der elementaren Anforderungen, die bei interpersoneller Arbeitsteilung zwangsläufig durch die Trennung zusammenhängender Aufgabenkomplexe und die Einbeziehung einer Mehrzahl von Personen mit jeweils individuellen Zielen entstehen. Bei der Verfolgung dieses Anliegens orientiert sich auch die Neuauflage der "Grundlagen der Organisation" unverändert am bewährten entscheidungstheoretischen Konzept der Organisationsgestaltung, das einen fundierten anwendungsbezogen Zugang zum Verständnis und zur Lösung komplexer Organisationsprobleme eröffnet.
The development of secure software systems is of ever-increasing importance. While software companies often invest large amounts of resources into the upkeeping and general security properties of large-scale applications when in production, they appear to neglect utilizing threat modeling in the earlier stages of the software development lifecycle. When applied during the design phase of development, and continuously throughout development iterations, threat modeling can help to establish a "Secure by Design" approach. This approach allows issues relating to IT security to be found early during development, reducing the need for later improvement – and thus saving resources in the long term. In this paper the current state of threat modeling is investigated. This investigation drove the derivation of requirements for the development of a new threat modelling framework and tool, called OVVL. OVVL utilizes concepts of established threat modeling methodologies, as well as functionality not available in existing solutions.
Blockchain frameworks enable the immutable storage of data. A still open practical question is the so called "oracle" problem, i.e. the way how real world data is actually transferred into and out of a blockchain while preserving its integrity. We present a case study that demonstrates how to use an existing industrial strength secure element for cryptographic software protection (Wibu CmDongle / the "dongle") to function as such a hardware-based oracle for the Hyperledger blockchain framework. Our scenario is that of a dentist having leased a 3D printer. This printer is initially supplied with an amount of x printing units. With each print action the local unit counter on the attached dongle is decreased and in parallel a unit counter is maintained in the Hyperledger-based blockchain. Once a threshold is met, the printer will stop working (by means of the cryptographically protected invocation of the local print method). The blockchain is configured in such a way that chaincode is executed to increase the units again automatically (and essentially trigger any payment processes). Once this has happened, the new unit counter value will be passed from the blockchain to the local dongle and thus allow for further execution of print jobs.
Protecting software from illegal access, intentional modification or reverse engineering is an inherently difficult practical problem involving code obfuscation techniques and real-time cryptographic protection of code. In traditional systems a secure element (the "dongle") is used to protect software. However, this approach suffers from several technical and economical drawbacks such as the dongle being lost or broken.
We present a system that provides such dongles as a cloud service, and more importantly, provides the required cryptographic material to control access to software functionality in real-time.
This system is developed as part of an ongoing nationally funded research project and is now entering a first trial stage with stakeholders from different industrial sectors.
Many sectors, like finance, medicine, manufacturing, and education, use blockchain applications to profit from the unique bundle of characteristics of this technology. Blockchain technology (BT) promises benefits in trustability, collaboration, organization, identification, credibility, and transparency. In this paper, we conduct an analysis in which we show how open science can benefit from this technology and its properties. For this, we determined the requirements of an open science ecosystem and compared them with the characteristics of BT to prove that the technology suits as an infrastructure. We also review literature and promising blockchain-based projects for open science to describe the current research situation. To this end, we examine the projects in particular for their relevance and contribution to open science and categorize them afterwards according to their primary purpose. Several of them already provide functionalities that can have a positive impact on current research workflows. So, BT offers promising possibilities for its use in science, but why is it then not used on a large-scale in that area? To answer this question, we point out various shortcomings, challenges, unanswered questions, and research potentials that we found in the literature and identified during our analysis. These topics shall serve as starting points for future research to foster the BT for open science and beyond, especially in the long-term.
Bei der Auslegung von geschraubten Stirnplattenstößen mit elastomerer Trennschicht dürfen gemäß Eurocode 3 lediglich die Flansche für eine Übertragung der Schnittgrößen berücksichtigt werden. Unsere Untersuchungen zeigen, dass auch die Stege für eine Bemessung herangezogen werden sollten. Sie tragen zu einer gleichmäßigeren Spannungsverteilung im Elastomerlager bei und erlauben somit höhere Belastungen bei gleichbleibenden Abmessungen.
Basis der FE-Analysen sind ein- und zweiachsige Zug- und Druckversuche, die das komplexe Materialverhalten der elastomeren Trennschicht erfassen. Die Übereinstimmung von Messung und Simulation ist sehr gut, was insbesondere auf das verwendete Materialgesetz zurückzuführen ist: ein nicht-linear viskoelastischer Ansatz in Kombination mit dem hyperelastischen Marlow-Modell.
Es hat sich herausgestellt, dass der Reibungskoeffizient und die Querkontraktionszahl des Elastomerlagers maßgeblich das Tragverhalten der geschraubten Stirnplattenstöße beeinflussen.
A car is only useful, when it runs properly – but keeping a car it running is getting more and more complex. Car service providers need a deep knowledge about technical details of the different car models. On the other hand car producers try to keep this information in their ownership. Digital data collection takes place every second on the car´s product life cycle and is stored on the car producers´ servers. The contribution of this paper is three-fold: we will provide an overview of the current concepts of intelligent order assistant technologies (I). This corpus is used to come to a more precise description of the specific service performance aspects (II). Finally, a representative empirical study with German motor mechanics will help to evaluate the wishes and needs regarding an intelligent order assistant in the garage (III).
Hatte Maria einen Jodmangel?
(2019)
Auch wenn sie im Internet-Zeitalter zu einer Normalität werden, bleiben Ferndiagnosen unter Medizinern umstritten. Erst recht vorsichtig sollte man sein, wenn es sich bei dem Patienten um die leibliche Mutter Gottes handelt. Doch wenn man in diesem Gemälde eine authentische Dokumentation sieht, ist der Befund eindeutig: Maria hatte zum Zeitpunkt der Geburt ihres berühmten Sohns auffällig lange und schlanke Finger sowie eine Struma des Grads II bis III.
Der niedersächsische Landtag entscheidet bei der Diskussion und Abstimmung über die drei genannten Anträge über mehr als nur die Verteilung der Investitionsmittel aus dem „Digitalpakt Schule“. Es geht um grundsätzliche Fragen: Wer bestimmt über Lehrinhalte an staatlichen Schulen und über eingesetzte (Medien-)Technik? Bleibt die Bildungspolitik des Landes dem Anspruch und Recht der Schülerinnen und Schüler nach individueller Bildung und Persönlichkeitsentwicklung verpflichtet, wie es in der Landesverfassung (§1(4)) und im Niedersächsischen Schulgesetz (§2 Bildungsauftrag, NschG) steht? Vermitteln öffentliche Schulen weiterhin eine fundierte Allgemeinbildung als Grundlage sozialer Teilhabe in demokratischen Gemeinschaften? Oder setzen sich Wirtschaftsverbände und IT-Lobbyisten durch, die für mehr und den immer früheren Einsatz von digitalen Endgeräten in Bildungseinrichtungen eintreten? Die „Programmieren bereits in der KiTa“ fordern und Schulen mit „leistungsstarken WLAN ausleuchten“ wollen (CDU/SPD-An-trag), ohne über Strahlung auch nur nachzudenken? Werden Schulen qua Landtagsbeschluss zu Ausbildungsstätten und Berufsvorbereitung (Münch, 2018, 177) – oder nicht?
Dabei ist wissenschaftlich belegt, dass die Qualität von Schule und Unterricht gerade nicht an Medientechnik gekoppelt ist. Entscheidend sind immer qualifizierte Lehrpersönlichkeiten, ein gut strukturierter, altersgerechter Unterricht und der soziale Umgang miteinander. (Studien von Hattie, Telekom, OECD u.a.) Lehren und Lernen sind individuelle und soziale Prozesse, keine technisch steuerbaren Abläufe. Unberücksichtigt bleiben inden Anträgen sowohl die historischen Belege des Scheiterns von Medientechnik (Pias) wie bereits gegenläufige Entwicklungen aus den USA. Kinder in (teuren) Privatschulenwerden wieder von realen Lehrerinnen und Lehrern unterrichtet und genießen den „Luxus menschlicher Interaktion“. Bildschirme sind dort aus den Schulen verbannt, während Kinder an öffentlichen Schulen an Tablets ohne LehrerInnen lernen müssen (Bowles, 2018).
Der niedersächsische Landtag entscheidet bei diesen Anträgen also darüber, ob bereits gescheiterte IT-Konzepte aus den USA wiederholt werden oder ob eine Diskussionüber sinnvolle und pädagogisch fundierte Medienkonzepte für Schulen eröffnet wird, die nicht auf Digitaltechnik verkürzt werden darf. Wer also bestimmt über Lehrinhalte und Medientechnik an Schulen? Die IT-Wirtschaft und Vertreter der Daten-Ökonomie, die Lehrangebote digitalisieren und privatisieren wollen? Oder entscheiden Volksvertreter, nach pädagogischer Expertise, die den Schülerinnen und Schülern verpflichtet sind?
Scheuklappen statt Weitblick
(2019)
Der bildungsferne Campus
(2019)
Social robots not only work with humans in collaborative workspaces – we meet them in shopping malls and even more personal settings like health and care. Does this imply they should become more human, able to interpret and adequately respond to human emotions? Do we want them to help elderly persons? Do we want them to support us when we are old ourselves? Do we want them to just clean and keep things orderly – or would we accept them helping us to go to the toilet, or even feed us if we suffer from Parkinson’s disease?
The answers to these questions differ from person to person. They depend on cultural background, personal experiences – but probably most of all on the robot in question. This book covers the phenomenon of social robots from the historic roots to today’s best practices and future perspectives. To achieve this, we used a hands-on, interdisciplinary approach, incorporating findings from computer scientists, engineers, designers, psychologists, doctors, nurses, historians and many more. The book also covers a vast spectrum of applications, from collaborative industrial work over education to sales. Especially for developments with a high societal impact like robots in health and care settings, the authors discuss not only technology, design and usage but also ethical aspects.
Thus this book creates both a compendium and a guideline, helping to navigate the design space for future developments in social robotics.
Robots and automata are key elements of every vision and forecast of life in the near and distant future. However, robots and automata also have a long history, which reaches back into antiquity. Today most historians think that one of the key roles of robots and automata was to amaze or even terrify the audience: They were designed to express something mythical, magical, and not explainable. Moreover, the visions of robots and their envisioned fields of application reflect the different societies. Therefore, this short history of robotics and (especially) anthropomorphic automata aims to give an overview of several historical periods and their perspective on the topic. In a second step, this work aims to encourage readers to reflect on the recent discussion about fields of application as well as the role of robotics today and in the future.
New employees are supposed to quickly understand their tasks, internal processes and familiarize with colleagues. This process is called “onboarding” and is still mainly realized by organizational methods from human resource management, such as introductory events or special employee sessions. Software tools and especially mobile applications are an innovative means to support provide onboarding processes in a modern, even remote, way. In this paper we analyze how the use of gamification can enhance onboarding processes. Firstly, we describe a mobile onboarding application specifically developed for the young, technically literate generations Y and Z, who are just about to start their career. Secondly, we report on a study with 98 students and young employees. We found that participants enjoyed the gamified application. They especially appreciated the feature “Team Bingo” which facilitates social integration and teambuilding. Based on the OCEAN personality model (“Big Five”), the personality traits agreeableness and openness revealed significant correlations with a preference for the gamified onboarding application.
Top-level staff prefers to live in urban areas with perfect social infrastructure. This is a common problem for excellent companies (“hidden champions”) in rural areas: even if they can provide the services qualified applicants appreciate for daily living, they fail to attract them because important facts are not presented sufficiently in social media or on the corporate website. This is especially true for applicants with families. The contribution of this paper is four-fold: we provide an overview of the current state of online recruiting activities of hidden champions (1). Based on this corpus, we describe the applicant service gap for company information in rural communes (2). A study on user experience (UX) identifies the applicants’ wishes and needs, focusing on a family-oriented information system on living conditions in rural areas (3). Finally, we present the results of an online survey on the value of such information systems with more than 200 participants (4).
What emotional effects does gamification have on users who work or learn with repetitive tasks? In this work, we use biosignals to analyze these affective effects of gamification. After a brief discussion of related work, we describe the implementation of an assistive system augmenting work by projecting elements for guidance and gamification. We also show how this system can be extended to analyse users' emotions. In a user study, we analyse both biosignals (facial expressions and electrodermal activity), and regular performance measures (error rate and task completion time).
For the performance measures, the results confirm known effects like increased speed and slightly increased error rate. In addition, the analysis of the biosignals provides strong evidence for two major affective effects: the gamification of work and learning tasks incites highly significantly more positive emotions and increases emotionality altogether. The results add to the design of assistive systems, which are aware of the physical as well as the affective context.
Soziale Roboter unterscheiden sich von Servicerobotern, da sie auch komplexere Interaktionen und Kommunikation beherrschen. Einige können Emotionen simulieren oder sogar erkennen. Einsatzbereiche gibt es viele: vom Haushalt über die Pflege bis in den medizinischen Bereich. Wo liegen die Grenzen der aktuellen Systeme? Wie müssen soziale Roboter aussehen und interagieren, um als nützliche Helfer statt als Konkurrenten wahrgenommen zu werden? Dieser Artikel gibt einen kurzen Überblick bestehender sozialer Roboter. Er beleuchtet deren Akzeptanz im wichtigen Bereich Gesundheit und Pflege anhand der Ergebnisse einer Expertenstudie und gibt eine zeitliche Perspektive zur weiteren Entwicklung.
A novel Bluetooth Low Energy advertising scan algorithm is presented for hybrid radios that are additionally capable to measure energy on Bluetooth channels, e.g. as they would need to be compliant with IEEE 802.15.4. Scanners applying this algorithm can achieve a low latency whilst consuming only a fraction of the power that existing mechanisms can achieve at a similar latency. Furthermore, the power consumption can scale with the incoming network traffic and in contrast to the existing mechanisms, scanners can operate without any frame loss given ideal network conditions. The algorithm does not require any changes to advertisers, hence, stays compatible with existing devices. Performance evaluated via simulation and experiments on real hardware shows a 37 percent lower power consumption compared to the best existing scan setting while even achieving a slightly lower latency which proves that this algorithm can be used to improve the quality of service of connection-less Bluetooth communication or reduce the connection establishment time of connection-oriented communication.
Avoiding collisions between a robot arm and any obstacle in its path is essential to human-robot collaboration. Multiple systems are available that can detect obstacles in the robot's way prior and subsequent to a collision. The systems work well in different areas surrounding the robot. One area that is difficult to handle is the area that is hidden by the robot arm. This paper focuses on pick and place maneuvers, especially on obstacle detection in between the robot arm and the table that robot is located on. It introduces the use of single pixel time-of-flight sensors to detect obstacles directly from the robot arm. The proposed approach reduces the complexity of the problem by locking axes of the robot that are not needed for the pick and place movement. The comparison of simulated results and laboratory measurements show concordance.
With the growing share of renewable energies in the electricity supply, transmission and distribution grids have to be adapted. A profound understanding of the structural characteristics of distribution grids is essential to define suitable strategies for grid expansion. Many countries have a large number of distribution system operators (DSOs) whose standards vary widely, which contributes to coordination problems during peak load hours. This study contributes to targeted distribution grid development by classifying DSOs according to their remuneration requirement. To examine the amendment potential, structural and grid development data from 109 distribution grids in South-Western Germany, are collected, referring to publications of the respective DSOs. The resulting data base is assessed statistically to identify clusters of DSOs according to the fit of demographic requirements and grid-construction status and thus identify development needs to enable a broader use of regenerative energy resources. Three alternative algorithms are explored to manage this task. The study finds the novel Gauss-Newton algorithm optimal to analyse the fit of grid conditions to regional requirements and successfully identifies grids with remuneration needs. It is superior to the so far used K-Means algorithm. The method developed here is transferable to other areas for grid analysis and targeted, cost-efficient development.
Vor dem Hintergrund wachsender Herausforderungen wird ein professionelles Marketing für Städte und Gemeinden immer wichtiger. Zentrales Ziel dabei ist es, die Attraktivität einer Stadt für die eigene Bevölkerung, Unternehmen und Touristen zu erhöhen. Im vorliegenden Beitrag sollen zunächst einige Rahmenbedingungen des Stadtmarketing skizziert werden. Im Mittelpunkt steht die Vorstellung eines Prozesses, der eine strukturierte Planung und Durchführung des Stadtmarketing ermöglicht.
Das Markenmanagement spielt für das Stadtmarketing eine immer wichtigere Rolle. Im vorliegenden Beitrag wird dabei zunächst auf die Bedeutung und die Besonderheiten des Markenmanagements für Städte eingegangen. Im Mittelpunkt des Beitrages steht ein kompakter Überblick über die zentralen Aspekte des Markenmanagements für Städte. Schließlich wird in einem Exkurs die Bedeutung von Global Cities im Zusammenhang mit dem Markenmanagement vorgestellt.
Leuchtturmmarketing
(2019)
Die Kultur der Macht: Politische Kommunikation zwischen Artefakten, Manipulation und Repräsentation
(2019)
Macht ist eine entscheidende Größe, um innerhalb von sozialen Systemen Veränderungen durchzusetzen und Entwicklungen voranzutreiben oder gar erst zu ermöglichen. In der politischen Kommunikation ist der bewusste und konstruktive Umgang mit Macht oft einer der Erfolgsfaktoren für politische Akteure wie Politiker, Bürger und Parteien. Macht kann dabei nur durch die Menschen ausgeübt werden, denen sie durch andere zugesprochen oder auch zugebilligt wird, weshalb der Kultur der Macht als Ergebnis und Mittel der Kommunikation eine entscheidende Bedeutung zukommt. Dies ist aktuell durch die veränderten Informations- und Mediennutzungsgewohnheiten der Bürger*innen und der veränderten Kommunikationsszenarien in Zeiten postfaktischer und populistischer Tendenzen eine besondere Herausforderung. Ausgehend von der Wechselwirkung zwischen Artefakten der Macht und dem Aufgabenfeld der politischen Kommunikation werden in der knapp gefassten Analyse die praktischen Handlungsfelder aufgezeigt. Die kommunikativen Anforderungen aus dem Prinzip der Repräsentation, die Ausgestaltung politsicher Informationen und die Festlegung des passenden Sprachniveaus, die Auswahl der passenden Kommunikationskanäle und -anlässe sowie die Entwicklung kompletter Kampagnen oder die Festlegung inhaltlicher Wahlkampfstrategien erweisen sich als große Herausforderung für alle politischen Akteure.