Refine
Year of publication
Document Type
- Conference Proceeding (1253)
- Article (reviewed) (686)
- Bachelor Thesis (604)
- Article (unreviewed) (566)
- Part of a Book (460)
- Contribution to a Periodical (287)
- Book (242)
- Master's Thesis (208)
- Other (142)
- Working Paper (105)
Conference Type
- Konferenzartikel (950)
- Konferenz-Abstract (156)
- Konferenzband (77)
- Sonstiges (42)
- Konferenz-Poster (32)
Language
- German (2867)
- English (1980)
- Other language (5)
- Russian (3)
- Multiple languages (2)
- French (1)
- Spanish (1)
Keywords
- Mikroelektronik (62)
- Digitalisierung (48)
- Marketing (47)
- Social Media (40)
- COVID-19 (37)
- E-Learning (35)
- RoboCup (33)
- Kommunikation (32)
- Künstliche Intelligenz (32)
- Dünnschichtchromatographie (29)
Institute
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (1118)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (1103)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (917)
- Fakultät Wirtschaft (W) (649)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (565)
- Fakultät Medien (M) (ab 22.04.2021) (384)
- INES - Institut für nachhaltige Energiesysteme (245)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (161)
- Zentrale Einrichtungen (81)
- IMLA - Institute for Machine Learning and Analytics (78)
Open Access
- Closed Access (1708)
- Open Access (1692)
- Closed (756)
- Bronze (345)
- Diamond (92)
- Gold (77)
- Hybrid (49)
- Grün (16)
Data Science
(2019)
Data Science steht derzeit wie kein anderer Begriff für die Auswertung großer Datenmengen mit analytischen Konzepten des Machine Learning oder der künstlichen Intelligenz. Nach der bewussten Wahrnehmung der Big Data und dabei insbesondere der Verfügbarmachung in Unternehmen sind Technologien und Methoden zur Auswertung dort gefordert, wo klassische Business Intelligence an ihre Grenzen stößt.
Dieses Buch bietet eine umfassende Einführung in Data Science und deren praktische Relevanz für Unternehmen. Dabei wird auch die Integration von Data Science in ein bereits bestehendes Business-Intelligence-Ökosystem thematisiert. In verschiedenen Beiträgen werden sowohl Aufgabenfelder und Methoden als auch Rollen- und Organisationsmodelle erläutert, die im Zusammenspiel mit Konzepten und Architekturen auf Data Science wirken. Neben den Grundlagen werden unter anderem folgende Themen behandelt:
- Data Science und künstliche Intelligenz
- Konzeption und Entwicklung von Data-driven Products
- Deep Learning
- Self-Service im Data-Science-Umfeld
- Data Privacy und Fragen zur digitalen Ethik
- Customer Churn mit Keras/TensorFlow und H2O
- Wirtschaftlichkeitsbetrachtung bei der Auswahl und Entwicklung von Data Science
- Predictive Maintenance
- Scrum in Data-Science-Projekten
Zahlreiche Anwendungsfälle und Praxisbeispiele geben Einblicke in die aktuellen Erfahrungen bei Data-Science-Projekten und erlauben dem Leser einen direkten Transfer in die tägliche Arbeit.
Finding clusters in high dimensional data is a challenging research problem. Subspace clustering algorithms aim to find clusters in all possible subspaces of the dataset, where a subspace is a subset of dimensions of the data. But the exponential increase in the number of subspaces with the dimensionality of data renders most of the algorithms inefficient as well as ineffective. Moreover, these algorithms have ingrained data dependency in the clustering process, which means that parallelization becomes difficult and inefficient. SUBSCALE is a recent subspace clustering algorithm which is scalable with the dimensions and contains independent processing steps which can be exploited through parallelism. In this paper, we aim to leverage the computational power of widely available multi-core processors to improve the runtime performance of the SUBSCALE algorithm. The experimental evaluation shows linear speedup. Moreover, we develop an approach using graphics processing units (GPUs) for fine-grained data parallelism to accelerate the computation further. First tests of the GPU implementation show very promising results.
Die Wörz´sche Heuristik
(2019)
Die Erfindung betrifft eine Photovoltaik-Stromversorgungsvorrichtung, insbesondere vom öffentlichen Stromnetz unabhängige Photovoltaik-Stromversorgungsvorrichtung, mit einem positiven (204) und einem negativen (206) Lastanschluss für den Anschluss einer elektrischen Last, mit einer Mehrzahl von photovoltaischen Zellen (104) und einer wiederaufladbaren Batterie (5), welche wenigstens zwei in Serie geschaltete Batteriezellen (112) umfasst. Nach der Erfindung sind die photovoltaischen Zellen (104) zu einer der Anzahl der Batteriezellen (112) entsprechenden Anzahl von seriell verbundenen Teilstrings (108) verschaltet und jeder Teilstring (108) ist mit einem positiven Teilstringanschluss mit einem Pluspol und mit einem negativen Teilstringanschluss mit einem Minuspol einer zugeordneten Batteriezelle (112) oder mehreren zugeordneten parallel geschalteten Batteriezellen (112) verbunden. Dabei kann jeder Teilstring (108) zwischen dem positiven und negativen Teilstringanschluss eine maximale Leerlaufspannung erzeugen, die kleiner oder gleich einer vorgegebenen Ladeschlussspannung der zugeordneten Batteriezelle (112) oder der zugeordneten parallel geschalteten Batteriezellen (112) ist. Weiterhin betrifft die Erfindung eine Schaltungsanordnung zum Laden einer wiederaufladbaren Batterie, die zur Realisierung einer derartigen Photovoltaik-Stromversorgungsvorrichtung geeignet ist.
Heat generation that is coupled with electricity usage, like combined heat and power generators or heat pumps, can provide operational flexibility to the electricity sector. In order to make use of this in an optimized way, the flexibility that can be provided by such plants needs to be properly quantified. This paper proposes a method for quantifying the flexibility provided through a cluster of such heat generators. It takes into account minimum operational time and minimum down-time of heat generating units. Flexibility is defined here as the time period over which plant operation can be either delayed or forced into operation, thus providing upward or downward regulation to the power system on demand. Results for one case study show that a cluster of several smaller heat generation units does not provide much more delayed operation flexibility than one large unit with the same power, while it more than doubles the forced operation flexibility. Considering minimum operational time and minimum down-time of the units considerably limits the available forced and delayed operation flexibility, especially in the case of one large unit.
Commercial simulators can only reproduce electrocardiograms (ECG) of the normal and diseased heart rhythm in a simplified waveform and with a low number of channels. With the presented project, the variety of digitally archived ECGs, recorded during electrophysiological examinations, should be made usable as original analogue signals for research and teaching purposes by the development of a special printed circuit board for the mini-computer “Raspberry-Pi “.
Occluders made of the shape memory alloy Nitinol are commonly used to close Atrial Septal Defects (ASD). Until now, standard parameters are missing defining the mechanical properties of these implants. In this study,we developed a special measuring setup for the determination of the mechanical properties of customly available occluders (i.e. Occlutech Figulla®Flex II 29ASD12 and AGA AMPLATZER™9-ASD-012
Die Arbeit verfolgt das Ziel zu eruieren, welche Visual-Social-Mediakommunikationsstrategie, insbesondere unter Beobachtung der Visual-Social-Plattformen, aktuell am erfolgversprechendsten für die Hochzeitsmedienbranche ist.
Die neu gewonnenen Erkenntnisse der Ausarbeitung und die anschließenden Handlungsempfehlungen sollen als Leitfaden für eine sinnvolle und Erfolg versprechende Visual Social Marketingkommunikationsstrategie für Hochzeitsblogs/ -Blogazine genutzt werden können.
Der Leitfaden soll auf die Entwicklungen in der Zielgruppe eine passende Reaktion bieten und die Online-Marketingkommunikationsstrategie insbesondere der von Hochzeitsblogs und – Blogazine zukunftsfähig bereichern.
The development of secure software systems is of ever-increasing importance. While software companies often invest large amounts of resources into the upkeeping and general security properties of large-scale applications when in production, they appear to neglect utilizing threat modeling in the earlier stages of the software development lifecycle. When applied during the design phase of development, and continuously during development iterations, threat modeling can help in following a “Security by Design” approach. This approach allows issues relating to IT security to be found early during development, reducing the need for later improvement – and thus saving resources in the long term. In this thesis the current state of threat modeling is investigated. Based on this analysis, requirements for a new tool are derived. These requirements are then used to develop a new tool, called OVVL, which utilizes all main components of current threat modeling methodologies, as well as functionality not available in existing solutions. After documenting the development process and OVVL in general, this newly developed tool is used to conduct two case studies in the field of e-commerce and IoT.
Hochgenaue Systeme zur Positionsbestimmung spielen im heutigen Zeitalter für den privaten, kommerziellen aber auch militärischen Bereich eine immer wichtigere Rolle. Anwendungsgebiete wie Wandern, Geocaching, Mauterhebungssysteme, autonome Luft-, Land- und Seefahrt, sowie etliche militärische Verwendungen sind nur ein kleiner Überblick dieser Anwendungsmöglichkeiten.
Die durch die Anwendungsgebiete auftretende Notwendigkeit der Satellitennavigation, stellt meine Motivation dar, den Laborversuch Messtechnische Analyse eines Systems zur Satellitennavigation zu erneuern. Dieser Laborversuch soll den Studierenden des Studiengangs Elektrotechnik/Informationstechnik mit dem Schwerpunkt Kommunikationstechnik die Satellitennavigation anhand moderner Laboreinrichtung näherbringen.
Die nachfolgende Arbeit beschäftigt sich zu Beginn mit den allgemeinen theoretischen Grundlagen der Satellitennavigation, gefolgt von systemspezifischen Beschreibungen. Die weiteren Kapitel beinhalten die Versuchsbeschreibung, eine Musterlösung und Informationen für den betreuenden akademischen Mitarbeiter.
Des Weiteren wurden Messreihen aufgezeichnet, welche die einzelnen
Satellitennavigationssysteme qualitativ gegenüberstellen. Auf die Messreihen wird in dieser Thesis nicht eingegangen. Hierfür darf an dieser Stelle auf einen Beitrag in der Hochschulzeitschrift Forschung im Fokus verwiesen werden.
Die Funkschnittstelle nach dem Bluetooth Standard ist heutzutage nicht mehr aus dem Consumer-Markt wegzudenken. Auch durch die zukünftige Weiterentwicklung des Prinzips von IoT (Internet of Things) wird vor allem die Bluetooth Low Energy Technologie für Unternehmen bei der Entwicklung von Geräten mehr an Bedeutung gewinnen. Um die Studierenden im Bereich der Kommunikationstechnik auf das Thema Bluetooth vorzubereiten, wird der Versuch „Kurzstreckenkommunikation nach dem Bluetooth Standard“ im Telekommunikations-Labor an der Hochschule Offenburg angeboten. Der Versuch wurde im Rahmen dieser Bachelor-Thesis an die heutigen Anforderungen angepasst.
Die nachfolgende Bachelor-Thesis beinhaltet die gesamte Laboranleitung des Versuchs, welche in die drei Teile: Theoretische Grundlagen, vorbereitende Aufgaben und der Versuchsdurchführung aufgeteilt wird. Der Versuchsanleitung folgt ein Teil mit weiteren Anmerkungen für die akademischen Mitarbeiter, welche den Versuch betreuen. Hier wird sichergestellt, dass auch in Zukunft der Versuch problemlos weiter durchgeführt werden kann. Im Anhang befinden sich die Musterlösungen für die vorbereitentenden Aufgaben und der Versuchsdurchführung.
Aufbau/Ansteuerung/Kalibrierung/Pilotierung eines Lautsprecher-Halbkreises für Lokalisationstests
(2019)
Seit September 2018 ist die Hochschule Offenburg im Besitz einer Hörkabine, in der ein Schallquellenlokalisationstest im Rahmen dieser Bachelorarbeit aufgebaut wurde. Eine Schallquellenlokalisation ist im Alltag für Normalhörende in den meisten Fällen keine Schwierigkeit. Wir Menschen sind in der Lage mit einer Genauigkeit von 1° bis 2° eine Schallquelle zu lokalisieren (Feigenspan 2017,S.624). Entfällt jedoch das Hörvermögen auf einer Seite, so verschlechtert sich die Lokalisationsfähigkeit erheb-lich. Um Schallquellen präzise lokalisieren zu können, werden optimaler Weise beide Ohren benötigt. Heutzutage gibt es viele Hörsysteme, um diverse Hörstörungen zu therapieren. Den-noch bleibt die Lokalisationsfähigkeit für Menschen mit einseitiger Taubheit, bezie hungsweise asymmetrischen Hörverlust eine Herausforderung. Ein Schallquellenlo kalisationstest findet Anwendung in der Klinik, um eine bestmögliche Versor gung/Therapie durch Hörsysteme zu gewährleisten. Ziel dieser Bachelorarbeit war der Aufbau eines Lokalisationstestes nach Leitlinien einer wissenschaftlichen Publikation, sowie die Durchführung an fünf freiwilligen Normalhörenden. Die Realisierung umfasste den Aufbau der Lautsprecher, die An-steuerung mithilfe einer externen Soundkarte und MATLAB, eine Kalibrierung der Lautsprecher und die Durchführung der Tests.
Zum aktuellen Zeitpunkt sind alle Sensoren einer Herz-Lungen-Maschine des Unternehmens Getinge kabelgebunden. Dadurch besteht das Risiko, dass sich während einer OP Keime auf den Kabeln sammeln, die Kabel steigern den Zeitaufwand beim Reinigen und Konnektieren und lassen das Gesamtsystem unübersichtlich wirken.
Das Ziel dieser Arbeit ist es, ein Konzept zu entwickeln, wie die Datenübertragung von einem Sensor zu einer Herz-Lungen-Maschine drahtlos erfolgen kann. Dazu wurden elf gewichtete Anforderungen an einen Funkstandard für eine drahtlose Datenübertragung definiert. Bezüglich dieser Anforderungen wurden 15 Funkstandards anhand einer Literaturrecherche analysiert. Es stellte sich heraus, dass sich ZigBee, IEEE 802.15.6, Z-Wave und EnOcean für diese Anwendung eignen, wobei ZigBee im Vergleich zu den anderen Funkstandards als am besten geeignet bewertet wurde.
Um die Eigenschaften von ZigBee bezüglich der definierten Anforderungen zu verifizieren, wurde ein ZigBee-Prototyp implementiert und getestet. Für die Bereitstellung der Mess-Funktionalität für die Tests wurde ein Programm in C++ geschrieben. Mit Hilfe dieser Tests konnte die Erfüllung der Anforderungen von ZigBee bestätigt werden.
Auf dieser Grundlage ist es möglich, die drahtlose Datenübertragung zwischen Sensor und Herz-Lungen-Maschine auf Basis des ZigBee-Funkstandards zu entwickeln. Ausblickend ist es für die Entwicklung von drahtlosen Sensoren einer Herz-Lungen-Maschine ratsam, die Akzeptanz der Anwender zu erfragen und die regulatorischen Anforderungen für Funk bei Medizinprodukten zu erläutern.
Die Erfindung betrifft eine Ösophaguselektrodensonde bzw. einen Ösophaguskatheter 10 zur Bioimpedanzmessung und/oder zur Neurostimulation, eine Vorrichtung 100 zur transösophagealen kardiologischen Behandlung und/oder kardiologischen Diagnose und ein Verfahren zum Steuern oder Regeln einer Ablationseinrichtung zum Durchführen einer Herzablation. Die Ösophaguselektrodensonde 10 umfasst eine Bioimpedanzmesseinrichtung zur Messung der Bioimpedanz von zumindest einem Teil des die Ösophaguselektrodensonde 10 umgebenden Gewebes. Die Bioimpedanzmesseinrichtung umfasst mindestens eine erste Elektrode 12A und mindestens eine zweite Elektrode 12B, wobei die mindestens eine erste Elektrode 12A auf einer dem Herzen zugewandten Seite 14 der Ösophaguselektrodensonde 10 angeordnet ist, und die mindestens eine zweite Elektrode 12B auf einer vom Herzen abgewandten Seite 16 der Ösophaguselektrodensonde 10 angeordnet ist.Die Vorrichtung 100 umfasst die Ösophaguselektrodensonde 10 und eine Steuer- und/oder Auswerteinrichtung 30. Die Steuer- und/oder Auswerteinrichtung 30 ist eingerichtet, ein erstes Bioimpedanzmesssignal von der mindestens einen ersten Elektrode 12A und ein zweites Bioimpedanzmesssignal von der mindestens einen zweiten Elektrode 12B zu empfangen und zu vergleichen, und ein Kontrollsignal auf Basis des Vergleichs zu generieren. Das Kontrollsignal kann ein Signal zum Steuern oder Regeln einer Ablationseinrichtung zum Durchführen einer Herzablation sein.
Die vorliegende, schriftliche Dokumentation befasst sich mit der Entwicklung, Konstruktion und Ausarbeitung eines speziellen Sonderbetriebsmittels im Bereich der Umformtechnik.
Aus Gründen der Materialersparnis soll ein Stanzwerkzeug zur Herstellung von asymmetrischen Blech-Rohlingen dahingehend optimiert werden, dass die Schneid-Elemente pro Ar-beitsgang eine Drehung um 180° durchführen können. Durch diese Maßnahme soll erreicht werden, dass zwischen den ausgeschnittenen Rohlingen weniger Abfallmaterial anfällt, wo-durch Materialkosten im laufenden Fertigungsprozess eingespart werden können.
Die Arbeit beinhaltet das systematische Erfassen von Anforderungen und prozessbedingten Gegebenheiten, die Erarbeitung von Lösungskonzepten, sowie das Ausarbeiten eines aus-gewählten Konzepts als detaillierte Konstruktion. Letztgenannte umfasst das Erstellen funktions- und fertigungsgerechter Einzelkomponenten und Baugruppen, die Auslegung und Auswahl benötigter Zukauf-Komponenten, sowie das Ableiten fertigungsgerechter technischer Zeichnungen.
Als Nachweis der Funktion der erarbeiteten Vorrichtung werden sowohl eine Bewegungssimulation, als auch entsprechende Nachweisrechnungen der Bauteilfestigkeit unter Berücksichtigung wirkender Prozesskräfte durchgeführt.
Resultat dieser Arbeit ist eine erwiesenermaßen funktionsfähige Konstruktion, die sämtliche von Seiten des Auftraggebers gestellten Anforderungen erfüllt.
Das Team "magmaOffenburg" nimmt seit 2009 an der 3D-Simulationsliga des RoboCups teil. Wie gut das Laufen auf zwei Beinen in der verwendeten Simulationsumgebung "SimSpark" funktioniert ist einer der zentralen Faktoren für ein erfolgreiches Abschneiden. Bisher wird für das Laufen ausschließlich eine inverskinematische Walk-Engine verwendet.
In dieser Arbeit wird mit genetischen Algorithmen und einer modellfreien Parametrisierung Laufen komplett "from scratch" gelernt. Derselbe Ansatz wurde zuvor bereits erfolgreich für das Lernen von Kicks eingesetzt. Gegenüber der alten Walk-Engine zeichnet diesen Ansatz besonders aus, dass zum ersten Mal die Zehengelenke genutzt werden, welche eines der verfügbaren Robotermodelle besitzt. Dies ermöglicht einen natürlicheren und schnelleren Gang. Zwar ist die Stabilität des gelernten Laufens noch nicht vergleichbar mit dem bisherigen (der Spieler fällt etwa 26% häufiger hin), aber beispielsweise beim Vorwärtslaufen konnten mit einer Geschwindigkeit von 1.3 m/s statt 1 m/s Steigerungen von 30% erzielt werden.
Darüber hinaus wurde untersucht, wie dem Agenten im Anschluss an das gelernte Laufen wieder ein Übergang zur alten Walk-Engine gelingen kann. Der erfolgreichste Ansatz basiert ebenfalls wieder auf einer mit genetischen Algorithmen trainierten Bewegung. Er ist in etwa der Hälfte der Fälle erfolgreich.
Die öffentliche Diskussion über den Einsatz digitaler Medien in Schule und Unterricht verkennt die zugrundeliegenden Interessen. Seit über 30 Jahren wird jede neue Generation von Digitaltechnik in die Schulen gedrückt. 1984 waren es Personal Computer (PC), in den 1990er Jahren Laptops, aktuell sind es WLAN, Tablets und Smartphones. Die Argumente sind identisch: Angeblich sorgen die Geräte für moderneren, innovativeren Unterricht, höhere Motivation der Schüler/innen, bessere Lernergebnisse. Wissenschaftlich valide Studien belegen das Gegenteil. Der pädagogische Nutzen war und ist bis heute negativ. PISA-Koordinator Andreas Schleicher: „Wir müssen es als Realität betrachten, dass Technologie in unseren Schulen mehr schadet als nützt.“ (Schleicher, 2016) Der Aktionsrat Bildung bestätigt in einer Studie für die Vereinigung der Bayerischer Wirtschaft (vbw) „statistisch signifikant niedrigere Kompetenzen in den Domänen Mathematik und Naturwissenschaften“, wenn Grundschülerinnen und Grundschüler im Unterricht mindestens einmal wöchentlich Computer einsetzen im Vergleich zu Grundschulkindern, die seltener als einmal pro Woche Computer im Unterricht nutzten - und fordert trotzdem, die Schulen müssten schneller digitalisiert werden.
Es geht offensichtlich um Anderes. Es sind wirtschaftliche Interessen der IT-Wirtschaft und der Global Education Industries (GEI), die die Bildungsmärkte nach angelsächsischem Vorbild privatisieren und kommerzialisieren wollen. Es sind zugleich die Geschäftsmodelle der Daten-Ökonomie, die alle Lebensbereiche verdaten und Menschen per Algorithmus und kybernetischen Modellen steuern wollen – wie in den 1950er Jahren (Behaviorismus, programmiertes Lernen). Die Digitalisierung ist „nur“ die technische Infrastruktur zur Datenerhebung, die empirische Bildungsforschung das Instrumentarium zur Quantifizierung auch des Sozialen (Mau, 2018). Nach Arbeitsmarkt und Kommunikation stehen derzeit Bildung und Gesundheit auf der Agenda der Digitalisten. Das Problem: Werden soziale Systeme nach der binären Logik der IT umgebaut, verlieren sie alles Soziale. Daher ist die vordringliche Aufgabe der Pädagogik, die derzeit dominierenden Denkstrukturen von BWL und IT, Empirie, Kennzahlenfixierung und behavioristischen Lerntheorien als dysfunktionalen und a-sozialen Irrweg zu kennzeichnen und stattdessen Schule und Unterricht wieder vom Menschen und seinen Lernprozessen her zu denken.
Die Digitalisierung aller Lebensbereiche ist kein Technik-, sondern ein Systemwechsel. Alles, was wir im Netz tun, wird verdatet; idealiter prenatal bis postmortal. Dieser Datenpool wird mit immer ausgefeilteren Algorithmen des Big Data Mining analysiert und mit Methoden der Empirie, Statistik und Mustererkennung ausgewertet. Der Mensch wird zum Datensatz. Je früher Menschen psychometrisch vermessen werden können, desto exaktere Persönlichkeits-, Lern- und Leistungsprofile entstehen – und umso leichter ist die Einflussnahme. Das ist der Grund für die Forderung nach Digitaltechnik in KiTas und Grundschulen. Menschen werden daran gewöhnt zu tun, was Maschinen ihnen sagen. Das ist Gegenaufklärung aus dem Silicon Valley per App und Web. Wie Alternativen aussehen können, zeigt dieser Beitrag.
Über Chancen und Risiken von Computern an Schulen wird seit deren Einführung im Jahr 1984 kontrovers diskutiert. Neben Laptops und Tablets geht es heute um die Nutzung von Schulclouds und privaten Smartphones im Unterricht. Das Akronym dafür ist BYOD – »Bring Your Own Device«.
Dabei stellen sich grundsätzliche pädagogische und politische Fragen: Welcher Unterrichts- und Medienkonzepte bedarf es, um den Risiken der Digitalisierung vorzubeugen, die Schüler_innen aber zugleich an deren Chancen teilhaben zu lassen? Bei Netzanwendungen ist zudem der Datenschutz zu beachten, vor allem, wenn eigene Geräte genutzt werden sollen. So fördert das BMBF eine Schulcloud, in der Lehrkräfte und Schüler_innen wie bei Facebook Gruppen bilden, Dokumente austauschen und online darüber diskutieren können.
Das Buch greift die aktuelle Kontroverse auf und fragt nach den Zielen und Nebenwirkungen von »Bildung 4.0«. Was davon ist für die Unterrichtspraxis relevant? Und wessen Interessen werden bei welchen Konzepten vertreten?
Controlling ist ein Begriff aus der Wirtschaftslehre und bezeichnet nicht Kontrollle, sondern Prozeßsteuerung. Definierte Ziele werden durch kleinteilige Messungen und permanente Überwachung aller Arbeitsschritte und Handlungen der beteiligten Personen protokolliert und stetig optimiert. Dieses Konzept der Planungs-, Koordinations- und Kontrollaufgaben wird beim „Bildungs-Controlling“ auf Schulen und Hochschulen übertragen. Ziel ist dabei, entsprechend der Gary Beckerschen Humankapitaltheorie, die Produktion von Humankapital mit validierten Kompetenzen. Zwei Probleme gibt es dabei: Lernen und vor allem Verstehen lassen sich nicht automatisieren und auch nicht automatisiert prüfen. Und: Sozialsysteme unter dem Regime der Kennzahlen des Quality Management (QM) oder Total Quality Management (TQM) verlieren ihre Eigenschaft als soziale Systeme
Unternehmerische Entscheidungen sollten auf einer angemessene Informationsgrundlage basieren. Diese rechtliche Aufforderung stellt Geschäftsleiter in der Praxis vor erhebliche Herausforderungen, die insbesondere die Erstellung von Prognosen betreffen. Um hier einen Unterstützungsbeitrag zu leisten, wird eine Heuristik vorgestellt, die das Treffen prognosebezogener Informationsentscheidungen anleitet. Die Heuristik übernimmt aus der Multiattributiven Nutzentheorie die Empfehlung, Informationsentscheidungen als Gesamtheit aus Zielfunktion und Bewertungsfunktion zu modellieren. In der Zielfunktion werden die Ziele der Informationsentscheidungen von den allgemeinen Unternehmenszielen wie etwa dem Gewinn gelöst. Statt dessen wird auf die Bewirkung besonderer Qualitätseigenschaften von Informationen abgestellt; das sind Vollständigkeit, Genauigkeit und Zuverlässigkeit. Daraus ergeben sich die beiden grundlegenden Ziele von Informationsentscheidungen: „Maximierung der Informationsqualität“ und „Minimierung der Informationskosten“. Auf dieser Grundlage besteht für die Bewertungsfunktion die Herausforderung darin, die positiven Nutzenwirkungen aus einer Vergrößerung der Informationsqualität abzuwägen gegen die negativen Nutzenwirkungen, die aus einer damit verbundenen Vergrößerung der Informationskosten resultieren. Um diese Herausforderung zu bewältigen, wird ein iteratives Verfahren aus sequentiell zu treffenden und in diesem Sinne inkrementellen Informationsentscheidungen vorgeschlagen. Wertvoll ist diese Heuristik einerseits in entscheidungstheoretischer Hinsicht, weil sie vorliegende methodische Überlegungen zum Treffen von Informationsentscheidungen erweitert. Vor allem aber besitzt die Heuristik einen praktischen Wert für Geschäftsleiter, da ihre Anwendung bessere Voraussetzungen dafür schafft, der rechtlichen Pflicht zur ordentlichen und gewissenhaften Geschäftsführung zu genügen.
Wer sich als Pädagoge und Wissenschaftler mit dem Thema „Digitalisierung und Schule“ befasst, stellt fest, dass nur Wenige die Tragweite der beabsichtigten Transformation von Bildungseinrichtungen zu automatisierten, algorithmisch gesteuerten Lernfabriken realisieren. Dabei wird übersehen, dass mit Theorien und empirischen Modellen wie der „datengestützten Schulentwicklung“ und „Learning Analytics“ grundlegende Paradigmenwechsel verbunden sind, die das humane wie das christliche Menschenbild erschüttern. Mit Kybernetik und Behaviorismus auf der einen, mit der sogenannten „Künstlichen Intelligenz“ (KI) und darauf aufbauenden Geschäftsmodellen der Datenökonomie auf der anderen Seite, untergraben diese Beschulungsmodelle die Autonomie, das Selbstbestimmungsrecht und die Handlungsfreiheit des Menschen. Vertreter dieser Disziplinen behaupten, dass sowohl der einzelne Mensch wie Sozialgemeinschaften wie Maschinen programmiert und gesteuert werden können. Sie blenden aus, dass Mündigkeit und Selbstverantwortung das Ziel von Schule und Unterricht sind, nicht maschinell berechnete Verhaltenssteuerung und -manipulation. Diese Fehlentwicklungen sind nicht der Technik an sich geschuldet, die sich anders einsetzen ließe, sondern den Geschäftsmodellen der IT-Anbieter.
Numerische Physik
(2019)
Dieses Lehrbuch stellt die Numerische Physik anhand einer Vielzahl von Beispielen aus den Bereichen Mechanik, Elektrodynamik, Optik, Statistischer Physik und Quantenmechanik dar. Der Leser lernt hier nicht nur die wichtigsten numerischen Techniken in der Programmiersprache C++ kennen, sondern erhält auch neue Einblicke in die Physik, die konventionelle Zugänge nicht bieten. Das Werk schließt damit eine Lücke zwischen den Standardlehrbüchern der Theoretischen Physik und denen der reinen Programmierung.
Zu jedem der physikalischen Themen gibt es eine kurze Wiederholung des theoretischen Hintergrunds und anschließend werden ausgewählte Beispiele im Detail ausgearbeitet. Übungen am Ende des Kapitels bieten weitere Gelegenheit die Anwendungen des Gelernten zu vertiefen.
Das Buch richtet sich vornehmlich an Physikstudierende höherer Semester, die bereits über eine Basis in Theoretischer Physik verfügen und auch Grundkenntnisse in der Programmierung in C++ mitbringen.
Auf der Produktseite zum Buch auf springer.com finden sich alle Quelltexte zu den Programmen im Buchtext zum Download. Im Anhang erhalten Sie eine Zusammenstellung und Erläuterung frei verfügbarer Software, die sowohl dem Windows-Anwender als auch dem Linux-Freund alle Werkzeuge an die Hand gibt, die er zur Bearbeitung anspruchsvoller physikalischer Fragestellungen benötigt - von Compilern über numerische Bibliotheken bis hin zu Visualisierungstools.
Entwicklung und Implementierung einer Methode zur Funktions- und Verschleißprüfung von Sägeanlagen
(2019)
Die Firma KASTO Maschinenbau produziert Lagersysteme und Sägemaschinen und möchte in Zukunft mit Hilfe von prädiktiver Wartung einen Mehrwert für den Kunden, die firmeneigenen Servicetechniker und die Inbetriebnehmer generieren. Für diesen Weg in Richtung prädiktive Wartung werden in der vorliegenden Arbeit, zunächst mittels Recherche, Grundlagen definiert. Die anschließende Analyse verschiedener Bauteile und Baugruppen in der Lagertechnik und im Sägemaschinenbau führt zur Konkretisierung der Umsetzungsmöglichkeiten.
Im weiteren Verlauf der Arbeit werden die verschleißkritischen Bauteile eines KASTOwin-Bandsägeautomats behandelt. Durch die Analyse der einzelnen Verschleißformen und -erscheinungen an dessen Komponenten können Parameter zur Verschleiß-überwachung ermittelt werden. Die Überwachung dieser Prozesse soll dabei mit bestehender Sensorik durchgeführt werden und beschränkt sich deshalb hauptsächlich auf die Messeinrichtung der Frequenzumformer. Für die Komponenten Sägebandantrieb, Sägevorschubantrieb, Materialvorschubantrieb, Bandverlaufsensor, sowie das Hydrauliksystem werden entsprechende Methoden zur Funktions- und Verschleiß-prüfung ausgearbeitet.
Auf Basis dieser Methoden wird dann die Implementierung in Form eines SPS-Programms und einer dazu passenden, grafischen Benutzeroberfläche durchgeführt. Das bestehende SPS-Programm und die Benutzeroberfläche werden durch zusätzliche Programmteile ergänzt. Sämtliche Ergänzungen sind portabel und modular ausgelegt, sodass diese problemlos auch in anderen Sägemaschinen ergänzt werden können. Um kritische Verschleißsituationen nach deren Eintritt zu analysieren und daraus Schlüsse im Sinne der prädiktiven Wartung zu ziehen, ist die Sicherung aller Langzeitdaten von enormer Bedeutung. Da der remanente Speicher der SPS jedoch begrenzt ist, werden sämtliche Daten über die Visualisierung gesichert. Alle aufgenommen Daten werden sowohl grafisch als auch in Form von Werten visualisiert und können dem Kunden und Servicetechniker, sowie dem Inbetriebnehmer Aufschluss über den Zustand der Komponenten geben.
Letztlich werden die implementierten Abläufe an einer Vorführmaschine getestet. Es kann dabei die Funktion sämtlicher Prüfungen bestätigt werden
This paper describes a project absolved to increase the material flow through the LTCC production of the Bosch Anderson Plant in South Carolina, USA. To archive this goal the regarded value stream is introduced first. The bottleneck, which is limiting the material flow is found and eliminated in order to increase the output of the machine and consequently improve the material flow through the whole value stream. The completed projects made for this purpose result in a 13% increase. To control the material flow the inventory sizes are determined. The inventories, from which the size is desired to be determined, include climatization processes to dry the pastes that are applied in the previous process steps. Therefore, a separation of the parts in the production process climatization and the buffer is necessary first. After that the buffer can be eliminated and the inventory areas minimized. The results are smaller and controlled buffer sizes that make part of the floor space unnecessary. A welcomed side effect is the solution to a production problem of warped parts because of too long climatization times. Observations over time show that the results of the buffer limitations are just right to improve the material flow through the LTCC production.
Auf Grundlage der Computer-Aided-Design (CAD)-rekonstruierten ersten „Eisernen Hand“ des Götz von Berlichingen wird ein umgebautes, controllergesteuertes sensomotorisches Fingersystem auf seine Funktionalität beim Greifen von unterschiedlichen Gegenständen beschrieben und geprüft. Die elektronischen Finger, die den „Pinzettengriff“ nachahmen und automatisch bei dem zuvor eingestellten Anpressdruck abschalten, bewiesen eine bemerkenswerte Alltagstauglichkeit. Das vorgestellte Grundkonzept könnte eine Alternative bei der Entwicklung einfacher und kostengünstiger, aber dennoch gut einsatzfähiger bionischer Hände sein und zeigt einmal mehr, wie historische Ideen in die Gegenwart transferiert werden können.
Audio over IP
(2019)
Der Wandel im Bereich Tontechnik geht stetig weiter. Was vor über 100 Jahren begann, entwickelt sich heutzutage rasend voran. Das Ziel immer vor Augen: Ein Audiosignal soll in bestmöglichster Qualität, möglichst mit einer geringen Datenmenge, in kürzester Zeit von A nach B transportiert und anschließend konserviert werden.
Durch die Digitalisierung werden auch hier völlig neue Anwendungsbereiche und Szenarien ermöglicht, die weit über das klassische Recording oder die Studioinfrastruktur hinausgehen. Die Rede ist zum Beispiel von Klanginstallationen oder Konferenzszenarien. Audionetzwerke bieten durch die Nutzung beliebiger Quellen und Senken in der Produktionsumgebung eine signifikant flexiblere Signalverteilung, als dies noch mit klassischen Verteilern und Steckfeldern möglich war. Übertragungen und Vernetzungen in mehreren Gebäuden sind hiermit kein Problem. Allerdings unterscheidet sich diese Technologie in Punkto Stabilität, Datenrate, Netzwerk-Layer & Qualität deutlich von seinem Pendant, dem Internetstreaming.
Die vorliegende Bachelorarbeit beschreibt die Erstellung einer Anwendung, die es ermöglicht, einen Roboterarm mithilfe eines haptischen Geräts zu steuern. Zudem wird die Kraftrückkopplung des haptischen Geräts, abhängig von der wirkenden Kraft des Roboterarms, implementiert.
Zur Realisierung dieser Anforderungen wurden zwei Programme erstellt; diese beiden Programme sind über eine TCP Verbindung miteinander verbunden. Programm 1 stellt die haptische Umgebung bereit, Programm 2 die Robot Operating System Node, mit welcher die Daten zum Roboter gesendet und Daten vom Roboter empfangen werden können.
Die in dieser Arbeit erstellten Programme wurden mithilfe von Test Nodes überprüft und leiten die Position der haptischen Umgebung weiter. Die Kraftrückkopplung des haptischen Geräts ist ebenfalls vorhanden und integriert.
Ein Testlauf mithilfe eines simulierten Roboterarms konnte erfolgreich durchgeführt werden.
Unternehmen erzielen durch den Einsatz von Big Data-Analyse bereits heute eine Umsatzsteigerung, bei gleichzeitiger Kostensenkung. Trotzdem setzen lediglich 36% der mittelständischen Unternehmen in Deutschland auf Big-Data Initiativen. Diese Unternehmen sind sich nicht bewusst, welchen Datenschatz sie bereits besitzen, allerdings nicht gewinnbringend nutzen.
Ziel der Arbeit ist es, die Herausforderungen mit denen Unternehmen in der digitalen Transformation konfrontiert werden, sowie die Chancen, die sich durch den Einsatz von Datenanalyse ergeben, herauszuarbeiten.
Die Arbeit stellt einen Leitfaden für kleine und mittelständische Unternehmen dar, die erste Erfahrungen mit Big Data-Analytics machen möchten.
Webassembly is a new technology to create application in a new way. Webassembly is being developed since 2017 by the worldwide web consortium (w3c). The primary task of webassembly is to improve web applications.
Today, more and more applications are being created as web applications. Web applications have some advantages - they are platform independent and even mobile platforms can run them, and no installation is needed apart from a modern web browser.
Currently, web applications are being developed in JavaScript (JS), hypertext mark-up language 5 (HTML 5), and cascading style sheets (CSS).
These technologies are not made for huge web applications, but they should not be replaced by webassembly; rather, webassembly is an extension to the currently existing technology.
The purpose of webassembly is to fix or improve the problems in web application development.
This master’s thesis reviews all of the aspects and checks whether the promises of webassembly are kept and where problems still exist.
This book, now in its second, completely revised and updated edition, offers a critical approach to the challenging interpretation of the latest research data obtained using functional neuroimaging in whiplash injury. Such a comprehensive guide to recent and current international research in the field is more necessary than ever, given that the confusion regarding the condition and the medicolegal discussions surrounding it have increased further despite the publication of much literature on the subject. In recent decades especially the functional imaging methods – such as single-photon emission tomography, positron emission tomography, functional MRI, and hybrid techniques – have demonstrated a variety of significant brain alterations. Functional Neuroimaging in Whiplash Injury - New Approaches covers all aspects, including the imaging tools themselves, the various methods of image analysis, different atlas systems, and diagnostic and clinical aspects. The book will help physicians, patients and their relatives and friends, and others to understand this condition as a disease.
In recent times, the energy consumed by buildings facilities became considerable. Efficient local energy management is vital to deal with building power demand penalties. This operation becomes complex when a hybrid energy system is included in the power system. This study proposes new energy management between photovoltaic (PV) system, Battery Energy Storage System (BESS) and the power network in a building by controlling the PV/BESS inverter. The strategy is based on explicit model predictive control (MPC) to find an optimal power flow in the building for one-day ahead. The control algorithm is based on a simple power flow equation and weather forecast. Then, a cost function is formulated and optimised using genetic algorithms-based solver. The objective is reducing the imported energy from the grid preventing the saturation and emptiness of BESS. Including other targets to the control policy as energy price dynamic and BESS degradation, MPC can optimise dramatically the efficacy of the global building power system. The strategy is implemented and tested successfully using MATLAB/SimPowerSystems software, compared to classical hysteresis management, MPC has given 10% in energy cost economy and 25% improvement in BESS lifetime.
Gesellschaftliche, wirtschaftliche und technologische Umbrüche stellen das klassische Governance-Verständnis heute auf den Prüfstand. Sowohl organisationsintern als auch in den Beziehungen zu den Stakeholdern und der Umwelt zeigt sich immer mehr, dass Unternehmenssteuerung nur noch begrenzt möglich ist.
Wie der Spagat gelingt, im Unternehmen für ein stabilisierendes Mindestmaß an Orientierung zu sorgen, aber auch unter hoher Marktdynamik flexibel zu bleiben, beleuchtet Sybille Schwarz aus verschiedenen Blickwinkeln. Diese verknüpft sie zu einer multiperspektivischen Governance-Betrachtung.
• Die managementorientierte Perspektive: zu normativen, strategischen und unternehmenskulturellen Gestaltungsmöglichkeiten
• Die ökonomische Perspektive: zu Verhaltensmustern unter komplexen Markt- und Wettbewerbsbedingungen
• Die gesellschaftliche Perspektive: zu Veränderungen durch die Digitalisierung oder Fragen der Nachhaltigkeit
Eine Einladung zum Perspektivwechsel für Aufsichtsräte und Entscheidungsträger, um Chancen und Risiken eingesetzter Governance-Strukturen organisationsgerecht zu beurteilen.
In dieser Bachelor Thesis geht es um das Internet Protokoll Version 6, insbesondere um die Stateless Address Autoconfiguration (SLAAC). Hierfür wurde ein Netzwerk aufgebaut und entsprechend konfiguriert. Zur Veranschaulichung wurde daraufhin ein Laborversuch über eine Webschnittstelle realisiert, der den Ablauf von SLAAC und die Adressauflösung durchläuft. Schritt für Schritt kann so die Adressvergabe und die einzelnen Vorgänge verfolgt und die jeweiligen Aufgaben bearbeitet werden.
Diese Thesis befasst sich mit der Konzeption, Kommunikation und Umsetzung eines eigens ins Leben gerufenen Non-Profit Projekts namens green&easy. Der Name verdeutlicht den Ursprungsgedanken, aus dessen Überzeugung die Idee entstand: „green“ steht für einen nachhaltigen Lifestyle und „easy“ für den Gedanken, dass Umweltschutz nicht kompliziert oder belastend sein muss. Das Projekt ist der Versuch Umweltschutz mal anders anzugehen. Statt sich auf die Politik und wissenschaftliche Durchbrüche zu verlassen, setzt green&easy mit einem Buttom-Up-Ansatz bei den kleinen alltäglichen Handlungen an. Umweltschutz einfach und attraktiv zu machen, um den Einzelnen zum Handeln zu ermuti-gen – das ist das Ziel von green&easy.
Virtual reality in the hotel industry: assessing the acceptance of immersive hotel presentation
(2019)
In the hotel industry, it is crucial to reduce the inherent information asymmetry with regard to the goods offered. This asymmetry can be minimised through the use of smartphone-based virtual reality applications (SBVRs), which allow virtual simulation of real experiences and thus enable more efficient information retrieval. The aim of the study is to determine for the first time the user acceptance of these immersive hotel presentations for assessing the performance of a travel accommodation. For this purpose, the Technology Acceptance Model (TAM) was used to explain the acceptance behaviour for this new technology. A virtual reality application was specially developed, in which the participants could explore a hotel virtually. A total of 569 participants took part in the study. The structural equation model and the hypotheses were tested using a Partial Least Squares (PLS) analysis. The results illustrate that the immersive product experience leads to more efficient information gathering. The perceived usefulness significantly affects the attitude towards using the technology as well as the intention to use it. In contrast to the traditional TAM, the perceived ease of use of SBVRs has no effect on the perceived usefulness or attitude towards using the technology.
Die Bachelorarbeit soll sich im Kern mit Möglichkeiten beschäftigen, wie der Faktor Mensch für die Bedrohung durch Social Engineering reduziert werden kann. Um diese Thematik aufzugreifen und zielführend zu bearbeiten, müssen zunächst einige Grundlagen geklärt werden. Deshalb wird im ersten Teil der Arbeit der Begriff Social Engineering definiert und es werden Unterschiede und Abstufungen erklärt. Weiterführend wird das Vorgehen bei Social Engineering Angriffen bzw. Penetrantionstests und Red Teaming Aufträgen in diesem Bereich erläutert. Dies findet in Zusammenarbeit mit der Firma cirosec statt. Hier findet auch direkt ein Vergleich mit dem Vorgehen „nach Lehrbuch“ vom wohl bekanntesten Social Engineer Kevin Mitnick statt und die bekanntesten Angriffs-Möglichkeiten werden genannt und beschrieben. Abschließend soll eine Abgrenzung zwischen gezielten und gestreuten Angriffen getroffen werden, da diese beiden Szenarien essenzielle Unterschiede in der Effektivität von Gegenmaßnahmen aufweisen.
Im folgenden Teil werden ehemalige Projekte der Firma cirosec GmbH nach einer Anonymisierung, mit dem Ziel analysiert, neben dem Vorgehen auch die Angriffsvektoren, das menschliche Fehlverhalten und, vor allem, die technischen Probleme in den vorliegenden Beispielen zu finden. Anschließend wird aufgezeigt, warum groß angelegte Awareness-Kampagnen eventuell auch zu Problemen für ein Unternehmen führen können.
Ein großer Teil der Arbeiten über das Thema Social Engineering stellen den Menschen als Risikofaktor in das Zentrum der Aufmerksamkeit. In dieser Thesis soll aber genau das nicht passieren. Betrüger gibt es seit es Menschen gibt, denn die Naivität und Gutgläubigkeit von
selbigen wurde schon immer ausgenutzt.
Doch anstatt diese Charaktereigenschaften, die sich über Jahrhunderte im Zusammenleben etabliert haben und auch dafür notwendig sind, mit Awareness Kampagnen oder Schulungen zu unterbinden, soll hier ein anderer Ansatz verfolgt werden. Das Augenmerk soll mehr auf technische Probleme gelegt werden. Eine IT Landschaft muss in der Zukunft nicht so gebaut sein, dass Menschen Schulungen brauchen, um sicher damit umzugehen.
Stattdessen soll eine Optimierung dahingehend passieren, dass der Mensch überhaupt keine schwerwiegenden und sicherheitskritischen Fehler begehen kann.
Es wird sich die Frage gestellt, wo man als Gegenmaßnahme ansetzen muss und dazu werden die vorher analysierten Projektbeispiele erneut aufgegriffen.
Auf Basis dieser Informationen, und den genannten Social Engineering Angriffsarten, werden Maßnahmen, die größtenteils technischer Natur sind, vorgestellt, erklärt und es wird beschrieben, gegen welche Arten von Angriffen sie effektiv helfen könnten. Dies soll im Idealfall, in einer sinnvollen Kombination, eine vernünftige Verteidigung gegen Social Engineering-Angriffe bieten.
Schlussendlich soll sich in einer perfekten IT-Landschaft jeder Mitarbeiter, ob mit fundiertem oder verschwindend geringem Sicherheitsverständnis, problemlos bewegen können und nicht vor jedem Klick oder dem offen halten einer Tür hinterfragen müssen, ob er damit das gesamte Unternehmen gefährden könnte.
Die zunehmende Digitalisierung macht den Einsatz von E-Mail-Marketing in Unternehmen fast unumgänglich. Um einen effektiven Kundenkontakt zu gewährleisten müssen Unternehmen auf den Versand von Newslettern setzen, die in regelmäßigen Abständen an den Kundenstamm herausgeschickt werden. Ein Newsletter beinhaltet Informationen, die von Relevanz für die Kundschaft ist. Die Thematik kann ein Überblick über Geschehnisse des Unternehmens sein, aber auch Events und Rabattaktionen sind möglich. In der heutigen Zeit stehen eine Vielzahl an Tools zur Verfügung, um mit Hilfe von Newslettern den Kontakt zum Kunden und zur Kundin zu pflegen. Die Generierung von E-Mail-Adressen, sowie die Kampagnenerstellung sind solche Teilgebiete. Ebenso das Tracking und der automatisierte Versand der E-Mails. Längst nicht alle Unternehmen nutzen die Vorteile des Kommunikationskanals und von denjenigen, die den Kanal nutzen, ist fast jeder Zweite nicht zufrieden mit seiner E-Mail-Marketing Strategie.1 Außerdem gibt es eine Menge Richtlinien, die es zu beachten gilt, wenn das E-Mail-Marketing genutzt wird, ansonsten kann es zu Abmahnungen kommen.
Die vorliegende Bachelorthesis stellt ein Leitfaden für die Umsetzung von Newslettern im B2C-Bereich dar. Dabei bietet die Arbeit einen Rundumblick in das Thema, sodass Unternehmen dadurch in der Lage sind einen Newsletter aufzubauen und somit den Kontakt zu ihren Abonnenten und Abonnentinnen erfolgreich zu halten. Unterthemen, die in dieser Thesis beleuchtet werden, sind zum einen die Planung und Zielsetzung eines Newsletters, anschließend die erfolgreiche Generierung von E-Mail-Adressen. Zum anderen auch die technischen und rechtlichen Anforderungen an die Newsletter. Außerdem werden die Gestaltungselemente und das Controlling behandelt. Größtenteils werden die Fragen innerhalb dieser Thesis mit Hilfe von relevanter Fachliteratur beantwortet. Zusätzlich werden die Ergebnisse durch eine Umfrage, sowie eine Eye-Tracking Untersuchung unterstützt.
Die vorliegende Arbeit befasst sich mit der Fragestellung, inwiefern sich der Einsatz und die Produktion von Lernvideos an baden-württembergischen Berufsschulen aus der Per-spektive von Lehrpersonen auf Lehr- und Lernprozesse auswirken. Auf den ersten Blick ein sehr fokussierter Blick auf ein Randthema, auf eine von vielen didaktischen Möglich-keiten des Unterrichtens. Lernvideos – also irgendeine Methode, die sich aus den tech-nischen Möglichkeiten der digitalen Medien ergeben und eine zeitgemäße Weiterent-wicklung von Overhead-Projektor und Lehrbuch bedeuten. Dies wäre ein sehr verkürzter Blick, ja ein falscher auf dieses Thema. Nicht die technische Umsetzung, nicht die Er-gänzung des didaktischen Methodenpools steht im Vordergrund. Es geht um eine ganz grundsätzliche Sicht auf das Lehren und Lernen an Schulen, um die Kompetenzen, die bei den Schülern als output angestrebt werden, um die Anforderungen und Erwartun-gen welche die Gesellschaft – und vor allem die Arbeitswelt - zukünftig an die heran-wachsenden Generationen stellt.
DigitalPakt Schule der Bundesregierung , Industrie 4.0 , Berufsbildung 4.0 sind neue und umfassende Programme, um einen weiteren großen Schritt bei der so genannten digitalen Revolution zu gehen. Digitale Kompetenz, so formuliert das zuständige Minis-terium für Bildung und Forschung zur Begründung des DigitalPakts Schule, ist
„[…] von entscheidender Bedeutung für jeden und jede Einzelne, um digitale Medien selbst-bestimmt und verantwortungsvoll nutzen zu können und um gute Chancen auf dem Ar-beitsmarkt zu haben; und für die Gesellschaft, um Demokratie und Wohlstand im 21. Jahr-hundert zu erhalten.“
Auch innerhalb des Schulsystems wird seit langem geforscht und werden Handlungsempfehlungen herausgearbeitet, wie das System Schule auf die Digitalisierung aller Lebensbereiche reagieren muss. Später wird darauf noch näher eingegangen. Beispielhaft eine Aussage einer vom zuständigen Ministerium in Auftrag gegebenen Studie die festhält: Statt Wissensanhäufung und ‚Lernen auf Vorrat‘ sind andere Kompetenzen gefragt: In praxisbezogenen Problemstellungen soll Wissen angewendet werden. Dazu muss neues Wissen selbständig erarbeitet, neue Informationen recherchiert werden. Lernen und Arbeiten wachsen daher immer stärker zusammen.
Es geht also bei aller Integration der so genannten ‚Neuen Medien‘ in den Unterrichts-alltag an Schulen immer um die Prozess- und Ergebnisqualität des Lernprozesses.
Diese Vorgehensweise bietet auch ein Korrektiv in diesem Tempo der Veränderung, damit nicht jegliche Form der Digitalisierung per se als fortschrittlich und gut bewertet wird, sondern auf den qualitativen Prüfstand gestellt wird. Nicht die technische Mach-barkeit bestimmt den Fortschritt, sondern die Gütekriterien für eine gute Didaktik.
Ein weiterer Aspekt dieses Themenbereichs ist, dass bei der didaktischen Nut-zung von Lernvideos die Schule nicht Vorreiter oder gar Erfinder war. Die JIM-Studie aus dem Jahr 2016 zeigt, dass 87% der Jugendlichen und jungen Erwachsenen durchschnitt-lich 200 Minuten pro Tag im Internet surfen um sich zu informieren sowie zur Unterhal-tung. Weiter sehen sich 81% der Befragten mehrmals wöchentlich Videos im Internet an. Dabei steht die Nutzung des Online Portals YouTube an erster Stelle. Das Medium Film ist zusammenhängend als Leitmedium junger Erwachsener anzusehen und bedarf dementsprechend besonderer Aufmerksamkeit. Um nicht einer naiven Fortschrittsgläu-bigkeit zu verfallen soll daher der Einsatz von Lernvideos an baden-württembergischen Berufsschulen anhand einer qualitativen Forschung untersucht werden. Auch aufgrund der noch geringen Verbreitung dieser Lehr- und Lernform würde bei einer quantitativen Vorgehensweise kein ausreichendes Datenmaterial zur Verfügung stehen. Die vorlie-gende Arbeit fokussiert die Einbeziehung vorgefertigter Lernvideos in den Unterricht wie auch die eigene Herstellung und die damit verbundenen Lernprozesse. Da Lernvi-deos – zumindest von Ihrer Definition - eine sehr umfassende Möglichkeit selbstgesteu-erten Lernens beinhalten sollen, wird der Frage nachgegangen, ob Lernvideos auch im Rahmen von ‚Flipped Classroom‘ Anwendung finden können.
Aufgrund bisheriger Erfahrungen und theoretischen Auseinandersetzungen des Autors mit den Themen Film und digitale Medien wird der Arbeit folgende Hypothese vorweg-gestellt:
Der Einsatz und die Herstellung von Lernvideos im Unterricht an Berufsschu-len steigert die Prozess- wie auch die Ergebnisqualität des Unterrichts.
Die Auswertung wird zeigen, ob diese Lehr- und Lernmethode ein Baustein ist, die di-daktische Qualität des Unterrichts an die Anforderungen der digitalen Revolution anzu-passen.
Konkret soll die medienpädagogische Untersuchung auf Grundlage von 3 Forschungs-fragen durchgeführt werden.
1. Wie beeinflusst der Einsatz und die Herstellung von Lernvideos im Unterricht an beruflichen Schulen die Lehrer/Schüler Interaktion und wie verändert sich die Rolle der Lehrperson?
2. Wie wirken sich der Einsatz und die Herstellung von Lernvideos auf die Qualität des Unterrichts aus und lässt sich ein höherer Lernerfolg bei den Schülerinnen und Schülern feststellen?
3. Welche Rahmenbedingungen müssen an den Berufsschulen vorhanden sein, um diese Lehr- und Lernmethode gut integrieren zu können.
Aufbau und Ablauf dieser medienpädagogischen Untersuchung gliedert sich wie folgt: In Kapitel 2 findet eine Auseinandersetzung mit den mannigfaltigen Begrifflichkeiten statt, die in der Diskussion verwendet werden. Digitale Kompetenz, Medienkompetenz, Medi-enbildung, Medienpädagogik, sind Begriffe, die teilweise synonym verwendet werden, dadurch aber nicht zu Klarheit und Präzision führen. Oftmals entstehen aufgrund dieses Problems Verwirrungen, die für den Bereich beruflicher Praxis wenig hilfreich sind.
In Ableitung daraus soll das Thema in der bildungspolitischen Diskussion veror-tet werden, aber auch untersucht, inwieweit Gütekriterien für guten Unterricht in die Arbeit mit digitalen Medien integriert werden können. Im 3. Kapitel wird genauer auf die theoretischen Erkenntnisse und Forderungen der Lerntheorie eingegangen, mit Hilfe der Aspekte konstruktivistisches, kooperatives und selbstgesteuertes Lernen. Daraus folgernd, wie dieses Verständnis über Lernprozesse bei der Arbeit mit Lernvideos im Unterricht didaktisch umgesetzt werden kann. Im 4. Kapitel wird, ausgehend von einer kurzen theoretischen Begründung der qualitativen Sozialforschung, das Forschungsdes-ign beschrieben und ein Leitfaden für die Experteninterviews entwickeln. Nach Auswer-tung der transkribierten Gespräche werden die gewonnen Erkenntnisse auf die For-schungsfragen und die Erkenntnisse des Theorieteils bezogen.
Wünschenswert wäre, wenn diese Arbeit einen kleinen Baustein in die Diskussion eingebringen kann, wie die Formen heutiger Wissens- und Informationsverarbeitung sowie die prognostizierten Anforderungen der Arbeitswelt, in die Didaktik schulischen Lernens eingehen können.
Diese Arbeit handelt von der Entwicklung zweier zukunfts- und handlungsorientierter e-Learning Module für das Triebwerkswechselgerät „Cobra“. Dabei wird das didaktische Konzept für diese e-Learning Module entwickelt und reflektiert. Dies beinhaltet die Auseinandersetzung mit verschiedenen Lerntheorien und didaktischen Modellen. Neben diesen didaktischen Modellen findet die Instruktionstheorie nach Gagnè eine Anwendung. Um den Wissenserwerb zu prüfen werden Aufgaben unter Berücksichtigung der Taxonomien nach Bloom entwickelt. Ausschnitte aus den e-Learning Modulen geben einen Einblick in die Umsetzung des didaktischen Konzeptes.
Im Rahmen dieser Masterthesis wird ein quasi energieautarkes, nicht-invasives Messsystem für Kleinstlebewesen entwickelt, das Vitalparameter erfasst und diese in einem FRAM-Speicher bis zum Auslesen abspeichert. Durch eine drahtlose RFID-/NFC-Ausleseschnittstelle kann die erfasste Körpertemperatur und der Puls der letzten Wochen ausgelesen werden. Alle Einstellungen des Messsystems können durch einen geeigneten RFID-Reader für Laptops mit eigens entwickelter grafischer Nutzeroberfläche geändert werden. Das vollständige Aufladen des nur 3,3 g leichten und 15 mm x 25 mm großen Messsystems erfolgt durch eine selbstgedruckte RFID-Reader-Antenne in Verbindung mit einem RFID-Reader und benötigt hierzu weniger als 29 Stunden. Bei vollständig aufgeladenem Energiespeicher ist ein Betrieb von 47 Tagen möglich. Dies wird durch ein speziell für das Messsystem konzipiertes Lade- und Powermanagement erreicht. Neben der Auswahl von energiesparenden Komponenten für die Hardware und deren bestmöglichen Nutzung, wurde die Software so optimiert, dass das Programm schnell und stromsparend abgearbeitet wird. Die Erweiterbarkeit und Anpassung wird durch das modulare Konzept auch in anderen Bereichen gewährleistet.
Intels Software Guard Extension (SGX) ist eine Technologie, die einen umfassenden Datenschutz verspricht. SGX wurde 2013 als Softwaremodell für die isolierte Ausführung von Anwendungen veröffentlicht.
Mit Intel SGX können Container in einem geschützten Speicherbereich erstellt werden. Diese Container werden Enclave genannt. Es ist nicht möglich den Speicher-
bereich der Enclave auszulesen oder in ihn zu schreiben. Die Enclave soll Integrität und Verfügbarkeit der Daten sicherstellen, auch wenn diese auf einem nicht vertrauenswürdigen Host ausgeführt werden.
In dieser Arbeit soll zunächst ein Überblick über die Funktionsweise und das Potenzial von Intel Software Guard Extension gegeben werden. Vor allem soll analysiert werden
wie Datenbanken mit Hilfe von SGX gesichert werden können und wie groß die Performance einbüßen mit SGX sind.
Aufbauend auf den Grundlagen von Intel SGX und EnclaveDB soll anschließend eine sichere Datenbank erstellt werden. Hierzu wird EnclaveDB von Microsoft analysiert und auf Basis dieser Datenbank eine neue Datenbank erschaffen, die Daten verschlüsselt in der Datenbank speichert ohne, dass diese in Klartext vom Host ausgelesen werden können. Zum Schluss wird die Performance von EnclaveDB und der erstellten Datenbank so gut es geht verglichen.
Die ältere Bevölkerung wächst kontinuierlich an. Dadurch erhöht sich auch der Bedarf an Pflegeleistungen und Pflegepersonal stetig. Allerdings herrscht ein großer Mangel an Pflegekräften. Die vorliegende Arbeit liegt dieser Problematik zugrunde. Ein Aspekt für eine mögliche Problemlösung ist der Einsatz sozialer Roboter, zur Betreuung älterer Menschen und Unterstützung des Pflegepersonals. Ziel dieser Arbeit war es daher, die Akzeptanz älterer Menschen und dem Personal in verschiedenen Pflegeeinrichtungen gegenüber sozialen Robotern sowie gewünschte Fähigkeiten dessen zu untersuchen.
Zu diesem Zweck wurden zum einen 67 ältere Personen mithilfe eines Fragebogens zur Thematik befragt. Zum anderen wurden sieben qualitative Interviews mit Angestellten in Pflegeheimen geführt.
In this paper pathophysiological interrelated deactivation/activation phenomena are set out in the example of whiplash injury. These phenomena could have been underestimated in previous positron emission tomography studies as their focus was on hypoperfusion rather than hyperperfusion. In addition, statistical parametric mapping analysis of cerebral studies is normally not fine-tuned to special interesting areas rather than to obvious clusters of difference.
In dieser Arbeit soll untersucht werden, wie lernförderlich eine Digital Storytelling Website im Unterrichtskontext für Schülerinnen und Schüler sein kann.
Hierfür wird das Thema Bioenergiedorf verwendet, wobei die Funktionsweise anhand des real existierenden Bioenergiedorfs Untermaßholderbach mittels der zu erstellenden Digital Storytelling Website anschaulich erklärt werden soll.
Ziel der hierzu zugehörigen Ausführungen ist es, die Konzeption sowie die Umsetzung dieser Thematik innerhalb einer Digital Storytelling Website, unter Berücksichtigung entsprechender Anforderungen und Aspekte für den Unterrichtskontext, nachvollziehbar darzulegen. Hierbei sollen besonders die Gedanken zu den verschiedenen mediendidaktischen und kognitionspsychologischen Modellen hervorgehoben werden, welche der entwickelten Website zugrunde liegen.
Die vorliegende Master-Thesis befasst sich mit dem Thema Handel. In der Arbeit wird der Bereich des Multi-Channel-Handels genauer durchleuchtet. Es wird aufgezeigt, wie der Zukunft des Handels weltweit und in Deutschland aussehen wird.
Der Handel wird besonders heute sehr vom Konsumierendenverhalten beeinflusst. Unternehmen passen sich mehr als je zuvor an Wünsche und Anforderungen der Zielgruppe an. Dies ist wichtig für Handelsunternehmen um wettbewerbsfähig und profitabel zu bleiben, vor allem in einem immer aggressiver werdenden Wettbewerbskampf um Konsumierende. In dieser Arbeit wird dargestellt, wie sich die Customer Journey und der Kaufprozess der Konsumierenden verändert hat und flexibler geworden ist. Es gibt nicht mehr nur einen Weg, wie potentielle Verkaufsinteressierende zu Kundschaft wird. Die Kundschaft lässt sich nicht mehr von Unternehmen leiten, sondern möchte eigenständig und selbstbestimmt zwischen verschiedenen Absatzkanälen und Endgeräten wechseln. Daher ist ein verknüpftes Multi-Channel-System für Handelsunternehmen wichtig. In dieser Arbeit soll zudem gezeigt werden, dass die Omni-Channel-Strategie die Strategie der Zukunft ist und wie der Begriff des New Retail sowohl den Online-Handel, als auch den stationären Handel prägen wird.
Online-Handelsunternehmen wie Amazon, Alibaba und Bonprix haben bereits verstanden, dass der stationäre Handel nicht „ausstirbt“, sondern durch eine intelligente Verknüpfung mit dem Online-Handel sehr zukunftsweisend gemacht werden kann. Daher wird in dieser Arbeit auch gezeigt, wie sich pure E-Commerce-Unternehmen in den Innenstädten und Einkaufszentren in den USA, China und Deutschland ausbreiten und damit eine Omni-Channel-Strategie schaffen.
Durch den stark wachsenden Klinikcampus des Universitätsklinikums Freiburg ist die zentrale Versorgung mit medizinischem Sauerstoff an ihrer Kapazitätsgrenze angelangt. Es handelt sich um ein großflächiges, teilweise über viele Jahrzehnte altes Ringleitungssystem, an das immer wieder neue Kliniken und Institute angeschlossen wurden.
Das Ziel der vorliegenden Masterarbeit ist eine umfangreiche Untersuchung und Beurteilung von Sicherheits- und Kapazitätsparametern der zentralen medizinischen Gasversorgung. Hierzu erfolgte zunächst eine Literaturrecherche zum aktuellen Stand der Technik. Danach wurde eine Umfrage an insgesamt 14 deutschen Universitätskliniken mit ähnlicher Ringleitungstopologie durchgeführt. Es zeigte sich, dass in den meisten Fällen bisher noch keine detaillierte Analyse des eigenen Ringleitungssystems für medizinische Zwecke durchgeführt wurde.
An der Universitätsklinik Freiburg erfolgte die Analyse des Ringleitungssystems mit Hilfe der nicht-invasiven Clamp-On Messmethode für Gase. Dabei wurde als erstes festgestellt, dass die Strömungsgeschwindigkeiten innerhalb des Ringleitungssystems im Mittel so niedrig sind, dass keine Brandgefährdung vom z.B. durch die Selbstentzündung von Sauerstoff für die Klinik zu erwarten ist. Es stellte sich weiter heraus, dass für die Notversorgung der einzelnen Kliniken und Institute die Dimensionierung der Flaschenbatterien in lokalen Gasunterzentralen deutlich zu gering ist und dort nachgebessert werden sollte. Im Hinblick auf die o.g. Umfrage ist diese Masterarbeit sicher auch für andere Universitätskliniken bzw. Kliniken mit Campusinfrastruktur mit ähnlicher Ringleitungstopologie interessant.
Es wird eine Fallstudie vorgestellt, die die Visualisierung von Geschäftsdaten nach dem International Business Communication Standard IBCS (Hichert & Faisst 2016 / 2017) auf der cloudbasierten Plattform SAP Analytics Cloud umsetzt. Mit der Fallstudie soll die Frage beantwortet werden, ob IBCS im Rahmen einer Lehreinheit mit hohem praktischem Anteil mit SAP Analytics Cloud umgesetzt werden kann. Darüber hinaus soll der generelle Einsatz von SAP Analytics Cloud für die Lehre im Analytics-Umfeld evaluiert werden.
Vorgestellt wird ein Konzept zur biologischen Methanisierung von Wasserstoff direkt in Biogasreaktoren, mit dem durch Membranbegasung der Methangehalt des Biogases auf > 96 % erhöht werden kann. Essentiell zum Erreichen solch hoher Methanwerte sind die Einhaltung eines optimalen pH-Bereichs und die Vermeidung von H2-Akkumulation. Im Falle einer Limitierung der Methanbildungsrate durch den eigentlichen anaeroben Abbauprozess der Biomasse ist auch eine externe Zufuhr von CO2 zur weiteren Methanbildung denkbar. Das Verfahren soll weiter optimiert und in einem von der Deutschen Bundesstiftung Umwelt geförderten Projekt in der Biogasanlage einer regionalen Käserei in der Praxis getestet werden. Die hier angestrebte Kombination aus dezentraler Abfallverwertung und Eigenenergieerzeugung eines lebensmittelverarbeitenden Betriebs unter Einbindung in ein intelligentes Erneuerbare Energien - Konzept soll einen zusätzlichen Mehrwert liefern.
Das Ziel der Arbeit ist es, die Wirkung von datenschutzbezogenen Gütesiegeln auf das Vertrauen, die Teilnahmebereitschaft und die freiwillige Datenbekanntgabe in Webbefragungen zu untersuchen. Hierbei soll der unternehmerische Nutzen im Kontext der deutschen Markt-, Medien- und Sozialforschung transparent gemacht werden. Da sich an diesem Markt überwiegend kleine und mittlere Forschungseinrichtungen befinden, werden die wirtschaftlichen Belange dieser Unternehmen besonders berücksichtigt. Insgesamt beschäftigt sich die Arbeit durch den besonderen Branchenbezug zur deutschen Markt-, Medien- und Sozialforschung mit einem neuartigen Forschungsfeld. Vor diesem Hintergrund werden die konzeptionellen und theoretischen Grundlagen, die zum Einsatz von Gütesiegeln im E-Commerce vorliegen, in einem neuen Licht betrachtet. Dabei liegt die Besonderheit der Arbeit darin, dass sie sich mit der freiwilligen Bekanntgabe von persönlichen Daten auf der Basis von intrinsisch motivierten Faktoren befasst.
Forschung im Fokus 2019
(2019)
Smart Cities und Big Data
(2019)
Brückenkurs Physik
(2019)
Dieses Lehrbuch fasst alle wesentlichen, für das Studium eines MINT-Faches relevanten Inhalte der Physik zusammen und hilft physikalisches Grundwissen aufzufrischen. Es unterstützt Studienanfänger dabei, die Routine in der konkreten Anwendung, die an der Hochschule vorausgesetzt wird, zu festigen. Dabei folgt die Stoffauswahl dem Mindestanforderungskatalog Physik, den ein Arbeitskreis aus Professoren der baden-württembergischen Hochschulen für angewandte Wissenschaften zusammengestellt hat.
High temperature components in internal combustion engines and exhaust systems must withstand severe mechanical and thermal cyclic loads throughout their lifetime. The combination of thermal transients and mechanical load cycling results in a complex evolution of damage, leading to thermomechanical fatigue (TMF) of the material. Analytical tools are increasingly employed by designers and engineers for component durability assessment well before any hardware testing. The DTMF model for TMF life prediction, which assumes that micro-crack growth is the dominant damage mechanism, is capable of providing reliable predictions for a wide range of high-temperature components and materials in internal combustion engines. Thus far, the DTMF model has employed a local approach where surface stresses, strains, and temperatures are used to compute damage for estimating the number of cycles for a small initial defect or micro-crack to reach a critical length. In the presence of significant gradients of stresses, strains, and temperatures, the use of surface field values could lead to very conservative estimates of TMF life when compared with reported lives from hardware testing. As an approximation of gradient effects, a non-local approach of the DTMF model is applied. This approach considers through-thickness fields where the micro-crack growth law is integrated through the thickness considering these variable fields. With the help of software tools, this method is automated and applied to components with complex geometries and fields. It is shown, for the TMF life prediction of a turbocharger housing, that the gradient correction using the non-local approach leads to more realistic life predictions and can distinguish between surface cracks that may arrest or propagate through the thickness and lead to component failure.
Cast aluminum alloys are frequently used as materials for cylinder head applications in internal combustion gasoline engines. These components must withstand severe cyclic mechanical and thermal loads throughout their lifetime. Reliable computational methods allow for accurate estimation of stresses, strains, and temperature fields and lead to more realistic Thermomechanical Fatigue (TMF) lifetime predictions. With accurate numerical methods, the components could be optimized via computer simulations and the number of required bench tests could be reduced significantly. These types of alloys are normally optimized for peak hardness from a quenched state that maximizes the strength of the material. However due to high temperature exposure, in service or under test conditions, the material would experience an over-ageing effect that leads to a significant reduction in the strength of the material. To numerically account for ageing effects, the Shercliff & Ashby ageing model is combined with a Chaboche-type viscoplasticity model available in the finite-element program ABAQUS by defining field variables. The constitutive model with ageing effects is correlated with uniaxial cyclic isothermal tests in the T6 state, the overaged state, as well as thermomechanical tests. On the other hand, the mechanism-based TMF damage model (DTMF) is calibrated for both T6 and over-aged state. Both the constitutive and the damage model are applied to a cylinder head component simulating several cycles on an engine dynamometer test. The effects of including ageing for both models are shown.
In users of a cochlear implant (CI) together with a contralateral hearing aid (HA), so-called bimodal listeners, differences in processing latencies between digital HA and CI up to 9 ms constantly superimpose interaural time differences. In the present study, the effect of this device delay mismatch on sound localization accuracy was investigated. For this purpose, localization accuracy in the frontal horizontal plane was measured with the original and minimized device delay mismatch. The reduction was achieved by delaying the CI stimulation according to the delay of the individually worn HA. For this, a portable, programmable, battery-powered delay line based on a ring buffer running on a microcontroller was designed and assembled. After an acclimatization period to the delayed CI stimulation of 1 hr, the nine bimodal study participants showed a highly significant improvement in localization accuracy of 11.6% compared with the everyday situation without the delay line (p < .01). Concluding, delaying CI stimulation to minimize the device delay mismatch seems to be a promising method to increase sound localization accuracy in bimodal listeners.
Mathematik 2 Beweisaufgaben
(2019)
Der zweite Band der Beweisaufgabensammlung richtet sich an angehende Ingenieure und Naturwissenschaftler, die die im Rahmen einer Mathematik 2-Vorlesung behandelten Formeln nicht nur anwenden, sondern selbst herleiten wollen. Bei der Zusammenstellung des Inhalts wurde großer Wert auf Vollständigkeit gelegt, weshalb sich die Beweise hinsichtlich Umfang und Schwierigkeitsgrad mitunter sehr deutlich voneinander unterscheiden. Um die Herleitung der auf Lern- und Klausur-Formelsammlung aufgeteilten mathematischen Gleichungen und Regeln zu erleichtern, wird eine Dreiteilung der Beweise in Aufgabe, Lösungshinweis und Lösung vorgenommen. Umfangreichere Herleitungen sind in Teilaufgaben zerlegt und anspruchsvollere Beweise durch Sternchen bzw. durch Sterne kenntlich gemacht.
In thermomechanisch hochbelasteten Bauteilen begrenzt das Wachstum von Ermüdungsrissen die Bauteillebensdauer. Es kommen Lebensdauermodelle und Finite-Elemente Simulationen zum Einsatz, um ein vorzeitiges Bauteilversagen zu verhindern. Hierbei werden im Allgemeinen deterministische Werkstoffeigenschaften unterstellt, sodass die Information über die im realen Werkstoff auftretenden Streuungen verloren geht, was eine Unsicherheit im Auslegungsprozess mit sich bringt. In der vorliegenden Ausarbeitung werden Methoden zur adäquaten Bestimmung der Werkstoffkennwerte und zur Beschreibung ihrer Streuung durch statistische Verteilungen entwickelt. Einen wesentlichen Aspekt der Arbeit stellt die Bestimmung von objektiven Werkstoffkennwerten dar, zu deren Zweck ein Robustheitskriterium eingeführt wird. Anhand zahlreicher Versuchsdatensätze der Nickelbasislegierung MARM247 und des niobstabilisierten austenitischen Stahls X6 CrNiNb 18-10 kann diese Methodik ausgearbeitet werden und führt auf ein probabilistisches Lebensdauermodell, dass die Abschätzung des Einfluusses von statistisch verteilten Werkstoffkennwerten auf die Ermüdungslebensdauer erlaubt. Als Ergebnis einer Monte-Carlo Simulation zeigt sich, dass im Vergleich von deterministischer zu probabilistischer Lebensdauerbewertung eine probabilistische Auswertung bei beiden untersuchten Werkstoffen zu einem um circa Faktor zwei größeren Streuband in der Lebensdauer führt. In einem Bauteilkonzept wird die anhand der Versuchsdaten erarbeitete Methodik erweitert, sodass eine Abschätzung des Ein usses von streuenden Werkstoffeigenschaften auf Bauteilebene durch Finite-Elemente Simulationen möglich wird. Es kommt das Two-Layer-Viscoplasticity Modell zum Einsatz. Um die Streuung seiner Werkstoffkennwerte ermitteln zu können, reicht die vorliegende Datenbasis nicht aus, sodass Annahmen zu den Werkstoffkennwerten getroffen werden müssen.
Synergieprognosen spielen bei der Begründung von Unternehmensübernahmen regelmäßig eine wichtige Rolle. Da diese Prognosen unsicher sind, bedürfen sie einer fundierten Beurteilung, was wiederum eine offene Diskussion innerhalb von Vorstand und Aufsichtsrat voraussetzt. Solche Diskussionen sind jedoch keine Selbstverständlichkeit, da Gruppen dazu neigen, problematische Entscheidungsaspekte nicht angemessen zu würdigen. Mit dem Tornado-Diagramm wird ein Instrument vorgestellt, das diesem Effekt entgegenwirkt und die Entscheider dazu motiviert, auch ungünstige Synergieprognosen zu diskutieren. Auf diese Weise kann die Übernahmeentscheidung auf eine bessere Informationsgrundlage gestellt werden.
Hot working tools are subjected to complex thermal and mechanical loads during service. Locally, the stresses can exceed the material’s yield strength in highly loaded areas. During production, this causes cyclic plastic deformation and thus thermomechanical fatigue, which can significantly shorten the lifetime of hot working tools. To sustain this high loads, the hot working tools are typically made of tempered martensitic hot work tool steels. While the annealing temperatures of the tool steels usually lie in the range of 400 to 600 °C, the steels may experience even higher temperatures during hot working, resulting in softening of the material due to changes in microstructure. Therefore, the temperature-dependent cyclic mechanical properties of the frequently used hot work tool steel 1.2367 (X38CrMoV5-3) after tempering are investigated in this work. To this end, hardness measurements are performed. Furthermore, the Institute of Forming Technology and Machines (IFUM) provides test results from cyclic tests at temperatures ranging from 20 °C (room temperature) to 650 °C. To describe the observed time- and temperature-dependent softening during tempering, a kinetic model for the evolution of the mean size of secondary carbides based on Ostwald ripening is developed. In addition, both mechanism-based and phenomenological relationships for the cyclic mechanical properties of the Ramberg- Osgood model depending on carbide size and temperature are proposed. The stress-strain hysteresis loops measured at different temperatures and after different heat treatments can be well described with the proposed kinetic and mechanical model. Furthermore, the model is suitable for integration in advanced mechanism-based lifetime models. However, since the Ramberg-Osgood model is not suitable for finite element implementation, a temperature-dependent incremental cyclic plasticity model is presented as well. Thus, softening due to particle coarsening can be applied in the finite element method (FEM). Therefore, a kinetic model is coupled with a cyclic plasticity model including kinematic hardening. The plasticity model is implemented via subroutines in the finite element program ABAQUS for implicit integration (subroutine called UMAT) and explicit integration (subroutine called VUMAT). The implemented model is used for the simulation of an exemplary hot working process to assess the effects of softening due to particle coarsening. It shows that the thermal softening at high temperatures, which occur over a long time at a mechanically highly loaded area, has a great influence. If this influence is not considered in tool design, an unexpected tool failure might occur bringing the production to a standstill.
China ist eine aufstrebende Volkswirtschaft. Das Wirtschaftswachstum im Land führt zu einer steigenden Kaufkraft und der digitale Fortschritt verändert die Kaufgewohnheiten und die komplette Customer Journey. Einheitliche Online Marketing-Ansätze sind dabei längst überholt. Die Konsumierenden erwarten eine persönliche Customer Experience mit Integration von neuesten Technologien, die ihren mobilen Lebensstil effizienter gestaltet.
Deutsche Unternehmen erkennen die Auswirkungen dieser Veränderungen und stehen vor der Herausforderung die neuen, anspruchsvollen Verbraucher/innen mit innovativen Online Marketing-Maßnahmen anzusprechen.
Für die eigene Studie wurden deutsche Unternehmen befragt, die bereits erfolgreiches Online Marketing in China betreiben. Anhand der Online-Befragung und Experten-/Expertinneninterviews sollen die wichtigsten Online Marketing-Instrumente, deren Plattformen, Ziele und Herausforderungen ermittelt werden.
Erweiterung der Ackermann-Formel für Mehrgrößensysteme um Freiheitsgrade zur Führungsentkopplung
(2019)
Der Beitrag zeigt bisher nicht genutzte Freiheitsgrade beim Entwurf eines linearen, zeitinvarianten Zustandsreglers für steuerbare Mehrgrößensysteme auf, wenn dieser auf der Basis der Ackermann´schen Formel durchgeführt wird. Darüber hinaus wird dargelegt, wie diese Freiheitsgrade zur Führungsentkopplung gezielt eingesetzt werden können. Damit dies gelingt, wird wie in der einschlägigen Literatur eine Transformation der Zustandsgleichungen in eine teilsystemorientierte Struktur vorgenommen. Jedoch werden modifizierte Transformationsbeziehungen verwendet, die die benötigten Freiheitsgrade hervorbringen. Der Beitrag konzentriert sich hierbei auf zeitdiskrete Systeme, wenngleich die geschilderte Vorgehensweise grundsätzlich auch bei zeitkontinuierlichen Systemen anwendbar ist. Angesichts der gewählten Methodik, die Regelungseigenwerte vorzugeben und die verbleibenden Freiheitsgrade zur Erfüllung weiterer Forderungen an den Regler heranzuziehen, ist das vorgestellte Verfahren eine unmittelbare Alternative zu anderen Polvorgabeverfahren wie z. B. zur Vollständigen Modalen Synthese. Im Fall einer nicht realisierbaren vollständigen Führungsentkopplung bietet die vorgestellte Methode die Möglichkeit einer Lösungsfindung, bei der die verbleibenden Verkopplungen im Sinne eines quadratischen Gütemaßes minimiert werden.
As part of the design education at Offenburg University, the teaching in technical documentation is continuously optimised. In this study, numerous mechanical engineering students, ages 19 to 29, are observed using the eye tracking technology and a video camera while performing various design exercises. The aim of the study is to enhance the students’ ability to read, understand and analyse complex engineering drawings. In one experiment, the students are asked to perform the “cube perspective test” after Stumpf and Fay to assess their ability for mental rotation as part of spatial visualization ability. Furthermore, the students are asked to prepare and give micro presentations on a topic related to their studies. Students have a maximum of 100 s time for these presentations. Thus, they can practise presenting important information in a short amount of time, show their rhetorical skills and demonstrate their acquisition of basic knowledge. During the presentation, the eye movement of a few selected students is recorded to analyse their information acquisition. In a further test, the students’ eye movements are analysed while reading an engineering drawing that consists of multiple views. All the spatial connections have to be included based on the different component views. Including these and their acquired knowledge, the students are asked to identify the correct representation of a component view. Furthermore the subjects are describing the function of an assembly, a parallel gripper and then they are to mentally disassemble the assembly to replace a damaged cylindrical pin. Simultaneously, they are filmed using a video camera to see which terms the students use for the individual technical terms. The evaluation of the eye movements shows that the increasing digitalisation of society and the use of electronic devices in everyday life lead to fast and only selective perceptual behaviour and that students feel insecure when dealing with technical drawings. The analysis of the videos shows a mostly non-technical and inaccurate manner of expression and a poor use of technical terms. The transferability of the achieved results to other technical tasks is part of further investigations.
In den hier vorliegenden Fallstudien wurden mehrere Studierende des Studiengangs Maschinenbau an der Hochschule Offenburg im Alter von 18 bis 28 Jahren bei der Lösungsfindung für Konstruktionsaufgaben mit der Eye-Tracking-Technologie und einer Videokamera beobachtet. Ziel der empirischen Untersuchung war es, die praktische Fähigkeit von Studierenden beim Lesen, Verstehen und Analysieren von technischen Darstellungen zu fördern. Die Auswertung der Augenbewegungen zeigt, dass die zunehmende Digitalisierung der Gesellschaft und der Umgang mit elektronischen Kleinstgeräten im Alltag zu einem punktuellen und flüchtigen Wahrnehmungsverhalten führen und dass sich die Studierenden im Umgang mit technischen Zeichnungen unsicher fühlen. Die Analyse der Videos zeigt eine meist nicht-technische und ungenaue Ausdrucksweise und eine schlechte Verwendung von Fachbegriffen.
Spinal cord stimulation (SCS) is the most commonly used technique of neurostimulation. It involves the stimulation of the spinal cord and is therefore used to treat chronic pain. The existing esophageal catheters are used for temperature monitoring during an electrophysiology study with ablation and transesophageal echocardiography. The aim of the study was to model the spine and new esophageal electrodes for the transesophageal electrical pacing of the spinal cord, and to integrate them in the Offenburg heart rhythm model for the static and dynamic simulation of transesophageal neurostimulation. The modeling and simulation were both performed with the electromagnetic and thermal simulation software CST (Computer Simulation Technology, Darmstadt). Two new esophageal catheters were modelled as well as a thoracic spine based on the dimensions of a human skeleton. The simulation of directed transesophageal neurostimulation is performed using the esophageal balloon catheter with an electric pacing potential of 5 V and a trapezoidal signal. A potential of 4.33 V can be measured directly at the electrode, 3.71 V in the myocardium at a depth of 2 mm, 2.68 V in the thoracic vertebra at a depth of 10 mm, 2.1 V in the thoracic vertebra at a depth of 50 mm and 2.09 V in the spinal cord at a depth of 70 mm. The relation between the voltage delivered to the electrodes and the voltage applied to the spinal cord is linear. Virtual heart rhythm and catheter models as well as the simulation of electrical pacing fields and electrical sensing fields allow the static and dynamic simulation of directed transesophageal electrical pacing of the spinal cord. The 3D simulation of the electrical sensing and pacing fields may be used to optimize transesophageal neurostimulation.
The visualization of heart rhythm disturbance and atrial fibrillation therapy allow the optimization of new cardiac catheter ablations. With the simulation software CST (Computer Simulation Technology, Darmstadt) electromagnetic and thermal simulations can be carried out to analyze and optimize different heart rhythm disturbance and cardiac catheters for pulmonary vein isolation. Another form of visualization is provided by haptic, three-dimensional print models. These models can be produced using an additive manufacturing method, such as a 3D printer. The aim of the study was to produce a 3D print of the Offenburg heart rhythm model with a representation of an atrial fibrillation ablation procedure to improve the visualization of simulation of cardiac catheter ablation.
The basis of 3D printing was the Offenburg heart rhythm model and the associated simulation of cryoablation of the pulmonary vein. The thermal simulation shows the pulmonary vein isolation of the left inferior pulmonary vein with the cryoballoon catheter Arctic Front AdvanceTM from Medtronic. After running through the simulation, the thermal propagation during the procedure was shown in the form of different colors. The three-dimensional print models were constructed on the base of the described simulation in a CAD program. Four different 3D printers are available for this purpose in a rapid prototyping laboratory at the University of Applied Science Offenburg. Two different printing processes were used: 1. a binder jetting printer with polymer gypsum and 2. a multi-material printer with photopolymer. A final print model with additional representation of the esophagus and internal esophagus catheter was also prepared for printing.
With the help of the thermal simulation results and the subsequent evaluation, it was possible to make a conclusion about the propagation of the cold emanating from the catheter in the myocardium and the surrounding tissue. It could be measured that already 3 mm from the balloon surface into the myocardium the temperature drops to 25 °C. The simulation model was printed using two 3D printing methods. Both methods as well as the different printing materials offer different advantages and disadvantages. While the first model made of polymer gypsum can be produced quickly and cheaply, the second model made of photopolymer takes five times longer and was twice as expensive. On the other hand, the second model offers significantly better properties and was more durable overall. All relevant parts, especially the balloon catheter and the conduction, are realistically represented. Only the thermal propagation in the form of different colors is not shown on this model.
Three-dimensional heart rhythm models as well as virtual simulations allow a very good visualization of complex cardiac rhythm therapy and atrial fibrillation treatment methods. The printed models can be used for optimization and demonstration of cryoballoon catheter ablation in patients with atrial fibrillation.
Die Vorlesung Physik ist ein grundlegender Baustein der meisten Ingenieursstudiengänge und stellt für viele Studienanfänger eine Hürde zum Studienstart da. Die Vorkenntnisse der Studienanfänger sind zunehmend heterogen und der sichere Umgang mit physikalischen Konzepten erfordert mehr oder wenig Übung, um diese zu festigen oder auch erstmals einzuführen. Um dieses Üben zu ermöglichen, wurde für die Vorlesung "Physik 1" in den Studiengängen Maschinenbau, Werkstofftechnik, Mechatronik, Biomechanik, Biotechnologie und Umwelt- und Verfahrenstechnik der Hochschule Offenburg ein E-Tutorium erarbeitet, das die Übungsaufgaben in Form von 10 Online-Selbsttest mit jeweils vier Übungsaufgaben anbietet. Die Selbsttests beinhalten dabei typische Aufgabenstellungen, deren Zahlenwerte (Masse, Geschwindigkeit usw.) bei jedem Aufruf der Aufgabe variieren. Dadurch lassen sich die Selbsttests zum selbständigen Üben nutzen. Ein reines Abschreiben einer Musterlösung ist durch die veränderlichen Zahlenwerte darüber hinaus unmöglich. Wir beschreiben eine Methode zur effizienten Erzeugung der Moodle-basierten Selbsttests mit Hilfe der Software R/exams und berichten über die Erfahrungen beim ersten Einsatz.
Die Studienanfänger in den technischen Studiengängen der Hochschulen für angewandte Wissenschaften haben nicht nur in Mathematik sondern auch in Physik sehr unterschiedliche Vorkenntnisse. Obwohl diese Fächer für das grundlegende Verständnis technischer Vorgänge von großer Bedeutung sind, kann die Ausbildung in diesen Bereichen angesichts der begrenzten dafür im Verlauf des Studiums zur Verfügung stehenden Zeitfenster nicht bei Null anfangen. Für Mathematik wurde daher von der Arbeitsgruppe cosh ein Mindestanforderungskatalog zusammengestellt und 2014 veröffentlicht. Er beschreibt Kenntnisse und Fertigkeiten, die Studienanfänger zur erfolgreichen Aufnahme eines WiMINT-Studiums (Wirtschaft, Mathematik, Informatik, Naturwissenschaft, Technik) an einer Hochschule benötigen. Inzwischen hat sich nun eine Arbeitsgruppe von Physikerinnen und Physikern an Hochschulen in Baden-Württemberg gebildet, deren Ziel es ist, einen analogen Mindestanforderungskatalog für den Bereich Physik zu erstellen. Hier wird der aktuell erreichte Stand der Arbeiten vorgestellt.
Im Beitrag wird für lineare, zeitinvariante, zeitdiskrete und stabile Regelstrecken beschrieben, wie zwei bekannte Zustandsraumverfahren zur Windup-Vermeidung so miteinander kombiniert werden können, dass dadurch für sämtliche PI-Zustandsregler Strecken- und Regler-Windup verhindert wird, sofern diese Regler im unbegrenzten Fall stabil sind. Zurückgegriffen wird hierbei auf das „Additional Dynamic Element“ (ADE) von Hippe zur Vermeidung von Strecken-Windup [Hippe, P.: Windup in control – Its effects and their prevention, 2006; at – Automatisierungstechnik, 2007], dessen Übertragung auf zeitdiskrete Systeme im Beitrag kurz skizziert wird, sowie auf das Verfahren der Führungsgrößenkorrektur [Nuß, U.: at – Automatisierungstechnik, 2017] zur Vermeidung von Regler-Windup. Das vorgestellte Kombinationsverfahren setzt für die jeweilige Regelstrecke lediglich die Einbeziehung eines bereits existierenden P-Zustandsreglers voraus, der Strecken-Windup vermeidet. Die Bereitstellung eines möglichst einfachen und dennoch nicht allzu einschränkenden Kriteriums zur Überprüfung, ob ein P-Zustandsregler diese Eigenschaft besitzt, ist ebenfalls ein Anliegen des Beitrags. Diesbezüglich wird auf der Basis einer geeigneten Ljapunow-Funktion ein hinreichendes Kriterium angegeben, das umfassender ist als das in [Nuß, U.: at – Automatisierungstechnik, 2017] verwendete. Ein Beispiel aus der elektrischen Antriebstechnik demonstriert die Leistungsfähigkeit der vorgestellten Methode.
Elektrische Antriebe sind ein innovationstreibender Kernbestandteil vieler industrieller Anlagen und Einrichtungen. Damit sie diese herausragende Rolle mit den daran geknüpften Erwartungen erfüllen können, ist neben optimierten Elektromotoren und sie speisenden, schnell schaltenden Stromrichterstellgliedern auch eine hochdynamische Regelung erforderlich. Diesem Umstand wird mit der angebotenen Veranstaltung in Form einer detaillierten Einführung in die Thematik der Regelung elektrischer Antriebe Rechnung getragen.
Die vorliegende Bachelorthesis mit dem Titel "Künstliche Intelligenz im Personalmanagement" beschäftigt sich mit den Potenzialen der Künstlichen Intelligenz und deren Einsatz im Personalmanagement. Die Basis der Thesis bildet die Vermittlung der Grundlagen, sowohl für die Instrumente des Personalmanagements, als auch für die der Künstlichen Intelligenz und fußt auf einer intensiven Literatur- und Internetrecherche. Das Ziel war die Herausarbeitung möglicher Einsatzszenarien KI-basierter Systeme in den Kernbereichen der klassischen Personalarbeit – Personalwerbung, Personalauswahl und Personalentwicklung. Dabei wurden auch ethische Bedenken betrachtet und sowohl Herausforderungen als auch Chancen aufgezeigt.
Das Ergebnis dieser Arbeit zeigt unter anderem konkrete Anwendungsfälle und bereits entwickelte, intelligente Verfahren, welche die Arbeit moderner Personaler zumindest erleichtern sollen. Es wird eine positive Haltung gegenüber Künstlicher Intelligenz vertreten, wobei der aktuelle Stand der KI-Forschung eher auf eine assistierende Funktion hindeutet, als auf eine ersetzende. Der Personaler wird weiterhin gebraucht werden, wenn auch mit veränderten Anforderungen, die digitaler und agiler sind als in der Vergangenheit.
Grundlagen der Organisation
(2019)
Eine betriebswirtschaftliche Theorie der Organisationsgestaltung hat Strukturmodelle zu entwickeln, die als Grundlage für Organisationsentscheidungen des Managements geeignet sind. Es geht dabei um die Bewältigung der elementaren Anforderungen, die bei interpersoneller Arbeitsteilung zwangsläufig durch die Trennung zusammenhängender Aufgabenkomplexe und die Einbeziehung einer Mehrzahl von Personen mit jeweils individuellen Zielen entstehen. Bei der Verfolgung dieses Anliegens orientiert sich auch die Neuauflage der "Grundlagen der Organisation" unverändert am bewährten entscheidungstheoretischen Konzept der Organisationsgestaltung, das einen fundierten anwendungsbezogen Zugang zum Verständnis und zur Lösung komplexer Organisationsprobleme eröffnet.
The development of secure software systems is of ever-increasing importance. While software companies often invest large amounts of resources into the upkeeping and general security properties of large-scale applications when in production, they appear to neglect utilizing threat modeling in the earlier stages of the software development lifecycle. When applied during the design phase of development, and continuously throughout development iterations, threat modeling can help to establish a "Secure by Design" approach. This approach allows issues relating to IT security to be found early during development, reducing the need for later improvement – and thus saving resources in the long term. In this paper the current state of threat modeling is investigated. This investigation drove the derivation of requirements for the development of a new threat modelling framework and tool, called OVVL. OVVL utilizes concepts of established threat modeling methodologies, as well as functionality not available in existing solutions.
Blockchain frameworks enable the immutable storage of data. A still open practical question is the so called "oracle" problem, i.e. the way how real world data is actually transferred into and out of a blockchain while preserving its integrity. We present a case study that demonstrates how to use an existing industrial strength secure element for cryptographic software protection (Wibu CmDongle / the "dongle") to function as such a hardware-based oracle for the Hyperledger blockchain framework. Our scenario is that of a dentist having leased a 3D printer. This printer is initially supplied with an amount of x printing units. With each print action the local unit counter on the attached dongle is decreased and in parallel a unit counter is maintained in the Hyperledger-based blockchain. Once a threshold is met, the printer will stop working (by means of the cryptographically protected invocation of the local print method). The blockchain is configured in such a way that chaincode is executed to increase the units again automatically (and essentially trigger any payment processes). Once this has happened, the new unit counter value will be passed from the blockchain to the local dongle and thus allow for further execution of print jobs.
Protecting software from illegal access, intentional modification or reverse engineering is an inherently difficult practical problem involving code obfuscation techniques and real-time cryptographic protection of code. In traditional systems a secure element (the "dongle") is used to protect software. However, this approach suffers from several technical and economical drawbacks such as the dongle being lost or broken.
We present a system that provides such dongles as a cloud service, and more importantly, provides the required cryptographic material to control access to software functionality in real-time.
This system is developed as part of an ongoing nationally funded research project and is now entering a first trial stage with stakeholders from different industrial sectors.
Many sectors, like finance, medicine, manufacturing, and education, use blockchain applications to profit from the unique bundle of characteristics of this technology. Blockchain technology (BT) promises benefits in trustability, collaboration, organization, identification, credibility, and transparency. In this paper, we conduct an analysis in which we show how open science can benefit from this technology and its properties. For this, we determined the requirements of an open science ecosystem and compared them with the characteristics of BT to prove that the technology suits as an infrastructure. We also review literature and promising blockchain-based projects for open science to describe the current research situation. To this end, we examine the projects in particular for their relevance and contribution to open science and categorize them afterwards according to their primary purpose. Several of them already provide functionalities that can have a positive impact on current research workflows. So, BT offers promising possibilities for its use in science, but why is it then not used on a large-scale in that area? To answer this question, we point out various shortcomings, challenges, unanswered questions, and research potentials that we found in the literature and identified during our analysis. These topics shall serve as starting points for future research to foster the BT for open science and beyond, especially in the long-term.
Bei der Auslegung von geschraubten Stirnplattenstößen mit elastomerer Trennschicht dürfen gemäß Eurocode 3 lediglich die Flansche für eine Übertragung der Schnittgrößen berücksichtigt werden. Unsere Untersuchungen zeigen, dass auch die Stege für eine Bemessung herangezogen werden sollten. Sie tragen zu einer gleichmäßigeren Spannungsverteilung im Elastomerlager bei und erlauben somit höhere Belastungen bei gleichbleibenden Abmessungen.
Basis der FE-Analysen sind ein- und zweiachsige Zug- und Druckversuche, die das komplexe Materialverhalten der elastomeren Trennschicht erfassen. Die Übereinstimmung von Messung und Simulation ist sehr gut, was insbesondere auf das verwendete Materialgesetz zurückzuführen ist: ein nicht-linear viskoelastischer Ansatz in Kombination mit dem hyperelastischen Marlow-Modell.
Es hat sich herausgestellt, dass der Reibungskoeffizient und die Querkontraktionszahl des Elastomerlagers maßgeblich das Tragverhalten der geschraubten Stirnplattenstöße beeinflussen.
Windows Registry Forensik - Analyse von Shellbags im Rahmen digitalforensischer Untersuchungen
(2019)
Digitalforensische Untersuchungen sind heute ebenso wichtig wie herkömmliche forensische Untersuchungen. Neben leicht sichtbaren Spuren wie Internethistorie oder Suchmaschinenanfragen befinden sich auch in der Windows Registry verwertbare Spuren. Zu diesen Spuren zählen auch die Shellbags. Sie werden vom System genutzt, um Ordnereinstellungen zu speichern.
Diese Arbeit beleuchtet neben den Grundlagen digitaler Forensik und der Windows Registry diese Shellbags. Es wird untersucht, welche Aktionen am System unter Windows 7 und Windows 10 Shellbags erzeugen oder diese verändert. Um dieses Ziel zu erreichen, wird ein Katalog an Experimenten durchgeführt. Dieser beinhaltet unterschiedliche Aktionen am System, vom Erstellen bis zum Löschen eines Ordners. Dabei wird der Zustand der Shellbags in Registry-Abbildern vor und nach der Aktion verglichen und somit untersucht, welche Veränderungen zu erkennen sind. Die Ergebnisse werden dokumentiert und interpretiert. Somit wird eine Übersicht über die Auswirkungen dieser Aktionen auf die Shellbags erstellt, an dem sich orientiert werden kann.
Abschließend wird in einer prototypischen Implementierung ein eigenes Tool in Python entwickelt, das Shellbags aus der Registry auslesen und ausgeben kann.
A car is only useful, when it runs properly – but keeping a car it running is getting more and more complex. Car service providers need a deep knowledge about technical details of the different car models. On the other hand car producers try to keep this information in their ownership. Digital data collection takes place every second on the car´s product life cycle and is stored on the car producers´ servers. The contribution of this paper is three-fold: we will provide an overview of the current concepts of intelligent order assistant technologies (I). This corpus is used to come to a more precise description of the specific service performance aspects (II). Finally, a representative empirical study with German motor mechanics will help to evaluate the wishes and needs regarding an intelligent order assistant in the garage (III).
Hatte Maria einen Jodmangel?
(2019)
Auch wenn sie im Internet-Zeitalter zu einer Normalität werden, bleiben Ferndiagnosen unter Medizinern umstritten. Erst recht vorsichtig sollte man sein, wenn es sich bei dem Patienten um die leibliche Mutter Gottes handelt. Doch wenn man in diesem Gemälde eine authentische Dokumentation sieht, ist der Befund eindeutig: Maria hatte zum Zeitpunkt der Geburt ihres berühmten Sohns auffällig lange und schlanke Finger sowie eine Struma des Grads II bis III.
Der niedersächsische Landtag entscheidet bei der Diskussion und Abstimmung über die drei genannten Anträge über mehr als nur die Verteilung der Investitionsmittel aus dem „Digitalpakt Schule“. Es geht um grundsätzliche Fragen: Wer bestimmt über Lehrinhalte an staatlichen Schulen und über eingesetzte (Medien-)Technik? Bleibt die Bildungspolitik des Landes dem Anspruch und Recht der Schülerinnen und Schüler nach individueller Bildung und Persönlichkeitsentwicklung verpflichtet, wie es in der Landesverfassung (§1(4)) und im Niedersächsischen Schulgesetz (§2 Bildungsauftrag, NschG) steht? Vermitteln öffentliche Schulen weiterhin eine fundierte Allgemeinbildung als Grundlage sozialer Teilhabe in demokratischen Gemeinschaften? Oder setzen sich Wirtschaftsverbände und IT-Lobbyisten durch, die für mehr und den immer früheren Einsatz von digitalen Endgeräten in Bildungseinrichtungen eintreten? Die „Programmieren bereits in der KiTa“ fordern und Schulen mit „leistungsstarken WLAN ausleuchten“ wollen (CDU/SPD-An-trag), ohne über Strahlung auch nur nachzudenken? Werden Schulen qua Landtagsbeschluss zu Ausbildungsstätten und Berufsvorbereitung (Münch, 2018, 177) – oder nicht?
Dabei ist wissenschaftlich belegt, dass die Qualität von Schule und Unterricht gerade nicht an Medientechnik gekoppelt ist. Entscheidend sind immer qualifizierte Lehrpersönlichkeiten, ein gut strukturierter, altersgerechter Unterricht und der soziale Umgang miteinander. (Studien von Hattie, Telekom, OECD u.a.) Lehren und Lernen sind individuelle und soziale Prozesse, keine technisch steuerbaren Abläufe. Unberücksichtigt bleiben inden Anträgen sowohl die historischen Belege des Scheiterns von Medientechnik (Pias) wie bereits gegenläufige Entwicklungen aus den USA. Kinder in (teuren) Privatschulenwerden wieder von realen Lehrerinnen und Lehrern unterrichtet und genießen den „Luxus menschlicher Interaktion“. Bildschirme sind dort aus den Schulen verbannt, während Kinder an öffentlichen Schulen an Tablets ohne LehrerInnen lernen müssen (Bowles, 2018).
Der niedersächsische Landtag entscheidet bei diesen Anträgen also darüber, ob bereits gescheiterte IT-Konzepte aus den USA wiederholt werden oder ob eine Diskussionüber sinnvolle und pädagogisch fundierte Medienkonzepte für Schulen eröffnet wird, die nicht auf Digitaltechnik verkürzt werden darf. Wer also bestimmt über Lehrinhalte und Medientechnik an Schulen? Die IT-Wirtschaft und Vertreter der Daten-Ökonomie, die Lehrangebote digitalisieren und privatisieren wollen? Oder entscheiden Volksvertreter, nach pädagogischer Expertise, die den Schülerinnen und Schülern verpflichtet sind?
Scheuklappen statt Weitblick
(2019)
Der bildungsferne Campus
(2019)
Social robots not only work with humans in collaborative workspaces – we meet them in shopping malls and even more personal settings like health and care. Does this imply they should become more human, able to interpret and adequately respond to human emotions? Do we want them to help elderly persons? Do we want them to support us when we are old ourselves? Do we want them to just clean and keep things orderly – or would we accept them helping us to go to the toilet, or even feed us if we suffer from Parkinson’s disease?
The answers to these questions differ from person to person. They depend on cultural background, personal experiences – but probably most of all on the robot in question. This book covers the phenomenon of social robots from the historic roots to today’s best practices and future perspectives. To achieve this, we used a hands-on, interdisciplinary approach, incorporating findings from computer scientists, engineers, designers, psychologists, doctors, nurses, historians and many more. The book also covers a vast spectrum of applications, from collaborative industrial work over education to sales. Especially for developments with a high societal impact like robots in health and care settings, the authors discuss not only technology, design and usage but also ethical aspects.
Thus this book creates both a compendium and a guideline, helping to navigate the design space for future developments in social robotics.
Robots and automata are key elements of every vision and forecast of life in the near and distant future. However, robots and automata also have a long history, which reaches back into antiquity. Today most historians think that one of the key roles of robots and automata was to amaze or even terrify the audience: They were designed to express something mythical, magical, and not explainable. Moreover, the visions of robots and their envisioned fields of application reflect the different societies. Therefore, this short history of robotics and (especially) anthropomorphic automata aims to give an overview of several historical periods and their perspective on the topic. In a second step, this work aims to encourage readers to reflect on the recent discussion about fields of application as well as the role of robotics today and in the future.
New employees are supposed to quickly understand their tasks, internal processes and familiarize with colleagues. This process is called “onboarding” and is still mainly realized by organizational methods from human resource management, such as introductory events or special employee sessions. Software tools and especially mobile applications are an innovative means to support provide onboarding processes in a modern, even remote, way. In this paper we analyze how the use of gamification can enhance onboarding processes. Firstly, we describe a mobile onboarding application specifically developed for the young, technically literate generations Y and Z, who are just about to start their career. Secondly, we report on a study with 98 students and young employees. We found that participants enjoyed the gamified application. They especially appreciated the feature “Team Bingo” which facilitates social integration and teambuilding. Based on the OCEAN personality model (“Big Five”), the personality traits agreeableness and openness revealed significant correlations with a preference for the gamified onboarding application.
Top-level staff prefers to live in urban areas with perfect social infrastructure. This is a common problem for excellent companies (“hidden champions”) in rural areas: even if they can provide the services qualified applicants appreciate for daily living, they fail to attract them because important facts are not presented sufficiently in social media or on the corporate website. This is especially true for applicants with families. The contribution of this paper is four-fold: we provide an overview of the current state of online recruiting activities of hidden champions (1). Based on this corpus, we describe the applicant service gap for company information in rural communes (2). A study on user experience (UX) identifies the applicants’ wishes and needs, focusing on a family-oriented information system on living conditions in rural areas (3). Finally, we present the results of an online survey on the value of such information systems with more than 200 participants (4).
What emotional effects does gamification have on users who work or learn with repetitive tasks? In this work, we use biosignals to analyze these affective effects of gamification. After a brief discussion of related work, we describe the implementation of an assistive system augmenting work by projecting elements for guidance and gamification. We also show how this system can be extended to analyse users' emotions. In a user study, we analyse both biosignals (facial expressions and electrodermal activity), and regular performance measures (error rate and task completion time).
For the performance measures, the results confirm known effects like increased speed and slightly increased error rate. In addition, the analysis of the biosignals provides strong evidence for two major affective effects: the gamification of work and learning tasks incites highly significantly more positive emotions and increases emotionality altogether. The results add to the design of assistive systems, which are aware of the physical as well as the affective context.
Soziale Roboter unterscheiden sich von Servicerobotern, da sie auch komplexere Interaktionen und Kommunikation beherrschen. Einige können Emotionen simulieren oder sogar erkennen. Einsatzbereiche gibt es viele: vom Haushalt über die Pflege bis in den medizinischen Bereich. Wo liegen die Grenzen der aktuellen Systeme? Wie müssen soziale Roboter aussehen und interagieren, um als nützliche Helfer statt als Konkurrenten wahrgenommen zu werden? Dieser Artikel gibt einen kurzen Überblick bestehender sozialer Roboter. Er beleuchtet deren Akzeptanz im wichtigen Bereich Gesundheit und Pflege anhand der Ergebnisse einer Expertenstudie und gibt eine zeitliche Perspektive zur weiteren Entwicklung.
A novel Bluetooth Low Energy advertising scan algorithm is presented for hybrid radios that are additionally capable to measure energy on Bluetooth channels, e.g. as they would need to be compliant with IEEE 802.15.4. Scanners applying this algorithm can achieve a low latency whilst consuming only a fraction of the power that existing mechanisms can achieve at a similar latency. Furthermore, the power consumption can scale with the incoming network traffic and in contrast to the existing mechanisms, scanners can operate without any frame loss given ideal network conditions. The algorithm does not require any changes to advertisers, hence, stays compatible with existing devices. Performance evaluated via simulation and experiments on real hardware shows a 37 percent lower power consumption compared to the best existing scan setting while even achieving a slightly lower latency which proves that this algorithm can be used to improve the quality of service of connection-less Bluetooth communication or reduce the connection establishment time of connection-oriented communication.
Avoiding collisions between a robot arm and any obstacle in its path is essential to human-robot collaboration. Multiple systems are available that can detect obstacles in the robot's way prior and subsequent to a collision. The systems work well in different areas surrounding the robot. One area that is difficult to handle is the area that is hidden by the robot arm. This paper focuses on pick and place maneuvers, especially on obstacle detection in between the robot arm and the table that robot is located on. It introduces the use of single pixel time-of-flight sensors to detect obstacles directly from the robot arm. The proposed approach reduces the complexity of the problem by locking axes of the robot that are not needed for the pick and place movement. The comparison of simulated results and laboratory measurements show concordance.