Refine
Year of publication
Document Type
- Conference Proceeding (727)
- Article (reviewed) (501)
- Article (unreviewed) (468)
- Bachelor Thesis (423)
- Part of a Book (389)
- Contribution to a Periodical (236)
- Book (201)
- Other (134)
- Master's Thesis (105)
- Working Paper (90)
Language
- German (2125)
- English (1335)
- Other language (3)
- Multiple languages (3)
- Russian (3)
- French (1)
- Spanish (1)
Keywords
- Digitalisierung (31)
- Marketing (31)
- Kommunikation (30)
- COVID-19 (27)
- Dünnschichtchromatographie (27)
- Social Media (27)
- Energieversorgung (22)
- Industrie 4.0 (20)
- Management (20)
- E-Learning (19)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (1072)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (696)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (691)
- Fakultät Betriebswirtschaft und Wirtschaftsingenieurwesen (B+W) (451)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (317)
- INES - Institut für nachhaltige Energiesysteme (bis 18.11.2021: Institut für Energiesystemtechnik) (166)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (114)
- Fakultät Medien (M) (ab 22.04.2021) (107)
- Zentrale Einrichtungen (78)
- ACI - Affective and Cognitive Institute (55)
Es werden die aktuellen Studien über Fußformen auf signifikante Unterschiede zwischen Männer und Frauen, Einflussfaktoren wie das Alter, die Körpergröße, das Gewicht und den BMI untersucht. Weiter werden die Unterschiede zwischen verschiedenen Ethnien, Belastungen und dem Aufwachsen mit oder ohne Schuhe analysiert. Die Studien werden über PubMed und ConnectedPapers gesucht und die Daten mit Excel ausgewertet und graphisch dargestellt. Folgendes hat sich ergeben: das Alter hat im Wachstum des Fußes einen Einfluss auf die Fußlänge und die Fußbreite. Außerhalb des Wachstums hat das Alter Einfluss auf die fibulare Bogenlänge und die Bogenhöhe. Die Körpergröße hat Einfluss auf die Fußlänge, die fibulare Bogenhöhe, die distale Knöchelhöhe und den Ballenumfang. Das Gewicht hat im Fußwachstum einen Einfluss auf die Fußlänge. Außerhalb des Wachstums hat das Gewicht einen Einfluss auf die fibulare Bogenhöhe, die Höhe des distalen Knöchels, die Zehenhöhe und den Ballenumfang. Der BMI hat einen Einfluss auf die fibulare Bogenlänge, die mediale und distale Knöchelhöhe und die Zehenhöhe. Für die Fersenbreite und die Risthöhe wurden keine Einflussfaktoren gefunden.
Aufgrund der verstärkten Bedeutung von Datenschutz in der modernen Gesellschaft und der verstärkten Nutzung von markerlosen Systemen wird es zunehmend interessant, ob ein solches System zuverlässige Werte auch bei noch unpopuläreren Bewegungen, wie der Kopfbewegung, liefert. Diese treten, bei der heute vorwiegend sitzenden Gesellschaft und im Zeitalter von Nackenverspannungen und der daraus resultierenden Bewegungseinschränkungen, mehr in den Fokus. Auch unter dem Gesichtspunkt des Datenschutzes ist es wichtig, nicht nur die Namen der Probanden, sondern auch deren
Gesichter in den Aufzeichnungen zu anonymisieren.
In der vorliegenden Arbeit wird daher evaluiert, ob das markerlose Bewegungsanaylsesystem Theia mit anonymisierten Dateien ähnliche Ergebnisse erzeugt, wie mit den originalen Dateien. Für diese Studie wurden sechs verschiedene Bewegungen bis zu ihrem Maximalausschlag des jeweiligen Probanden aufgezeichnet. Die Bewegungen hierbei sind Flexion und Extension des Kopfes, Lateralflexion sowie Rotation zu beiden Seiten. Zusätzlich wurde noch ein Durchgang Kopfkreisen aufgezeichnet. Dieser bestand aus dreimaligem Kopfkreisen, welches eine Kombination aus den vorherigen Bewegungen ist.
Die anonymisierten Daten wurden mittels eines Algorithmus bearbeitet, welcher das Gesicht der Probanden unkenntlich macht. Dies geschah durch das Schwärzen des Gesichtes oder einem Verschwimmen des Gesichts. Danach wurden die drei Datensätze in Theia verarbeitet und in EXCEL ausgewertet. Dabei kam es vor allem bei der geschwärzten Version bei Flexion und Extension zu großen systematischen und zufälligen Fehlern. Der Mittelwert des systematischen Fehlers ist die Abweichung von 13,62 Grad zu den Originalwerten. Der zufällige Fehler ist im Mittel mit 170,57 Grad stärker abweichend. Im Vergleich dazu liegt der Mittelwert des systematischen Fehlers bei der geblurrten Versionen im Vergleich zu den Originalwerten bei 5,17 Grad. Die geblurrte Version weist zudem seltener signifikante Unterschiede und einen mittleren zufälligen Fehler von 23,43 Grad auf, weshalb diese Version unter geringem Vorbehalt verwendbar ist, die geschwärzte Version jedoch nicht.
Die Bachelorarbeit umfasst die Entwicklung einer Pendelhubstichsäge für die Verwendung in CNC-Bearbeitungszentren. Der Entwicklungsprozess durch läuft alle vier Phasen: Planung, Konzeption, Konstruktion, Ausarbeitung. Endergebnis der Bachelorarbeit ist ein vollständiges 3D-Modell mit allen fertigungsrelevanten Dokumenten.
Diese Arbeit befasst sich mit der Redigitalisierung von ausgedruckten Architektur-zeichnungen mit möglichst einfachen Mitteln. So sollen Fotos von herkömmlichen Smartphones die Grundlage für die Extraktion von Maßstab und Raumgeometrien sein.
Der erste der drei Schritte, die das Foto dabei durchläuft, ist die Beseitigung von perspektivischen Verzerrungen (Rektifizierung). Die hierfür benötigten Punkte werden durch ein, in dieser Arbeit trainiertes, Convolutional Neural Network (CNN) detektiert. Die so ermittelten Positionen stellen im zweiten Schritt, der Ermittlung eines Maßstabes, die Grundlage für das Auslesen der Maßzahlen mittels optical character recognition (OCR) dar. Da Räume nicht als solche in Bauzeichnungen eingezeichnet sind, werden im letzten Schritt, zuerst Wände, Türen und Fenster, durch mehrere mathematische Faltungen (convolutions) lokalisiert und innerhalb dieser Elemente, mittels wachsender Regionen, nach Räumen und Fluren gesucht.
Nach dem ein Foto diese Schritte durchlaufen hat, werden die ermittelten Geometrien sowie der Maßstab in einer Liste abgespeichert und im rektifizierten Bild, zusammen mit den berechneten Flächeninhalten, visualisiert. So kann ein Anwender schnell und einfach den Erfolg des Programmoutputs beurteilen.
Eine Versuchsreihe mit einigen Fotos ergab, dass ein Schattenwurf auf dem Papierplan bei Aufnahme des Lichtbildes zu vermeiden ist, da dieser sowohl bei der Auswertung durch das CNN, als auch innerhalb des OCR-Vorgangs zu Problemen führt, die in einigen Fällen eine Rektifizierung oder Maßstabsermittlung verhinderten.
Bei den übrigen fünf Fotos wurden durchschnittlich 31,8 von 32 Räumen detektiert, dabei wurde zwischen zwei und zwölf mal fälschlicherweise die Fensterbank als Fußboden detektiert. Die Standardabweichung der Flächeninhalte aller Räume betrug dabei 0,66 m², werden nur die Räume betrachtet, bei denen die Fensterbank korrekt erkannt wurde, beträgt die Standardabweichung lediglich 0,25 m².
Insgesamt werden die in dieser Arbeit erzielten Ergebnisse als „gut“ eingestuft, es bleiben jedoch auch einige Optimierungsmöglichkeiten an verschiedenen Stellen, besonders bei der Suche nach Räumen, bestehen.
Für die Prognose von Zeitreihen sind bezüglich der Qualität der Vorhersagen heutzutage neuronale Netze und Deep Learning das Mittel der Wahl. LSTM-Netzwerke etablierten sich dazu als eine gut funktionierende Herangehensweise. 2017 wurde der auf Attention basierende Transformer für die Übersetzung von Sprache vorgestellt. Aufgrund seiner Fähigkeit mit sequenziellen Daten zu arbeiten, ist er auch für Zeitreihenprobleme interessant. Diese wissenschaftliche Arbeit befasst sich mit der Vorhersage von Zeitreihen mit einem Transformer. Es wird analysiert, inwiefern sich ein Transformer für Zeitreihenvorhersagen von einem Transformer für Sprachübersetzungen unterscheidet und wie gut die Vorhersagen im Vergleich zu denen eines LSTM-Netzwerkes abschneiden. Dazu werden ein LSTM- und ein Transformer-Netzwerk auf Luftqualitäts- und Wetterdaten in Berlin trainiert, um den Feinstaubgehalt (PM25) in der Luft vorherzusagen. Die Ergebnisse werden mit einem Benchmark-Modell anhand von Evaluationsmetriken verglichen. Anschließend wird evaluiert, wie die Fehler des Transformers reduziert werden können und wie gut der Transformer generalisiert.
Die Verletzung des Sprunggelenks ist eine der häufigsten Verletzungen bei vielen Sportarten. Um diese Verletzungen zu verringern und zu verhindern, werden immer neuere Gelenkschutzarten oder Schuhe entwickelt. Dafür sind vor allem Dehnungen am Schuhobermaterial interessant, für die es noch keine Studie gegeben hat.
Das Ziel dieser Arbeit ist es, eine Studie im Motion Capture Labor der Hochschule Offenburg durchzuführen und die maximale Dehnungen bzw. Längenänderungen im Vor- und Mittelfußbereich bei einem Schuh mit elastischem Obermaterial zu bestimmen. Dabei sollen auch die vertikale Kraft und die Zeitpunkte der maximalen Längenänderung gemessen werden.
Die Studie wurde mit 22 Probanden durchgeführt und es wurden eine statische Aufnahme und acht Bewegungen aufgenommen. Die relevanten Bewegungen für diese Arbeit sind Laufen, Gehen, Abstoppen aus schnellem Laufen und Abstoppen aus Gehen. Dabei wurde ein Motion Capture System und eine Kraftmessplatte genutzt, bei der die Probanden mit dem linken Fuß auftreten mussten. Der Vorfußbereich war mit fünf Markern und der Mittelfußbereich mit sieben Markern besetzt, die jeweils eine Querlinie über den Fuß bildeten. Die Kameras des Motion Capture Systems haben das reflektierende Infrarotlicht der Marker aufgenommen und das System die 3D-Daten gespeichert. Mit diesen Daten wurden alle Ergebnisse berechnet.
Es wurden hohe maximale Längenänderungen und vertikale Kräfte beim Abstoppen aus schnellem Laufen gefunden. Außerdem weisen Laufen und Gehen eine sehr niedrige vertikale Kraft beim Mittelfußbereich auf. Die Zeitpunkte der maximalen Längenänderungen sind für den Vor- und Mittelfußbereich bei jeder Bewegung sehr ähnlich. Der Vorfußbereich dehnt maximal am Anfang jeder Bewegung bzw. am Anfang des Auftretens des Fußes, während der Mittelfußbereich am Ende jeder Bewegung maximal dehnt.
Mit der wachsenden Bedeutung von Nachhaltigkeit im Alltag von Konsument*innen, werden ökologische Aspekte zunehmend zum Kaufentscheidungsfaktor. Damit steigt auch das Angebot nachhaltiger Produkte am Markt. Immer mehr Unternehmen neh-men ökologische Alternativen mit in ihr Sortiment auf. Wie nachhaltig einzelne Güter tatsächlich sind, kann für Verbraucher*innen nur schwer ersichtlich sein.
Ziel dieser wissenschaftlichen Arbeit ist die Analyse der Auswirkungen von Green-washing auf das Konsumverhalten deutscher Verbraucher*innen am Markt für nach-haltige Lebensmittel. Innerhalb eines Fragebogens wird zunächst der Lebensmittel-konsum eines Probandenkreises erfasst. Dabei wird zudem erfasst, welche Bedeutung Gütezeichen als Beurteilungshilfe hinsichtlich der Nachhaltigkeit eines Produkts in der Lebensmittelbranche innehalten. Dazu werden zunächst einige Öko-Siegel bzgl. ihrer Seriosität bewertet. In einem weiteren Schritt werden die Ergebnisse dieser Bewertung mittels empirische Forschung der Einschätzung des Probandenkreises gegenüberge-stellt.
Aus der Befragung ist hervorgegangen, dass Greenwashing eines Unternehmens durchaus Veränderungen in der Kaufbereitschaft der betroffenen Produkte sowie – zu einem geringeren Ausmaß – Produkte innerhalb der gleichen Kategorie betrifft. Wei-terhin wurde identifiziert, dass die Einschätzungen des Probandenkreises hinsichtlich der Seriosität und der Vertrauenswürdigkeit maßgeblich von der – innerhalb dieser wissenschaftlichen Arbeit – durchgeführten Bewertung abweichen. Die Einschätzung hinsichtlich der Seriosität und Vertrauenswürdigkeit von Seiten der Proband*innen, scheint zu großen Teilen von der Bekanntheit des betreffenden Gütezeichens abzu-hängen.
Die vorliegende Bachelorarbeit gibt einen Überblick über verschiedene Java Game Engines und wie diese über ein Konzept in die aktuelle Informatik Vorlesung integriert werden können, um dadurch die Motivation der Studierenden signifikant zu steigern. Dabei wurde in den Grundlagen das Lernpotenzial von Computerspielen untersucht sowie der allgemeine Aufbau von Game Engines definiert. Diese Ergebnisse flossen im Anschluss in die Untersuchung ein und führten zu einer Auswahl der geeigneten Java Game Engine. Über eine SWOT-Analyse, welche nach V. Wollny und H. Paul durchgeführt wurde, konnte eine gut geeignete Engine ermittelt werden. Auf der Basis des Buches von Michael Kölling wurde ein Konzept für die Informatik - Vorlesung entwickelt, welches im letzten Kapitel der Arbeit mit passenden Aufgaben beschrieben wurde. Die Bachelorarbeit ist sowohl für Studierende der Informatik als auch für Lehrende in diesem Bereich interessant und bietet neue Einblicke in ein Nischengebiet.
Die vorliegende Bachelorthesis setzt sich mit dem Einsatz von digitalen Medien in den Bildungseinrichtungen Hochschule und Berufsschule auseinander. Zunächst werden grundlegende Begrifflichkeiten und digitale Medien beschrieben. Anschließend wird der Gerätebesitz Jugendlicher und die Ausstattung der Bildungsinstitute gezeigt. Im Folgenden wird auf den Einfluss der Coronapandemie in Bezug auf die Digitalisierung eingegangen. Anschließend folgen zwei Konzepte, die einen sinnvollen Einsatz von digitalen Medien in der Bildung gewährleisten sollen.
Heutzutage befindet sich die Menschheit in einem Zeitalter des Bewegungsmangels. Körperliche Aktivitäten dringen immer weiter in den Hintergrund. Dadurch wird die Gesundheit deutlich beeinträchtigt. Es entstehen vermehrt Krankheiten wie Diabetes und Schädigungen des Herz-Kreislauf-Systems. An diesem Beispiel lässt sich verdeutlichen, wie wichtig körperliche Bewegung ist. Die gängigste Art ist das Laufen und das Gehen. Dazu wurden Laufschuhe entwickelt. Jedoch ist die Passform oft nicht so ausgestattet, um für eine perfekte Laufperformance und ein möglichst geringes Verletzungsrisiko zu sorgen. Es entsteht ein Spiel zwischen Laufschuh und dem Fuß. Um dieses Spiel zu minimieren bzw. für eine verbesserte Laufperformance zu sorgen werden Gurtsysteme bzw. Schnürsysteme entwickelt. Das Ziel hierbei ist es zu prüfen, ob diese Gurtsysteme auch wirklich einen signifikanten Vorteil erweisen und ob es Unterschiede zwischen den einzelnen Schnürungen, sowie dem Schuh ohne Schnürung gibt.
In dieser Studie wurden 5 Probanden rekrutiert. Im Biomechanik Labor wird jeder Proband einzeln gemessen. Dabei positionieren die messenden Personen einen Schuh an den Probanden. Anschließend wird ein Gurtsystem befestigt. Es handelt sich hierbei um 4 verschiedene Schnürungen, die jeweils einmal um den Schuh gewickelt werden. Die Gurtsysteme sind dieselben, jedoch an einer anderen Position von proximal nach distal entlang des Fußes positioniert. Zusätzlich werden die Bewegungen noch mit dem Schuh ohne das Schnürsystem durchgeführt. Es handelt sich hierbei um 5 verschiedene Bewegungen. Das Gehen, das Laufen, das Springen, sowie das Abstoppen aus dem Gehen und dem Laufen. Ziel dabei ist es die horizontale Bewegung der Ferse nach vorne relativ zur Sohle, sowie die Verschiebung der Ferse relativ zur Sohle in vertikaler Richtung zu untersuchen und rauszufinden, ob es einen grundlegenden Unterschied zwischen den einzelnen Schnürungen gibt. Die einzelnen Messwerte beschreiben den Abstand zwischen dem Marker an der Ferse sowie auf dem Schuh, die gemeinsam ein Koordinatensystem aufspannen.
Die Messwerte der maximalen horizontalen Fersenbewegung bei der Bewegung Abstoppen aus dem Gehen zeigen, dass eine Signifikanz beim Friedman-Test vorhanden ist. Hierbei sind bei dem Vorzeichentest die Messungen D1 und D2, D1 und D3, D3 und D4, sowie D3 und Ohne, signifikant.
Die Messwerte der maximalen vertikalen Fersenbewegung bei der Bewegung Gehen zeigen, dass eine Signifikanz beim Friedman-Test vorhanden ist. Hierbei sind bei dem Vorzeichentest die Messungen D1 und Ohne, D2 und Ohne, D3 und Ohne, sowie D4 und Ohne, signifikant.
Die Messwerte der maximalen horizontalen Fersenbewegung bei der Bewegung Laufen zeigen, dass eine Signifikanz beim Friedman-Test vorhanden ist. Hierbei sind bei dem Vorzeichentest die Messungen D1 und D2, D1 und D4, sowie D3 und Ohne, signifikant.
Zu den Messungen Abstoppen aus dem Gehen MVF, Abstoppen aus dem Laufen MHF, Gehen MHF, Laufen MVF, Springen MHF und Springen MVF zeigt das Ergebnis des Friedmann Tests einen niedrigeren Wert als den Kritische Wert von 9,49. Somit haben diese Messungen untereinander keine Signifikanz und werden somit nicht für den Vorzeichentest verwendet.
Patienten mit neurologischen Erkrankungen, die Auswirkungen auf die Muskelaktivität der unteren Extremitäten haben, leiden oft an Gangstörungen in der Schwung- und Standphase. Um diesen Gangstörungen entgegenzuwirken und einzelne Muskeln zu unterstützen oder zu ersetzen, stellt die Versorgung mit Unterschenkelorthesen eine Behandlungsoption dar. Den Ärzten steht dabei eine Vielzahl an Orthesentypen mit verschiedenen mechanischen Eigenschaften zur Verfügung. Zur Beurteilung der Wirksamkeit einer Orthesenversorgung werden dreidimensionale Ganganalysen mit und ohne Orthese durchgeführt. Die Entscheidungsfindung wird durch eine Simulation des Bewegungsapparates, dem muskuloskelettalen Modelling, unterstützt. Aus den Messdaten der Ganganalyse mit Orthese wird mittels der inversen Dynamik auf die bewegungserzeugenden Muskelkräfte im Körper zurückgerechnet. Der-zeit wird das Gesamtmoment um das Sprunggelenk in die Berechnung mit einbezogen, welches sich aus dem internen Moment, erzeugt von Muskeln, Sehnen und Bändern der unteren Extremitäten des Patienten und dem externen Orthesenmoment zusammensetzt. Durch eine isolierte Ermittlung des Unterstützungsmoments einer Unterschenkelorthese kann durch das muskuloskelettale Modelling eine genauere Aussage über die Auswirkungen einer Unterschenkelorthese auf die Muskelaktivität der unteren Extremitäten und die Funktionalität des Bewegungsapparates des Patienten getroffen werden. Zur Bestimmung des Orthesenmoments wird die Rotationssteifigkeit, die wichtigste mechanische Eigenschaft einer Unterschenkelorthese mithilfe einer Testvorrichtung gemessen. Denn diese beschreibt das Widerstandsmoment der Orthese, das sie bei der Deformation in Plantar- oder Dorsalflexion er-zeugt, um eine gewisse Biegung um die Sprunggelenksachse freizugeben. Die Literaturrecherche ergibt, dass die Rotationssteifigkeit einer Unterschenkelorthese auf einem Prüfstand mit einem physischen Ersatzbeinmodell zur Fixierung der Orthese gemessen wird. In der bestehenden Testvorrichtung am Kinderspital Basel werden die Orthesen allerdings ohne Ersatzbeinmodell untersucht. Das Ziel dieser Arbeit ist daher die Ermittlung der Eignung der bestehenden Vorrichtung ohne Ersatzbeinmodell zur Bestimmung der Rotationssteifigkeit. Dazu werden eine steife und drei Karbonfederorthesen auf der Testvorrichtung und am Bein eines gesunden Probanden in vergleichbaren Auslenkungen gemessen. Die Bewegung der Orthese wird mittels dreidimensionalem markerbasiertem Kameramesssystem aufgenommen und die kinetischen Daten über dreidimensionale Kraftmessplatten erfasst.
Für den Vergleich der beiden Testkonditionen werden drei Parameter definiert. Der Erste ist das Deformationsmaß der Orthese. Dieses beschreibt die Deformationslinie des Orthesenschafts in Sagittalebene. Der Vergleich zeigt, dass dieses bei allen getesteten Orthesentypen in starkem Maß zwischen beiden Testkonditionen variiert und damit nicht vergleichbar ist. Der zweite Parameter ist die Betrachtung eines vereinfachten Modells für das Verhalten des Rotationspunkts in der Sagittalebene, um den der Orthesenschaft bei der Verformung rotiert. Hierzu werden Geraden durch die Marker des Schafts und des Fußes gelegt und deren Schnittpunktverhalten bei der Deformation analysiert. Die Bewegung des Schnittpunkts variiert je nach Testkondition, jedoch wird das Maß der Bewegung im Vergleich zu anderen Einflussfaktoren als vernachlässigbar eingestuft. Hier gleichen sich somit die beiden Testkonditionen. Der dritte Parameter ist die Rotationssteifigkeit der Orthese. Hierzu werden mit den Kraftmessplatten die Kräfte gemessen und mit den Positionsdaten der Marker ein Hebelarm und der Deformationswinkel definiert. Die ermittelten Daten weichen zwischen den Testkonditionen in großem Maß voneinander ab. Eine direkte Aussage über die Eignung der Testvorrichtung kann nicht getroffen werden.
Die Ergebnisse zeigen, dass die Messung am Bein des Probanden keine realistischen und da-mit verwertbaren Messdaten zur Bestimmung der Rotationssteifigkeit liefert. Schlussfolgernd sind die Messdaten beider Testkonditionen mit den angewandten Mess- und Berechnungsmethoden nicht vergleichbar. Die Eignung der Testvorrichtung lässt sich somit nur bedingt beurteilen. Einerseits liefert der Aufbau der Vorrichtung und die Messdurchführung Messda-ten zur Bestimmung der Rotationssteifigkeit, andererseits kann noch keine Aussage darüber getroffen werden, ob die Messdaten zu einer qualitativen Ermittlung der Rotationssteifigkeit der Orthese führen können. In zukünftigen Studien muss die Messung am Bein des Proban-den optimiert werden, um Referenzwerte für die Messung auf der Testvorrichtung bereitstellen zu können.
Die vorliegende Masterarbeit setzt sich mit dem Thema „Digitale Medien und soziale Anerkennung“ auseinander. Dabei wird der Frage nachgegangen, welchen Einfluss die Nutzung digitaler Medien auf das Selbstbild junger Erwachsener, auf das Thema Cybermobbing und den zwischenmenschlichen Umgang in der Gesellschaft hat. Als Praxisbeispiel wurde exemplarisch die Folge „Nosedive“ der dystopischen Sci-Fi-Serie „Black Mirror“ ausgewählt, in der eine Gesellschaft porträtiert wird, deren Leben durch ein soziales Bewertungssystem bestimmt wird. Im Zuge dessen soll ein Bezug zu realen Sozialkredit-Systemen hergestellt werden. Das Ziel der Forschung ist es, eine umfangreiche Analyse der Auswirkungen des Medienkonsums von Fiktion und Realität vor dem Hintergrund sozialer Anerkennung durchzuführen.
Im theoretischen Teil der Arbeit soll allgemein auf digitale Medien, das Nutzungsverhalten von Jugendlichen sowie auf die Bedeutung von Identität und Selbstbild (im Netz) eingegangen werden. Sowohl die Einflüsse der digitalen Mediennutzung auf die Identität, das Selbstbild sowie die Selbstdarstellung als auch die allgemeinen positiven und negativen Auswirkungen durch exzessiven Medienkonsum von Jugendlichen sollen in dieser Arbeit näher beleuchtet und einander gegenübergestellt werden. Im nächsten Schritt sollen die Auswirkungen auf die Bereiche Cybermobbing sowie die zwischenmenschliche Kommunikation und soziale Beziehungen untersucht werden. Nach Abhandlung der Einflüsse und Auswirkungen auf die Jugendlichen unserer Gesellschaft folgt der praktische Teil der Arbeit, in dem zunächst die Anthologie-Serie „Black Mirror“ und die Inhalte der Folge „Nosedive“ vorgestellt werden sollen. Anhand ausgewählter Merkmale soll die fiktionale Welt mit unserer modernen Gesellschaft analysiert und verglichen werden. Abschließend soll auf die Sozialkredit-Systeme in China eingegangen und ein Bezug zur Folge hergestellt werden. In der Analyse sollen die Ergebnisse der vorangegangenen Kapitel miteinbezogen werden. Die Ergebnisse der Arbeit zeigen, dass digitale Medien einen weitreichenden sowohl positiven als auch negativen Einfluss auf Jugendliche haben. Die Nutzung hat viele Bereiche unseres Lebens bereits verändert. Besonders soziale Medien hinterlassen ihre Spuren in der Identität und Werteentwicklung von Kindern und Jugendlichen. Obwohl sie in der jüngeren Generation hohes Ansehen genießen, bestimmen sie jedoch (noch) nicht über andere Bereiche des Lebens.
Die Analyse von biomechanischen Parametern erlangt in der Sportwissenschaft und der Biomechanik eine immer größere Bedeutung. Daraus entwickelten sich mit der Zeit neue Analysemethoden, die sich zum Ziel gesetzt haben, eine bessere, schnellere und einfachere Analyse der biomechanischen Parameter zu ermöglichen.
Das Ziel der vorliegenden Arbeit ist es zu evaluieren, ob die Sensor-Technologie für die Analyse von biomechanischen Parametern im Bereich des Skisprungs und Skilanglaufs eingesetzt werden kann und dabei einen Vorteil gegenüber den derzeitig verwendeten Analysemethoden mit sich bringt. Dabei soll ein Lösungskonzept entwickelt werden, welches gezielt die Geschwindigkeiten und Zeiten, im Skisprung und Skilanglauf analysieren kann.
Für die Auswahl der Sensoren, wurden zu Beginn Randbedingungen festgelegt, die ein Sensor erfüllen muss, um für den Einsatz im Skisprung und Langlauf geeignet zu sein. Dabei stehen vor allem die Outdoorfähigkeit, Scanfrequenz und die Reichweite im Fokus der Evaluierung. Auf Basis der Randbedingungen wurden diese mit den Eigenschaften der Sensoren verglichen und eine Vorauswahl getroffen. Dabei kam man zu dem Ergebnis, dass fünf Sensoren für den Einsatz im Skisprung und Skilanglauf geeignet sind. Die Sensoren kommen jeweils aus dem Bereich der LiDAR- (light detection and ranging), RFID- (Radio-Frequency Identification), und Radar-Technologie. Im Anschluss wurde für jeden Sensor ein Lösungskonzept zur Bestimmung von Geschwindigkeiten und Zeiten, unabhängig von dem zu messenden Objekt, erstellt und abschließend auf ihre Verwendbarkeit im Skisprung und Skilanglauf bewertet. Dadurch stellte sich heraus, dass die Kombination aus einem LiDAR-Sensor (LMS5xx) und einem RFID-Sensor (RFU63x) am besten für den Skilanglauf geeignet ist. Für die Verwendung im Skisprung zeigte sich ebenfalls eine Kombination aus dem RFID-Sensor (RFU63x) und einem Radar-Sensor (RMS1000) als bestmögliches Lösungskonzept zur Analyse von Geschwindigkeiten und Zeiten.
Die Arbeit hat gezeigt, dass die Sensor-Technologie in Zukunft eine schnellere, unabhängigere und einfache Methode zur Analyse von biomechanischen Parametern ermöglicht. Dabei muss berücksichtigt werden, dass es sich um eine theoretische Untersuchung handelt, welche als Vorlage für weitere Untersuchungen dienen soll.
are you okay?
(2022)
Die Frage “Wie geht es dir?” ist in unserer Gesellschaft eine Höflichkeitsfloskel geworden. Die meisten Menschen antworten mit einem “Gut, und selbst?” und dann wird über etwas anderes gesprochen. Der Großteil redet nicht allzu oft darüber, was sie wirklich beschäftigt. Aber warum eigentlich nicht? Ist es Scham, Angst vor Ablehnung oder einfach nur „gutes“ Benehmen?
Besonders negative Gefühle, wie Wut und Trauer haben in unserem Leben wenig Platz. Sie werden als nicht gut betrachtet und alles was nicht “gut” ist, sollte laut der Gesellschaft lieber versteckt werden. Dieses Buch steht für mehr Gefühlsbewusstsein und soll einen offeneren Austausch mit sich selbst und anderen anstoßen. Denn auch negative Gefühle sollen einen Platz bekommen und können sanftmütig und bewusst gelebt werden.
Dieses Buch ist eine bunte Mischung aus ausgedachten aber realitätsnahen Geschichten vom Scheitern, Texten von Musikern und Bildern zum Träumen und Interpretieren. Es scheint zuerst ungewöhnlich, ausschließlich deutsche Rapper statt alte Philosophen zu zitieren. Doch die Hip-Hop-Kultur hat einiges zu sagen und bringt alltägliche Probleme und Ängste unverblümt auf den Punkt. Manchmal müssen wir nur etwas genauer hinhören.
The use of biochar is an important tool to improve soil fertility, reduce the negative environmental impacts of agriculture, and build up terrestrial carbon sinks. However, crop yield increases by biochar amendment were not shown consistently for fertile soils under temperate climate. Recent studies show that biochar is more likely to increase crop yields when applied in combination with nutrients to prepare biochar-based fertilizers. Here, we focused on the root-zone amendment of biochar combined with mineral fertilizers in a greenhouse trial with white cabbage (Brassica oleracea convar. Capitata var. Alba) cultivated in a nutrient-rich silt loam soil originating from the temperate climate zone (Bavaria, Germany). Biochar was applied at a low dosage (1.3 t ha−1). The biochar was placed either as a concentrated hotspot below the seedling or it was mixed into the soil in the root zone representing a mixture of biochar and soil in the planting basin. The nitrogen fertilizer (ammonium nitrate or urea) was either applied on the soil surface or loaded onto the biochar representing a nitrogen-enhanced biochar. On average, a 12% yield increase in dry cabbage heads was achieved with biochar plus fertilizer compared to the fertilized control without biochar. Most consistent positive yield responses were observed with a hotspot root-zone application of nitrogen-enhanced biochar, showing a maximum 21% dry cabbage-head yield increase. Belowground biomass and root-architecture suggested a decrease in the fine root content in these treatments compared to treatments without biochar and with soil-mixed biochar. We conclude that the hotspot amendment of a nitrogen-enhanced biochar in the root zone can optimize the growth of white cabbage by providing a nutrient depot in close proximity to the plant, enabling efficient nutrient supply. The amendment of low doses in the root zone of annual crops could become an economically interesting application option for biochar in the temperate climate zone.
Introduction The use of scaffolds in tissue engineering is becoming increasingly important as solutions need to be found for the problem of preserving human tissue, such as bone or cartilage. In this work, scaffolds were printed from the biomaterial known as polycaprolactone (PCL) on a 3D Bioplotter. Both the external and internal geometry were varied to investigate their influence on mechanical stability and biocompatibility. Materials and Methods: An Envisiontec 3D Bioplotter was used to fabricate the scaffolds. First, square scaffolds were printed with variations in the strand width and strand spacing. Then, the filling structure was varied: either lines, waves, and honeycombs were used. This was followed by variation in the outer shape, produced as either a square, hexagon, octagon, or circle. Finally, the internal and external geometry was varied. To improve interaction with the cells, the printed PCL scaffolds were coated with type-I collagen. MG-63 cells were then cultured on the scaffolds and various tests were performed to investigate the biocompatibility of the scaffolds. Results: With increasing strand thickness and strand spacing, the compressive strengths decreased from 86.18 + 2.34 MPa (200 µm) to 46.38 + 0.52 MPa (600 µm). The circle was the outer shape with the highest compressive strength of 76.07 + 1.49 MPa, compared to the octagon, which had the lowest value of 52.96 ± 0.98 MPa. Varying the external shape (toward roundness) geometry, as well as the filling configuration, resulted in the highest values of compressive strength for the round specimens with honeycomb filling, which had a value of 91.4 + 1.4 MPa. In the biocompatibility tests, the round specimens with honeycomb filling also showed the highest cell count per mm2, with 1591 ± 239 live cells/mm2 after 10 days and the highest value in cell proliferation, but with minimal cytotoxic effects (9.19 ± 2.47% after 3 days).
Lithium-ion batteries exhibit a dynamic voltage behaviour depending nonlinearly on current and state of charge. The modelling of lithium-ion batteries is therefore complicated and model parametrisation is often time demanding. Grey-box models combine physical and data-driven modelling to benefit from their respective advantages. Neural ordinary differential equations (NODEs) offer new possibilities for grey-box modelling. Differential equations given by physical laws and NODEs can be combined in a single modelling framework. Here we demonstrate the use of NODEs for grey-box modelling of lithium-ion batteries. A simple equivalent circuit model serves as a basis and represents the physical part of the model. The voltage drop over the resistor–capacitor circuit, including its dependency on current and state of charge, is implemented as a NODE. After training, the grey-box model shows good agreement with experimental full-cycle data and pulse tests on a lithium iron phosphate cell. We test the model against two dynamic load profiles: one consisting of half cycles and one dynamic load profile representing a home-storage system. The dynamic response of the battery is well captured by the model.
Das Ziel ist es, einen Workflow zu erstellen, mit dem Produkte von Kunden im 3D-Format aufbereitet und in einer webbasierten Echtzeit-360°-Anwendung zur Schau gestellt werden. Dabei können Betrachter mit dem Produkt interagieren und sich darüber informieren.
Dabei soll sich der Workflow auf den 3D-Artist richten und der Aufwand des Entwicklers möglichst minimiert werden.
Mit dem Öffnen der Webseite wird eine ThreeJS-Anwendung geladen. Die Anwendung enthält eine Szenendatei, in welcher sich eine GLB-Datei (Graphics Language Binary) des 3D-Modells befindet. Diese Datei wurde in 3DsMax, einem gängigen 3D-Programm, aufbereitet und exportiert. Neben der GLB-Datei enthält die Webseite ein Lichtsetting und ein Environment mit separatem Background.
Lithium-ion batteries exhibit a well-known trade-off between energy and power, which is problematic for electric vehicles which require both high energy during discharge (high driving range) and high power during charge (fast-charge capability). We use two commercial lithium-ion cells (high-energy [HE] and high-power) to parameterize and validate physicochemical pseudo-two-dimensional models. In a systematic virtual design study, we vary electrode thicknesses, cell temperature, and the type of charging protocol. We are able to show that low anode potentials during charge, inducing lithium plating and cell aging, can be effectively avoided either by using high temperatures or by using a constant-current/constant-potential/constant-voltage charge protocol which includes a constant anode potential phase. We introduce and quantify a specific charging power as the ratio of discharged energy (at slow discharge) and required charging time (at a fast charge). This value is shown to exhibit a distinct optimum with respect to electrode thickness. At 35°C, the optimum was achieved using an HE electrode design, yielding 23.8 Wh/(min L) volumetric charging power at 15.2 min charging time (10% to 80% state of charge) and 517 Wh/L discharge energy density. By analyzing the various overpotential contributions, we were able to show that electrolyte transport losses are dominantly responsible for the insufficient charge and discharge performance of cells with very thick electrodes.
Dieses Buch gibt einen fundierten Überblick über Krisen- und Transformationsszenarien im Rahmen der Corona-Pandemie in Wirtschaft, Kultur und Bildung. Den Schwerpunkt bilden konkrete Schilderungen erfolgreicher Maßnahmen und Lösungen in der Krise. Zahlreiche Expert*innen aus Wissenschaft und Praxis erläutern den Umgang mit der Pandemie in Institutionen und Unternehmen, die wirksame Entwicklung von Zukunftsperspektiven sowie ihre Umsetzung in den Alltag.
Die Corona-Pandemie hat in vielen Bereichen eine Krise ausgelöst und durch die zwingende Notwendigkeit zum Handeln einen katalytischen Effekt bewirkt. Entwicklungen wurden verstärkt oder beschleunigt und Transformationsprozesse, beispielsweise die Digitalisierung vieler Branchen und Lebensbereiche, in ihrer Richtung und Dynamik beeinflusst.
Anhand von Good Practises bieten die Autoren Lösungsvorschläge, wie die Krise als Chance weiterentwickelt werden kann: von neuen Omnichannel-Lösungen im Vertrieb über innovative New-Work-Ansätze bis hin zu Beispielen aus den besonders schwer getroffenen Branchen Luftfahrt und Tourismus. Weitere Kernbereiche sind die Sektoren Kultur und Bildung mit Beispielen zu konkreten Überlebensstrategien von Künstler*innen sowie innovativen Digitalkonzepten in Lehre und Forschung. Das Buch richtet sich gleichermaßen an wirtschaftlich und gesellschaftlich Interessierte, Studierende und Praktiker*innen.
This mature textbook brings the fundamentals of fluid mechanics in a concise and mathematically understandable presentation. In the current edition, a section on dissipation and viscous potential flows has been added. Exercises with solutions help to apply the material correctly and promote understanding.
Jürgen Zierep passed away on July 29, 2021, at the age of 92. To him, science and education was not only a profession, but an affair of the heart. His impressive contributions in fluid mechanics comprise about 200 scientific publications in the fields of gas dynamics, similarity laws, flow instabilities, flows with energy transfer, and non-Newtonian fluids. In addition, he wrote eleven textbooks with great dedication. Those books by the “scientist who loves to teach” are nowadays available in different languages and regularly appear in new editions.
Among the billions of smartphone users in the world, Android still holds more than 80% of the market share. The applications which the users install have a specific set of features that need access to some device functionalities and sensors that may hold sensitive information about the user. Therefore, Android releases have set permission standards to let the user know what information is being disclosed to the application. Along with other security and privacy improvements, significant changes to the permission scheme are introduced with the Android 6.0 version (API level 23). In this master thesis, the Android permission scheme is tested on two devices from different eras. The evolution of Android over the years is examined in terms of confidentiality. For each device, two applications are built; one focused on extracting every piece of information within the confidentiality scope with every permission declared and/or requested, and the other app focused on getting this type of information without user notification. The resulting analysis illustrates whether how and in what way the Android permission scheme declined or improved over time.
Intelligentes Data Governance und Data Management – Neue Chancen für die Kundendatenbewirtschaftung
(2022)
Mit der Digitalisierung haben sich für Marketing und Vertrieb vielzählige unterschiedliche neue Kanäle, Werbeformate und Zielgruppen eröffnet. Expertinnen und Experten schätzen, dass ca. 4.000 bis 10.000 Werbe- und Markenbotschaften täglich auf jede und jeden von uns einprasseln. Mögen diese Zahlen umstritten und eine Zahl zwischen 300 bis 500 Botschaften pro Tag realistischer sein, so ist dies noch immer eine Menge, die kaum noch verarbeitet und wahrgenommen werden kann. Als Reaktion auf diese Werbemasse und Reizüberflutung haben Konsumentinnen und Konsumenten zum Teil eine Art „Werbeblindheit“ entwickelt.
Für Unternehmen wird daher zunehmend herausfordernder, ihre Zielgruppe aktiv zu erreichen. Was können Unternehmen nun tun, um dennoch nachhaltig Aufmerksamkeit zu gewinnen, und wie kann Künstliche-Intelligenz-gestütztes Kundendatenmanagement dabei helfen?
Die Covid-19-Pandemie hat die Welt verändert. Alle Wirtschaftszweige wie etwa der Handel sahen sich von heute auf morgen mit einer veränderten Realität konfrontiert. Diese Entwicklung hat einerseits den schon vor der Pandemie wahrnehmbaren Digitalisierungsdruck, vor allem auf den stationären Handel, massiv erhöht. Und andererseits die Daten von Kundinnen und Kunden in das Zentrum der Aufmerksamkeit gerückt, da in der digitalen Welt der persönliche Kontakt zur Kundschaft fehlt. Dieser Beitrag beleuchtet die Bedeutung von Kundendaten, Datenqualität und Datenmanagement als wesentliche Erfolgsfaktoren für den Handel in dieser herausfordernden Situation. Er zeigt auf, wie Datenverantwortliche im Handel aus dem Wissen um die Daten mittels Identity Resolution klare Profile von Kundinnen und Kunden entwickeln und diese plattformbasiert ausrollen können. Hierzu wird das neue Konzept des Customer Digital Twins eingeführt. Die abschließenden Handlungsempfehlungen bieten eine ‚Arbeitsanweisung in fünf Schritten‘ für eine aktuelle, vollständige und verlässliche Datenbasis, als Grundlage für den datenorientierten stationären und Onlinehandel.
Hersteller von Laufschuhen versprechen ihren Kunden Schuhe, die einen durch gezielte Energierückgabe der Mittelsohlen oder durch eine optimale Dämpfung bei der sportlichen Leistung unterstützen. Als aktueller Teststandard für das Materialreaktionsverhalten von Sportschuhen gilt der ASTM F1976. In diesem Test werden die Schuhe durch einen wiederholten Impulstest untersucht. Allerdings weder Rücksicht auf die zurückgelegte Distanz, noch auf variierende Körpergewichte genommen. In dieser Arbeit wird ein Messverfahren entwickelt, das Sportschuhe über eine simulierte Marathondistanz in Bezug auf die verarbeitete Energiemengen und das Verändern der Festigkeit analysiert. Es wurde ein Schuh der „Ghost“-Reihe der Firma „Brooks“ mit Hilfe einer elektro-dynamischen Prüfmaschine LMT10 der Firma Zwick/Röll zwei Mal im Bereich des Rückfußes mit zwei verschiedenen Lasten analysiert. Die Einstellungsparameter sind recherchierte Durchschnittswerte, die einen erwachsenen Europäer darstellen. Es hat sich herausgestellt, dass ein um 20% geringeres Körpergewicht eines Läufers nicht eine äquivalente geringere umgesetzte Energiemenge bedeutet. Im Vergleich zu der Messung des schwereren Läufers wurden lediglich 65% der Energiemenge umgesetzt. Darüber hinaus nimmt die Festigkeit der Mittelsohle bei der Messung mit 20% weniger Last kontinuierlich ab, wobei sie bei der Messung mit 100% im letzten Drittel der Messung wieder zunimmt. Als Gründe für dieses Verhalten wurden das nichtlineare Reaktionsverhalten von EVA-Schäumen und das anfängliche Verbessern der Gleitfähigkeit der Polymerketten festgestellt.
Threat Modeling is a vital approach to implementing ”Security by Design” because it enables the discovery of vulnerabilities and mitigation of threats during the early stage of the Software Development Life Cycle as opposed to later on when they will be more expensive to fix. This thesis makes a review of the current threat Modeling approaches, methods, and tools. It then creates a meta-model adaptation of a fictitious cloud-based shop application which is tested using STRIDE and PASTA to check for vulnerabilities, weaknesses, and impact risk. The Analysis is done using Microsoft Threat Modeling Tool and IriusRisk. Finally, an evaluation of the results is made to ascertain the effectiveness of the processes involved with highlights of the challenges in threat modeling and recommendations on how security developers can make improvements.
Entwicklung und Realisierung eines Konzepts zur Erweiterung des Messbereichs einer Druckmesszelle
(2022)
Die Messung, von Prozessdrücken in industriellen Anlagen, ist heutzutage nicht mehr wegzudenken. Hierbei können während des Betriebs gelegentlich ungewollte Überdrücke auftreten, welche über dem Messbereich der eingesetzten Sensorik liegen. Mit den bisher bekannten Drucksensoren können solche Überdrücke daher nicht detektiert werden. Ziel dieser Arbeit ist die Entwicklung eines Konzepts, welches eine Messbereichserweiterung hervorbringt. Mit diesem sollen Drücke bis zu einer messbereichsspezifischen Grenze detektiert werden können.
Im ersten Schritt werden die Kapazitäten der Messzellen der aktuell bestehenden Sensorelektronik aufgenommen und ausgewertet. Aufgrund der Verläufe der gemessenen Kapazitäten, wird der Fokus auf die Auswertung der Referenzkapazität gelegt. Anschließend folgt das Approximieren des Verlaufs der Referenzkapazität durch geeignete mathematische Funktionen und das Entwickeln eines messbereichsübergreifenden Algorithmus. Hierfür wird die Methode der kleinsten Fehlerquadrate angewandt. Nachdem sich ein vielversprechendes Fitting, mittels zwei Polynomen herauskristallisiert hat, erfolgt die softwareseitige Implementierung des Algorithmus für einen Mikrocontroller auf der Sensorelektronik. Im letzten Teil der Arbeit werden Testmessungen durchgeführt, um die approximierten Polynome zu validieren.
Am Ende der Arbeit entsteht eine funktionierende Messbereichserweiterung zur Detektion von Drücken im Überlastbereich. Hierbei wird eine verhältnismäßig hohe Genauigkeit mit wenigen zusätzlichen Messpunkten erzielt.
Wie in den grundsätzlichen Überlegungen zur Transformationsstrategie von Medienunternehmen in Abschn. 1.1 bereits deutlich wurde, ist es für Medienunternehmen und ihre Leitungen nicht einfach, einerseits neue Impulse nicht durch das überdimensionale Regelwerk einer auf Effizienz getrimmten Standardorganisation zu ersticken und andererseits aber auch die Fähigkeit zu entwickeln, die neuen Impulse nicht nur in eigenen Organisationseinheiten zu konservieren, sondern sie als Nukleus für Veränderungen und für eine Weiterentwicklung des Hauptunternehmens zuzulassen. Diese generelle Problematik zeigt sich auch in der Medienbranche beim Umgang mit Transformationsstrategien sehr deutlich, denn es ist letztlich immer wieder ein Austarieren und Nachsteuern, da es den einfachen, idealen Weg nicht gibt und wohl auch nicht geben kann.
In diesem Einführungskapitel geht es um die Frage, welche Transformationsstrategien in der Medienbranche in den vergangenen zwanzig Jahren anzutreffen waren und welche Risiken und Chancen sie in ihrer Anwendung für die einzelnen Unternehmen und Akteure beinhalten. Dabei wird sehr schnell deutlich, dass es „die Medienbranche“ schlechthin nicht gibt, auch nicht geben kann, sondern dass es sich um eine sehr komplexe, mitunter auch widersprüchliche Branche handelt. Wir werden in diesem Kapitel aufzeigen, dass es gerade die angrenzenden Bereiche sind, aus denen meist innovative Ansätze kommen, die einen disruptiven Effekt auf die Kernbranche mit ihrem traditionellen Kerngeschäft haben. Insofern wird in diesem Kapitel zwar eine strukturierte analytische Betrachtung angestrebt, dennoch ist es ein Themenfeld, in dem die Dynamik der Akteure und Märkte dafür sorgt, dass die Branche, die Teilsegmente, die Unternehmen, Produkte und Märkte ständig in Bewegung sind und in Bewegung bleiben.
Dieses Buch gibt einen fundierten Überblick über Change- und Corporate-Venture-Capital-Strategien im Mediensektor. Viele Medienunternehmen stehen vor der Herausforderung, das eigene (Kern-)Geschäft weiterzuentwickeln sowie eine deutlichere Orientierung am Kundennutzen zu verfolgen und dennoch die eigene kreative und publizistische Mission beizubehalten. Darüber hinaus gilt es, neue Geschäftsfelder aufzubauen und den Ankauf von Unternehmen oder die Beteiligung an Start-ups voranzutreiben. Der dabei erforderliche Spagat zwischen strategischen und finanziellen Zielen sowie die operative Umsetzung stellen eine beachtliche Herausforderung dar.
Die Branchenexperten analysieren in ihren Beiträgen die vielfältigen Potenziale sowie konkrete Maßnahmen und Best Cases. Dabei kommen Medieninsider und medienunabhängige Experten zur Sprache, die die Change-Strategien, -Maßnahmen und -Fallstudien beleuchten und neue Gestaltungsmöglichkeiten aufzeigen.
Dass die digitale Transformation als generelles Thema für alle Gesellschafts- und Wirtschaftsbereich von Bedeutung ist, und gerade für den Mittelstand und zahlreiche Hidden Champions eine besondere Herausforderung darstellt, wurde in den vorausgehenden Unterkapiteln bereits deutlich. In diesem Unterkapitel geht es um die konkrete Umsetzung der digitalen Transformation in diesen Branchen- und Unternehmenssegmenten, wo von den Geschäftsmodellen und den dazugehörigen Kundensegmenten bis hin zur Unternehmens- und Führungskultur Veränderungen erforderlich sind. Diese Felder der Transformation im Sinne von Entwicklung und Change gilt es für einen erfolgreichen Transformationsprozess zu identifizieren und aufeinander abzustimmen.
Neue konzeptionelle Entwicklungen wie Industrie 4.0 gelten in vielen Fällen als Domäne von jungen, kleinen Unternehmen, die im Sinne einer Start-Up-Kultur auf Innovationen fokussiert sind oder als Themenfeld von Großunternehmen, die mit Hilfe von Forschungs- und Entwicklungsabteilungen und eigenen Engineering-Ansätzen sowie einem großen Budget in der Lage sind, größere Projekte zu testen und eigene Konzepte zu entwickeln. Da die deutsche Wirtschaft und Gesellschaft stark von den erfolgreichen Entwicklungen des Mittelstands abhängt, der eine Schlüsselstellung für die diversifizierte Wirtschaft und eine robuste Entwicklung des Wohlstands besitzt, kommt der hier behandelten Frage, wie mittelständische Unternehmen mit der digitalen Transformation und der Herausforderung von Industrie 4.0 zurechtkommen, eine zentrale Rolle zu.
In diesem Kapitel geht es um die Frage, was unter dem Buzz-Word Industrie 4.0 zu verstehen ist und was nicht. Industrie 4.0 kann dabei unter gesellschaftlichen, kompetenzorientierten, produktionsorientierten oder verhaltensorientierten Gesichtspunkten unterschiedlich interpretiert werden. Die Umsetzung in Deutschland hat sich dabei vom politischen Konstrukt zur technisch-wirtschaftlichen Entwicklung im Rahmen der digitalen Transformation gewandelt.
Dieses Buch erläutert die allgemeinen Rahmenbedingungen von Industrie 4.0 und bietet innovativen KMUs im Industriesektor wertvolle Impulse.
Industrie 4.0 als Herzstück der digitalen Transformation vieler Produktionsbetriebe liefert ein sehr heterogenes Bild bezüglich der Umsetzung. Die Unterschiede in den organisatorischen Bedingungen liegen im Innovationsgrad der jeweiligen Organisation und lassen sich an der Nachhaltigkeit der Investitionen und dem damit verbundenen mittel- bis langfristigen Markterfolg festmachen.
Das Buch zeigt konkrete Umsetzungsbeispiele auf und beschreibt unter anderem Anwendungsszenarien von praxiserfahrenen und innovativen Ingenieur*innen im Maschinenbau und in der Medizintechnik. Zudem vermittelt es einen grundsätzlichen Überblick über Digitalstrategien und Anwendungsfelder von Industrie 4.0.
Es richtet sich gleichermaßen an Interessierte, Studierende sowie Praktiker aus den Themenfeldern Technologie, Ingenieurwesen und Management.
Dieses Fachbuch hat die Funktion einer fachlich fundierten und praxisnahen Überblicksdarstellung über die Möglichkeiten des Einsatzes von Social Media und Messenger-Diensten im kommunalen Bereich. Social Media sind insbesondere als Instrument für den Dialog mit der Bürgerschaft geeignet, was eine gezielte Analyse von Kommunikationsanlässen und Dialogbedürfnissen im kommunalen Sektor erfordert.
Um das volle Potenzial sozialer Medien ausschöpfen sowie zeitnah und dezentral kommunizieren zu können, müssen die daraus resultierenden Anforderungen an die Organisationskultur und Führungsstruktur berücksichtigt werden. Das Handbuch liefert den theoretischen Hintergrund und die dazugehörige praktische Umsetzung, um die notwendigen Handlungsfelder der kommunalen Kommunikation mithilfe von Social Media und Messenger-Diensten erschließen zu können.
The use of architectural models is a long-proven method for the visualization of designs. More recently, powerful 3D printers have enabled the rapid and cost-effective additive manufacturing (AM) of textured architectural models. The use of AM technology to sample terraced houses in a specific use case (sampling center with more than 1200 customers per year) is examined within this contribution. The aim is to offer customers with limited spatial imagination assistance in the form of detailed architectural models of the whole house, which are divided into different modules. For this purpose, the structure of the terraced house is first analysed and examined for flexible design elements. The implementation of different variants of each floor should serve as a basis for the customer's decision on design and equipment. Thus, the architectural models are additively manufactured using Polyjet modeling. The necessary CAAD-data and interfaces, the technical possibilities and limits of this approach as well as the resulting costs are analyzed. The results of the AM process are evaluated to determine their applicability for the sampling of terraced houses. In addition, the evaluation will show that the additively manufactured architectural models will allow a more precise visualization of the building and thus a faster understanding of the design choices.
Ein Testsystem zum Prüfen neuer Komponenten elektromagnetischer Positionsmesssysteme soll durch eine Eigenkalibrierung des gesamten Systems stetig auf seine Genauigkeit geprüft werden, sodass nur noch eine periodische Rekalibrierung des Referenzgerätes erforderlich ist. Mittels Signal-Routing Software soll über die nationale Instrumentenkarte PCIe-6509 des Computers Spannungssignale an eine Hardware Under Test geleitet werden. Über diese Signale können Transistoren auf der Hardware angesteuert werden, die jeweils einem Relais Spannung übergeben können. Je nachdem welches Relais durchgeschalten werden soll, kann der Messwiderstand des gesamten Testsystems oder das Testsystems kalibriert werden. Um tatsächlich Kalibrierungen durchzuführen, wird eine Software erstellt. Mit der Software können die zu benutzenden Gerätschaften eingelesen und über eine Benutzeroberfläche eine Toleranzprüfung der Komponenten vollzogen werden. Hier gilt es eine Toleranzprüfung für den Messwiderstand zu erstellen und den Code dann auf Komponenten des Testsystems zu erweitern. Dafür wird ein kalibriertes Referenzmessgerät benötigt. Dabei wird ein Digitalmultimeter DAQ6510 verwendet, das über ein Multiplex Modul 7708 mit der Hardware verbunden wird. Um später Komponenten des Testsystems wie Frequenz kalibrieren zu können, wird ebenfalls ein Funktionsgenerator integriert und die Software-Codes darauf erweitert. Besteht das Grundkonzept, werden Funktionstests mit einer Messsystemanalyse erbracht und die Leistungsfähigkeit des Konstruktes beurteilt. Anschließend können neue Entwicklungsansätze und Optimierungskonzepte für weitere Abschlussarbeiten erstellt werden.
Ziel der Investitionsmaßnahme Enerlab 4.0 war die Bereitstellung einer umfangreichen in-operando und post-mortem Diagnostik für dezentrale Energieerzeuger und -Speicher, z. B. Batteriezellen und Photovoltaikzellen. Diese sind wichtige Komponenten für verschiedene Bereiche der Industrie 4.0 – von autonomen Sensoren über energieautarke Produktion bis hin zur Qualitätskontrolle. Zu diesem Zweck wurde die apparative Ausstattung der Hochschule Offenburg erweitert, und zwar sowohl für in-operando Diagnostik (elektrische Zyklierer, Impedanzspektrometer, Temperaturprüfschränke) als auch für post-mortem Diagnostik (Glovebox, Probenpräparationen für vorhandene Werkstoffanalytik und chemische Analytik). Be-reits vorhandene Geräte aus anderen laufenden oder abgeschlossenen Projekten wurden in die neue Infrastruktur integriert. Im Ergebnis entstand ein modernes und leistungsfähiges Batterie- und Photovoltaiklabor, welches in zahlreichen laufenden und neuen Vorhaben genutzt wird.
Um mit einer Marketing- oder Werbemaßnahme erfolgreich zu sein, muss ein Unternehmen die Bedürfnisse und Wünsche der anzusprechenden Zielgruppen kennen. Da
die Generation Z in den kommenden Jahren im Vergleich zu vorangegangenen Generationen einen immer größeren Anteil der Weltbevölkerung und somit der zukünftigen
Konsument*innen ausmachen wird, stellt sie die Zielgruppe der Zukunft dar. Für diese
Generation ist der Umgang mit dem Internet, Smartphones und Apps alltäglich und hat
sich in ihrem Leben bereits fest etabliert. Die vorliegende Bachelorarbeit behandelt basierend auf dieser Tatsache die Frage, ob Mitglieder der Generation Z noch von klassischer Werbung erreicht werden können und wie ein Unternehmen die eigenen Werbemaßnahmen gestalten sollte, um die Generation Z anzusprechen. Damit Rückschlüsse
auf die zielgruppengerechte Marketingkommunikation eines Unternehmens mit der Generation Z gezogen werden konnten, wurden Werke der Fachliteratur und nationale sowie internationale Studien über das Konsument*innenverhalten der Generation Z herangezogen. Um die Erkenntnisse der Literaturrecherche zu untermauern, wurde zusätzlich eine Gruppendiskussion mit Vertreter*innen der Generation Z durchgeführt. Die
qualitative Studie manifestierte die im Theorie-Teil herausgearbeiteten Informationen
und half somit maßgeblich bei der Beantwortung der Forschungsfragen. Im Rahmen
dieser Arbeit konnte festgestellt werden, dass die Generation Z grundsätzlich nicht mehr
von klassischer Werbung erreicht wird, da sie klassische Medien nur noch selten nutzt.
Um Mitglieder der Generation Z als Zielgruppe für sich zu gewinnen, bedarf es einer
Marketingkommunikation, die vorwiegend online und bestenfalls über Social Media
stattfindet und die Konsument*innen individuell mit relevanten Inhalten anspricht.
Diese Arbeit beschäftigt sich mit der Dynamik der Konsensbildung in sozialen Netzwerken mit unterschiedlichen Strukturen. Dafür wird mittels des Naming Games die Kommunikation mit dem Ziel der Konsensbildung simuliert und analysiert. Es geht dabei um die Frage, welchen Einfluss die unterschiedlichen Netzwerkstrukturen auf die Dynamik der Simulationen haben. Neben den unterschiedlichen Netzwerkstrukturen werden weitere Faktoren gesucht und analysiert, welche die Dynamik der Konsensfindung beeinflussen. Dafür werden die Simulationen unter bestimmten Parametern und Eigenschaften mehrfach wiederholt. Aus diesen mehrfachen Durchführungen wird eine repräsentative Simulation ausgewählt und untersucht. Hinsichtlich der Frage nach dem Einfluss der Netzwerkstruktur auf die Dynamik, konnte festgestellt werden, dass die Dichte des dem Netzwerk zugrundeliegenden Graphen einen erheblichen Einfluss auf die Effizienz der Kommunikation hat. Mit steigender Dichte steigt auch die Effizienz der Kommunikation. Zudem konnten zwei weitere wesentliche Einflussfaktoren ausgemacht werden: sogenannte Autoritäten und Announcements. Bei Autoritäten handelt es sich um Teilnehmer, welche besonders viele weitere Teilnehmer der Simulation kennen und bei Announcements handelt es sich um eine Form der Kommunikation, die zu einem Zeitpunkt zwischen mehr als zwei Teilnehmern stattfinden kann. Das Hinzufügen dieser Parameter führt wieder zu einer veränderten, effizienteren Dynamik.
Die vorliegende Abschlussarbeit wurde intern an der Hochschule Offenburg angefertigt. Gegenstand der Untersuchung ist der Einsatz von cloudbasierten Business-Intelligence-Systemen in der Lehre.
Die Arbeit befasst sich zu Beginn mit der Anbindung einer externen Datenquelle in SAP Data Warehouse Cloud (DWC). Diese basiert auf einer relationalen Datenbank. Hierfür wer- den drei unterschiedliche Lösungen untersucht und miteinander verglichen. Außerdem werden Lernszenarien für die Arbeit mit der SAP Analytics Cloud (SAC) entworfen. Die Lernszenarien beinhalten jeweils ein Vertriebsdashboard, welches zuvor konzipiert und in SAP Analytics Cloud (SAC) implementiert wird. Die Dashboards sollen durch das Absolvieren von Lernszenarien durch Studierende an der Hochschule Offenburg unter Einhaltung von Prinzipien guter Visualisierung nachgebaut werden. Beide Produkte von SAP sind momentan Teil von Laboren an der Hochschule Offenburg, um Prinzipien von Business Intelligence (BI) praktisch anzuwenden. Mit Hilfe von SAP Data Warehouse Cloud (DWC) wird ein Datenmodell entworfen. Dieses wird in SAP Analytics Cloud (SAC) verwendet, um die Daten zu visualisieren. Die Grundlage für die Arbeiten bilden die Daten der Global Bike Group. Hierbei handelt es sich um eine Referenzfirma von SAP, die es ermöglicht, anhand von geschäftlichen Testdaten einen Eindruck von den Funktionen der SAP-Produkte zu erlan- gen.
Die Arbeit orientiert sich an zwei Forschungsfragen. Die erste Forschungsfrage behandelt die Anbindung einer Datenquelle in SAP Data Warehouse Cloud (DWC). Die zweite Forschungsfrage betrifft den Entwurf von Lernszenarien mit unterschiedlichem Umfang und unterschiedlicher Zielgruppe in SAP Analytics Cloud (SAC). Beide Fragen konnten erfolg- reich beantwortet werden. Die Ziele der Arbeit wurden erreicht
Alle Materie strebt nach maximaler Unordnung. Diese Erkenntnis wird durch die thermodynamische Funktion der Entropie beschrieben. Auch bei jeglicher Art menschlichen Handelns wird die Entropie immer erhöht. Wird in der Technik Materie in geordnete Formen gebracht (z. B. beim Herstellen von Pfandflaschen), findet in diesem Produkt eine Entropieerniedrigung statt. Gleichzeitig wird aber an anderer Stelle die Unordnung beträchtlich vergrößert. Diese Entropieerhöhung nennen wir Abfall. Jede Entropieerhöhung ist mit dem Verbrauch wertvoller Ressourcen verbunden. Durch eine optimale Recyclingtechnik kann einer Entropieerhöhung von Materie entgegengearbeitet werden. Aber nur Recyclingraten von über 90 % erlauben eine wirksame Streckung der Ressourcen.
Electrochemical pressure impedance spectroscopy (EPIS) has recently been developed as a potential diagnosis tool for polymer electrolyte membrane fuel cells (PEMFC). It is based on analyzing the frequency response of the cell voltage with respect to an excitation of the gas-phase pressure. We present here a combined modeling and experimental study of EPIS. A pseudo-twodimensional PEMFC model was parameterized to a 100 cm2 laboratory cell installed in its test bench, and used to reproduce steady-state cell polarization and electrochemical impedance spectra (EIS). Pressure impedance spectra were obtained both in experiment and simulation by applying a harmonic pressure excitation at the cathode outlet. The model shows good agreement with experimental data for current densities ⩽ 0.4 A cm−2. Here it allows a further simulative analysis of observed EPIS features, including the magnitude and shape of spectra. Key findings include a strong influence of the humidifier gas volume on EPIS and a substantial increase in oxygen partial pressure oscillations towards the channel outlet at the resonance frequency. At current densities ⩾ 0.8 A cm−2 the experimental EIS and EPIS data cannot be fully reproduced. This deviation might be associated with the formation and transport of liquid water, which is not included in the model.
Abstract: Transthoracic impedance cardiography measurements with different monitoring devices
(2016)
Transthoracic impedance cardiography (ICG) is a non-invasive method for determination of hemodynamic parameters. The basic principle of transthoracic ICG is the measurement of electrical conductivity of the thorax over the time. The aim of the study was the analysis of hemodynamic parameters from healthy individuals and the evaluation of various hemodynamic monitoring devices. Fourteen men (mean age 25 ± 4.59 years) and twelve women (mean age 24 ± 3.5 years) were measured during the cardiovascular engineering laboratory at Offenburg University of Applied Sciences, Offenburg, Germany. The ICG recordings were measured with the devices CardioScreen 1000, CardioScreen 2000 and TensoScreen with the corresponding Software Cardiovascular Lab 2.5 (Medis Medizinische Messtechnik GmbH, Illmenau, Germany). In order to create identical frame conditions, all measurements were recorded in the same position and for the same duration. Various positions were simulated from horizontal lying position to vertical standing position. Altogether, more than 30 hemodynamic parameters were measured.
In contrast to conventional aortic valve replacement, the Transcatheter Aortic Valve Implantation (TAVI) is a new highly specialist alternative to surgical valve replacement for patients with symptomatic severe aortic stenosis and high operative risk. The procedure was performed in a minimally invasive way and was introduced at the university heart centre, Freiburg – Bad Krozingen in 2008. The results have been getting better and better over the years. The aim of the investigation is the analysis of electrocardiogram conduction time and the electrocardiography changes recorded hours and days after the procedure depending on artificial heart valve models, which may lead to pacemaker implantation, even the analysis of the effectiveness of treatment.