Refine
Year of publication
Document Type
- Conference Proceeding (727)
- Article (reviewed) (501)
- Article (unreviewed) (468)
- Bachelor Thesis (423)
- Part of a Book (389)
- Contribution to a Periodical (236)
- Book (201)
- Other (134)
- Master's Thesis (105)
- Working Paper (90)
Language
- German (2125)
- English (1335)
- Other language (3)
- Multiple languages (3)
- Russian (3)
- French (1)
- Spanish (1)
Keywords
- Digitalisierung (31)
- Marketing (31)
- Kommunikation (30)
- COVID-19 (27)
- Dünnschichtchromatographie (27)
- Social Media (27)
- Energieversorgung (22)
- Industrie 4.0 (20)
- Management (20)
- E-Learning (19)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (1072)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (696)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (691)
- Fakultät Betriebswirtschaft und Wirtschaftsingenieurwesen (B+W) (451)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (317)
- INES - Institut für nachhaltige Energiesysteme (bis 18.11.2021: Institut für Energiesystemtechnik) (166)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (114)
- Fakultät Medien (M) (ab 22.04.2021) (107)
- Zentrale Einrichtungen (78)
- ACI - Affective and Cognitive Institute (55)
Es werden die aktuellen Studien über Fußformen auf signifikante Unterschiede zwischen Männer und Frauen, Einflussfaktoren wie das Alter, die Körpergröße, das Gewicht und den BMI untersucht. Weiter werden die Unterschiede zwischen verschiedenen Ethnien, Belastungen und dem Aufwachsen mit oder ohne Schuhe analysiert. Die Studien werden über PubMed und ConnectedPapers gesucht und die Daten mit Excel ausgewertet und graphisch dargestellt. Folgendes hat sich ergeben: das Alter hat im Wachstum des Fußes einen Einfluss auf die Fußlänge und die Fußbreite. Außerhalb des Wachstums hat das Alter Einfluss auf die fibulare Bogenlänge und die Bogenhöhe. Die Körpergröße hat Einfluss auf die Fußlänge, die fibulare Bogenhöhe, die distale Knöchelhöhe und den Ballenumfang. Das Gewicht hat im Fußwachstum einen Einfluss auf die Fußlänge. Außerhalb des Wachstums hat das Gewicht einen Einfluss auf die fibulare Bogenhöhe, die Höhe des distalen Knöchels, die Zehenhöhe und den Ballenumfang. Der BMI hat einen Einfluss auf die fibulare Bogenlänge, die mediale und distale Knöchelhöhe und die Zehenhöhe. Für die Fersenbreite und die Risthöhe wurden keine Einflussfaktoren gefunden.
Aufgrund der verstärkten Bedeutung von Datenschutz in der modernen Gesellschaft und der verstärkten Nutzung von markerlosen Systemen wird es zunehmend interessant, ob ein solches System zuverlässige Werte auch bei noch unpopuläreren Bewegungen, wie der Kopfbewegung, liefert. Diese treten, bei der heute vorwiegend sitzenden Gesellschaft und im Zeitalter von Nackenverspannungen und der daraus resultierenden Bewegungseinschränkungen, mehr in den Fokus. Auch unter dem Gesichtspunkt des Datenschutzes ist es wichtig, nicht nur die Namen der Probanden, sondern auch deren
Gesichter in den Aufzeichnungen zu anonymisieren.
In der vorliegenden Arbeit wird daher evaluiert, ob das markerlose Bewegungsanaylsesystem Theia mit anonymisierten Dateien ähnliche Ergebnisse erzeugt, wie mit den originalen Dateien. Für diese Studie wurden sechs verschiedene Bewegungen bis zu ihrem Maximalausschlag des jeweiligen Probanden aufgezeichnet. Die Bewegungen hierbei sind Flexion und Extension des Kopfes, Lateralflexion sowie Rotation zu beiden Seiten. Zusätzlich wurde noch ein Durchgang Kopfkreisen aufgezeichnet. Dieser bestand aus dreimaligem Kopfkreisen, welches eine Kombination aus den vorherigen Bewegungen ist.
Die anonymisierten Daten wurden mittels eines Algorithmus bearbeitet, welcher das Gesicht der Probanden unkenntlich macht. Dies geschah durch das Schwärzen des Gesichtes oder einem Verschwimmen des Gesichts. Danach wurden die drei Datensätze in Theia verarbeitet und in EXCEL ausgewertet. Dabei kam es vor allem bei der geschwärzten Version bei Flexion und Extension zu großen systematischen und zufälligen Fehlern. Der Mittelwert des systematischen Fehlers ist die Abweichung von 13,62 Grad zu den Originalwerten. Der zufällige Fehler ist im Mittel mit 170,57 Grad stärker abweichend. Im Vergleich dazu liegt der Mittelwert des systematischen Fehlers bei der geblurrten Versionen im Vergleich zu den Originalwerten bei 5,17 Grad. Die geblurrte Version weist zudem seltener signifikante Unterschiede und einen mittleren zufälligen Fehler von 23,43 Grad auf, weshalb diese Version unter geringem Vorbehalt verwendbar ist, die geschwärzte Version jedoch nicht.
Die Bachelorarbeit umfasst die Entwicklung einer Pendelhubstichsäge für die Verwendung in CNC-Bearbeitungszentren. Der Entwicklungsprozess durch läuft alle vier Phasen: Planung, Konzeption, Konstruktion, Ausarbeitung. Endergebnis der Bachelorarbeit ist ein vollständiges 3D-Modell mit allen fertigungsrelevanten Dokumenten.
Diese Arbeit befasst sich mit der Redigitalisierung von ausgedruckten Architektur-zeichnungen mit möglichst einfachen Mitteln. So sollen Fotos von herkömmlichen Smartphones die Grundlage für die Extraktion von Maßstab und Raumgeometrien sein.
Der erste der drei Schritte, die das Foto dabei durchläuft, ist die Beseitigung von perspektivischen Verzerrungen (Rektifizierung). Die hierfür benötigten Punkte werden durch ein, in dieser Arbeit trainiertes, Convolutional Neural Network (CNN) detektiert. Die so ermittelten Positionen stellen im zweiten Schritt, der Ermittlung eines Maßstabes, die Grundlage für das Auslesen der Maßzahlen mittels optical character recognition (OCR) dar. Da Räume nicht als solche in Bauzeichnungen eingezeichnet sind, werden im letzten Schritt, zuerst Wände, Türen und Fenster, durch mehrere mathematische Faltungen (convolutions) lokalisiert und innerhalb dieser Elemente, mittels wachsender Regionen, nach Räumen und Fluren gesucht.
Nach dem ein Foto diese Schritte durchlaufen hat, werden die ermittelten Geometrien sowie der Maßstab in einer Liste abgespeichert und im rektifizierten Bild, zusammen mit den berechneten Flächeninhalten, visualisiert. So kann ein Anwender schnell und einfach den Erfolg des Programmoutputs beurteilen.
Eine Versuchsreihe mit einigen Fotos ergab, dass ein Schattenwurf auf dem Papierplan bei Aufnahme des Lichtbildes zu vermeiden ist, da dieser sowohl bei der Auswertung durch das CNN, als auch innerhalb des OCR-Vorgangs zu Problemen führt, die in einigen Fällen eine Rektifizierung oder Maßstabsermittlung verhinderten.
Bei den übrigen fünf Fotos wurden durchschnittlich 31,8 von 32 Räumen detektiert, dabei wurde zwischen zwei und zwölf mal fälschlicherweise die Fensterbank als Fußboden detektiert. Die Standardabweichung der Flächeninhalte aller Räume betrug dabei 0,66 m², werden nur die Räume betrachtet, bei denen die Fensterbank korrekt erkannt wurde, beträgt die Standardabweichung lediglich 0,25 m².
Insgesamt werden die in dieser Arbeit erzielten Ergebnisse als „gut“ eingestuft, es bleiben jedoch auch einige Optimierungsmöglichkeiten an verschiedenen Stellen, besonders bei der Suche nach Räumen, bestehen.
Für die Prognose von Zeitreihen sind bezüglich der Qualität der Vorhersagen heutzutage neuronale Netze und Deep Learning das Mittel der Wahl. LSTM-Netzwerke etablierten sich dazu als eine gut funktionierende Herangehensweise. 2017 wurde der auf Attention basierende Transformer für die Übersetzung von Sprache vorgestellt. Aufgrund seiner Fähigkeit mit sequenziellen Daten zu arbeiten, ist er auch für Zeitreihenprobleme interessant. Diese wissenschaftliche Arbeit befasst sich mit der Vorhersage von Zeitreihen mit einem Transformer. Es wird analysiert, inwiefern sich ein Transformer für Zeitreihenvorhersagen von einem Transformer für Sprachübersetzungen unterscheidet und wie gut die Vorhersagen im Vergleich zu denen eines LSTM-Netzwerkes abschneiden. Dazu werden ein LSTM- und ein Transformer-Netzwerk auf Luftqualitäts- und Wetterdaten in Berlin trainiert, um den Feinstaubgehalt (PM25) in der Luft vorherzusagen. Die Ergebnisse werden mit einem Benchmark-Modell anhand von Evaluationsmetriken verglichen. Anschließend wird evaluiert, wie die Fehler des Transformers reduziert werden können und wie gut der Transformer generalisiert.
Die Verletzung des Sprunggelenks ist eine der häufigsten Verletzungen bei vielen Sportarten. Um diese Verletzungen zu verringern und zu verhindern, werden immer neuere Gelenkschutzarten oder Schuhe entwickelt. Dafür sind vor allem Dehnungen am Schuhobermaterial interessant, für die es noch keine Studie gegeben hat.
Das Ziel dieser Arbeit ist es, eine Studie im Motion Capture Labor der Hochschule Offenburg durchzuführen und die maximale Dehnungen bzw. Längenänderungen im Vor- und Mittelfußbereich bei einem Schuh mit elastischem Obermaterial zu bestimmen. Dabei sollen auch die vertikale Kraft und die Zeitpunkte der maximalen Längenänderung gemessen werden.
Die Studie wurde mit 22 Probanden durchgeführt und es wurden eine statische Aufnahme und acht Bewegungen aufgenommen. Die relevanten Bewegungen für diese Arbeit sind Laufen, Gehen, Abstoppen aus schnellem Laufen und Abstoppen aus Gehen. Dabei wurde ein Motion Capture System und eine Kraftmessplatte genutzt, bei der die Probanden mit dem linken Fuß auftreten mussten. Der Vorfußbereich war mit fünf Markern und der Mittelfußbereich mit sieben Markern besetzt, die jeweils eine Querlinie über den Fuß bildeten. Die Kameras des Motion Capture Systems haben das reflektierende Infrarotlicht der Marker aufgenommen und das System die 3D-Daten gespeichert. Mit diesen Daten wurden alle Ergebnisse berechnet.
Es wurden hohe maximale Längenänderungen und vertikale Kräfte beim Abstoppen aus schnellem Laufen gefunden. Außerdem weisen Laufen und Gehen eine sehr niedrige vertikale Kraft beim Mittelfußbereich auf. Die Zeitpunkte der maximalen Längenänderungen sind für den Vor- und Mittelfußbereich bei jeder Bewegung sehr ähnlich. Der Vorfußbereich dehnt maximal am Anfang jeder Bewegung bzw. am Anfang des Auftretens des Fußes, während der Mittelfußbereich am Ende jeder Bewegung maximal dehnt.
Mit der wachsenden Bedeutung von Nachhaltigkeit im Alltag von Konsument*innen, werden ökologische Aspekte zunehmend zum Kaufentscheidungsfaktor. Damit steigt auch das Angebot nachhaltiger Produkte am Markt. Immer mehr Unternehmen neh-men ökologische Alternativen mit in ihr Sortiment auf. Wie nachhaltig einzelne Güter tatsächlich sind, kann für Verbraucher*innen nur schwer ersichtlich sein.
Ziel dieser wissenschaftlichen Arbeit ist die Analyse der Auswirkungen von Green-washing auf das Konsumverhalten deutscher Verbraucher*innen am Markt für nach-haltige Lebensmittel. Innerhalb eines Fragebogens wird zunächst der Lebensmittel-konsum eines Probandenkreises erfasst. Dabei wird zudem erfasst, welche Bedeutung Gütezeichen als Beurteilungshilfe hinsichtlich der Nachhaltigkeit eines Produkts in der Lebensmittelbranche innehalten. Dazu werden zunächst einige Öko-Siegel bzgl. ihrer Seriosität bewertet. In einem weiteren Schritt werden die Ergebnisse dieser Bewertung mittels empirische Forschung der Einschätzung des Probandenkreises gegenüberge-stellt.
Aus der Befragung ist hervorgegangen, dass Greenwashing eines Unternehmens durchaus Veränderungen in der Kaufbereitschaft der betroffenen Produkte sowie – zu einem geringeren Ausmaß – Produkte innerhalb der gleichen Kategorie betrifft. Wei-terhin wurde identifiziert, dass die Einschätzungen des Probandenkreises hinsichtlich der Seriosität und der Vertrauenswürdigkeit maßgeblich von der – innerhalb dieser wissenschaftlichen Arbeit – durchgeführten Bewertung abweichen. Die Einschätzung hinsichtlich der Seriosität und Vertrauenswürdigkeit von Seiten der Proband*innen, scheint zu großen Teilen von der Bekanntheit des betreffenden Gütezeichens abzu-hängen.
Die vorliegende Bachelorarbeit gibt einen Überblick über verschiedene Java Game Engines und wie diese über ein Konzept in die aktuelle Informatik Vorlesung integriert werden können, um dadurch die Motivation der Studierenden signifikant zu steigern. Dabei wurde in den Grundlagen das Lernpotenzial von Computerspielen untersucht sowie der allgemeine Aufbau von Game Engines definiert. Diese Ergebnisse flossen im Anschluss in die Untersuchung ein und führten zu einer Auswahl der geeigneten Java Game Engine. Über eine SWOT-Analyse, welche nach V. Wollny und H. Paul durchgeführt wurde, konnte eine gut geeignete Engine ermittelt werden. Auf der Basis des Buches von Michael Kölling wurde ein Konzept für die Informatik - Vorlesung entwickelt, welches im letzten Kapitel der Arbeit mit passenden Aufgaben beschrieben wurde. Die Bachelorarbeit ist sowohl für Studierende der Informatik als auch für Lehrende in diesem Bereich interessant und bietet neue Einblicke in ein Nischengebiet.
Die vorliegende Bachelorthesis setzt sich mit dem Einsatz von digitalen Medien in den Bildungseinrichtungen Hochschule und Berufsschule auseinander. Zunächst werden grundlegende Begrifflichkeiten und digitale Medien beschrieben. Anschließend wird der Gerätebesitz Jugendlicher und die Ausstattung der Bildungsinstitute gezeigt. Im Folgenden wird auf den Einfluss der Coronapandemie in Bezug auf die Digitalisierung eingegangen. Anschließend folgen zwei Konzepte, die einen sinnvollen Einsatz von digitalen Medien in der Bildung gewährleisten sollen.
Heutzutage befindet sich die Menschheit in einem Zeitalter des Bewegungsmangels. Körperliche Aktivitäten dringen immer weiter in den Hintergrund. Dadurch wird die Gesundheit deutlich beeinträchtigt. Es entstehen vermehrt Krankheiten wie Diabetes und Schädigungen des Herz-Kreislauf-Systems. An diesem Beispiel lässt sich verdeutlichen, wie wichtig körperliche Bewegung ist. Die gängigste Art ist das Laufen und das Gehen. Dazu wurden Laufschuhe entwickelt. Jedoch ist die Passform oft nicht so ausgestattet, um für eine perfekte Laufperformance und ein möglichst geringes Verletzungsrisiko zu sorgen. Es entsteht ein Spiel zwischen Laufschuh und dem Fuß. Um dieses Spiel zu minimieren bzw. für eine verbesserte Laufperformance zu sorgen werden Gurtsysteme bzw. Schnürsysteme entwickelt. Das Ziel hierbei ist es zu prüfen, ob diese Gurtsysteme auch wirklich einen signifikanten Vorteil erweisen und ob es Unterschiede zwischen den einzelnen Schnürungen, sowie dem Schuh ohne Schnürung gibt.
In dieser Studie wurden 5 Probanden rekrutiert. Im Biomechanik Labor wird jeder Proband einzeln gemessen. Dabei positionieren die messenden Personen einen Schuh an den Probanden. Anschließend wird ein Gurtsystem befestigt. Es handelt sich hierbei um 4 verschiedene Schnürungen, die jeweils einmal um den Schuh gewickelt werden. Die Gurtsysteme sind dieselben, jedoch an einer anderen Position von proximal nach distal entlang des Fußes positioniert. Zusätzlich werden die Bewegungen noch mit dem Schuh ohne das Schnürsystem durchgeführt. Es handelt sich hierbei um 5 verschiedene Bewegungen. Das Gehen, das Laufen, das Springen, sowie das Abstoppen aus dem Gehen und dem Laufen. Ziel dabei ist es die horizontale Bewegung der Ferse nach vorne relativ zur Sohle, sowie die Verschiebung der Ferse relativ zur Sohle in vertikaler Richtung zu untersuchen und rauszufinden, ob es einen grundlegenden Unterschied zwischen den einzelnen Schnürungen gibt. Die einzelnen Messwerte beschreiben den Abstand zwischen dem Marker an der Ferse sowie auf dem Schuh, die gemeinsam ein Koordinatensystem aufspannen.
Die Messwerte der maximalen horizontalen Fersenbewegung bei der Bewegung Abstoppen aus dem Gehen zeigen, dass eine Signifikanz beim Friedman-Test vorhanden ist. Hierbei sind bei dem Vorzeichentest die Messungen D1 und D2, D1 und D3, D3 und D4, sowie D3 und Ohne, signifikant.
Die Messwerte der maximalen vertikalen Fersenbewegung bei der Bewegung Gehen zeigen, dass eine Signifikanz beim Friedman-Test vorhanden ist. Hierbei sind bei dem Vorzeichentest die Messungen D1 und Ohne, D2 und Ohne, D3 und Ohne, sowie D4 und Ohne, signifikant.
Die Messwerte der maximalen horizontalen Fersenbewegung bei der Bewegung Laufen zeigen, dass eine Signifikanz beim Friedman-Test vorhanden ist. Hierbei sind bei dem Vorzeichentest die Messungen D1 und D2, D1 und D4, sowie D3 und Ohne, signifikant.
Zu den Messungen Abstoppen aus dem Gehen MVF, Abstoppen aus dem Laufen MHF, Gehen MHF, Laufen MVF, Springen MHF und Springen MVF zeigt das Ergebnis des Friedmann Tests einen niedrigeren Wert als den Kritische Wert von 9,49. Somit haben diese Messungen untereinander keine Signifikanz und werden somit nicht für den Vorzeichentest verwendet.
Patienten mit neurologischen Erkrankungen, die Auswirkungen auf die Muskelaktivität der unteren Extremitäten haben, leiden oft an Gangstörungen in der Schwung- und Standphase. Um diesen Gangstörungen entgegenzuwirken und einzelne Muskeln zu unterstützen oder zu ersetzen, stellt die Versorgung mit Unterschenkelorthesen eine Behandlungsoption dar. Den Ärzten steht dabei eine Vielzahl an Orthesentypen mit verschiedenen mechanischen Eigenschaften zur Verfügung. Zur Beurteilung der Wirksamkeit einer Orthesenversorgung werden dreidimensionale Ganganalysen mit und ohne Orthese durchgeführt. Die Entscheidungsfindung wird durch eine Simulation des Bewegungsapparates, dem muskuloskelettalen Modelling, unterstützt. Aus den Messdaten der Ganganalyse mit Orthese wird mittels der inversen Dynamik auf die bewegungserzeugenden Muskelkräfte im Körper zurückgerechnet. Der-zeit wird das Gesamtmoment um das Sprunggelenk in die Berechnung mit einbezogen, welches sich aus dem internen Moment, erzeugt von Muskeln, Sehnen und Bändern der unteren Extremitäten des Patienten und dem externen Orthesenmoment zusammensetzt. Durch eine isolierte Ermittlung des Unterstützungsmoments einer Unterschenkelorthese kann durch das muskuloskelettale Modelling eine genauere Aussage über die Auswirkungen einer Unterschenkelorthese auf die Muskelaktivität der unteren Extremitäten und die Funktionalität des Bewegungsapparates des Patienten getroffen werden. Zur Bestimmung des Orthesenmoments wird die Rotationssteifigkeit, die wichtigste mechanische Eigenschaft einer Unterschenkelorthese mithilfe einer Testvorrichtung gemessen. Denn diese beschreibt das Widerstandsmoment der Orthese, das sie bei der Deformation in Plantar- oder Dorsalflexion er-zeugt, um eine gewisse Biegung um die Sprunggelenksachse freizugeben. Die Literaturrecherche ergibt, dass die Rotationssteifigkeit einer Unterschenkelorthese auf einem Prüfstand mit einem physischen Ersatzbeinmodell zur Fixierung der Orthese gemessen wird. In der bestehenden Testvorrichtung am Kinderspital Basel werden die Orthesen allerdings ohne Ersatzbeinmodell untersucht. Das Ziel dieser Arbeit ist daher die Ermittlung der Eignung der bestehenden Vorrichtung ohne Ersatzbeinmodell zur Bestimmung der Rotationssteifigkeit. Dazu werden eine steife und drei Karbonfederorthesen auf der Testvorrichtung und am Bein eines gesunden Probanden in vergleichbaren Auslenkungen gemessen. Die Bewegung der Orthese wird mittels dreidimensionalem markerbasiertem Kameramesssystem aufgenommen und die kinetischen Daten über dreidimensionale Kraftmessplatten erfasst.
Für den Vergleich der beiden Testkonditionen werden drei Parameter definiert. Der Erste ist das Deformationsmaß der Orthese. Dieses beschreibt die Deformationslinie des Orthesenschafts in Sagittalebene. Der Vergleich zeigt, dass dieses bei allen getesteten Orthesentypen in starkem Maß zwischen beiden Testkonditionen variiert und damit nicht vergleichbar ist. Der zweite Parameter ist die Betrachtung eines vereinfachten Modells für das Verhalten des Rotationspunkts in der Sagittalebene, um den der Orthesenschaft bei der Verformung rotiert. Hierzu werden Geraden durch die Marker des Schafts und des Fußes gelegt und deren Schnittpunktverhalten bei der Deformation analysiert. Die Bewegung des Schnittpunkts variiert je nach Testkondition, jedoch wird das Maß der Bewegung im Vergleich zu anderen Einflussfaktoren als vernachlässigbar eingestuft. Hier gleichen sich somit die beiden Testkonditionen. Der dritte Parameter ist die Rotationssteifigkeit der Orthese. Hierzu werden mit den Kraftmessplatten die Kräfte gemessen und mit den Positionsdaten der Marker ein Hebelarm und der Deformationswinkel definiert. Die ermittelten Daten weichen zwischen den Testkonditionen in großem Maß voneinander ab. Eine direkte Aussage über die Eignung der Testvorrichtung kann nicht getroffen werden.
Die Ergebnisse zeigen, dass die Messung am Bein des Probanden keine realistischen und da-mit verwertbaren Messdaten zur Bestimmung der Rotationssteifigkeit liefert. Schlussfolgernd sind die Messdaten beider Testkonditionen mit den angewandten Mess- und Berechnungsmethoden nicht vergleichbar. Die Eignung der Testvorrichtung lässt sich somit nur bedingt beurteilen. Einerseits liefert der Aufbau der Vorrichtung und die Messdurchführung Messda-ten zur Bestimmung der Rotationssteifigkeit, andererseits kann noch keine Aussage darüber getroffen werden, ob die Messdaten zu einer qualitativen Ermittlung der Rotationssteifigkeit der Orthese führen können. In zukünftigen Studien muss die Messung am Bein des Proban-den optimiert werden, um Referenzwerte für die Messung auf der Testvorrichtung bereitstellen zu können.
Die vorliegende Masterarbeit setzt sich mit dem Thema „Digitale Medien und soziale Anerkennung“ auseinander. Dabei wird der Frage nachgegangen, welchen Einfluss die Nutzung digitaler Medien auf das Selbstbild junger Erwachsener, auf das Thema Cybermobbing und den zwischenmenschlichen Umgang in der Gesellschaft hat. Als Praxisbeispiel wurde exemplarisch die Folge „Nosedive“ der dystopischen Sci-Fi-Serie „Black Mirror“ ausgewählt, in der eine Gesellschaft porträtiert wird, deren Leben durch ein soziales Bewertungssystem bestimmt wird. Im Zuge dessen soll ein Bezug zu realen Sozialkredit-Systemen hergestellt werden. Das Ziel der Forschung ist es, eine umfangreiche Analyse der Auswirkungen des Medienkonsums von Fiktion und Realität vor dem Hintergrund sozialer Anerkennung durchzuführen.
Im theoretischen Teil der Arbeit soll allgemein auf digitale Medien, das Nutzungsverhalten von Jugendlichen sowie auf die Bedeutung von Identität und Selbstbild (im Netz) eingegangen werden. Sowohl die Einflüsse der digitalen Mediennutzung auf die Identität, das Selbstbild sowie die Selbstdarstellung als auch die allgemeinen positiven und negativen Auswirkungen durch exzessiven Medienkonsum von Jugendlichen sollen in dieser Arbeit näher beleuchtet und einander gegenübergestellt werden. Im nächsten Schritt sollen die Auswirkungen auf die Bereiche Cybermobbing sowie die zwischenmenschliche Kommunikation und soziale Beziehungen untersucht werden. Nach Abhandlung der Einflüsse und Auswirkungen auf die Jugendlichen unserer Gesellschaft folgt der praktische Teil der Arbeit, in dem zunächst die Anthologie-Serie „Black Mirror“ und die Inhalte der Folge „Nosedive“ vorgestellt werden sollen. Anhand ausgewählter Merkmale soll die fiktionale Welt mit unserer modernen Gesellschaft analysiert und verglichen werden. Abschließend soll auf die Sozialkredit-Systeme in China eingegangen und ein Bezug zur Folge hergestellt werden. In der Analyse sollen die Ergebnisse der vorangegangenen Kapitel miteinbezogen werden. Die Ergebnisse der Arbeit zeigen, dass digitale Medien einen weitreichenden sowohl positiven als auch negativen Einfluss auf Jugendliche haben. Die Nutzung hat viele Bereiche unseres Lebens bereits verändert. Besonders soziale Medien hinterlassen ihre Spuren in der Identität und Werteentwicklung von Kindern und Jugendlichen. Obwohl sie in der jüngeren Generation hohes Ansehen genießen, bestimmen sie jedoch (noch) nicht über andere Bereiche des Lebens.
Die Analyse von biomechanischen Parametern erlangt in der Sportwissenschaft und der Biomechanik eine immer größere Bedeutung. Daraus entwickelten sich mit der Zeit neue Analysemethoden, die sich zum Ziel gesetzt haben, eine bessere, schnellere und einfachere Analyse der biomechanischen Parameter zu ermöglichen.
Das Ziel der vorliegenden Arbeit ist es zu evaluieren, ob die Sensor-Technologie für die Analyse von biomechanischen Parametern im Bereich des Skisprungs und Skilanglaufs eingesetzt werden kann und dabei einen Vorteil gegenüber den derzeitig verwendeten Analysemethoden mit sich bringt. Dabei soll ein Lösungskonzept entwickelt werden, welches gezielt die Geschwindigkeiten und Zeiten, im Skisprung und Skilanglauf analysieren kann.
Für die Auswahl der Sensoren, wurden zu Beginn Randbedingungen festgelegt, die ein Sensor erfüllen muss, um für den Einsatz im Skisprung und Langlauf geeignet zu sein. Dabei stehen vor allem die Outdoorfähigkeit, Scanfrequenz und die Reichweite im Fokus der Evaluierung. Auf Basis der Randbedingungen wurden diese mit den Eigenschaften der Sensoren verglichen und eine Vorauswahl getroffen. Dabei kam man zu dem Ergebnis, dass fünf Sensoren für den Einsatz im Skisprung und Skilanglauf geeignet sind. Die Sensoren kommen jeweils aus dem Bereich der LiDAR- (light detection and ranging), RFID- (Radio-Frequency Identification), und Radar-Technologie. Im Anschluss wurde für jeden Sensor ein Lösungskonzept zur Bestimmung von Geschwindigkeiten und Zeiten, unabhängig von dem zu messenden Objekt, erstellt und abschließend auf ihre Verwendbarkeit im Skisprung und Skilanglauf bewertet. Dadurch stellte sich heraus, dass die Kombination aus einem LiDAR-Sensor (LMS5xx) und einem RFID-Sensor (RFU63x) am besten für den Skilanglauf geeignet ist. Für die Verwendung im Skisprung zeigte sich ebenfalls eine Kombination aus dem RFID-Sensor (RFU63x) und einem Radar-Sensor (RMS1000) als bestmögliches Lösungskonzept zur Analyse von Geschwindigkeiten und Zeiten.
Die Arbeit hat gezeigt, dass die Sensor-Technologie in Zukunft eine schnellere, unabhängigere und einfache Methode zur Analyse von biomechanischen Parametern ermöglicht. Dabei muss berücksichtigt werden, dass es sich um eine theoretische Untersuchung handelt, welche als Vorlage für weitere Untersuchungen dienen soll.
are you okay?
(2022)
Die Frage “Wie geht es dir?” ist in unserer Gesellschaft eine Höflichkeitsfloskel geworden. Die meisten Menschen antworten mit einem “Gut, und selbst?” und dann wird über etwas anderes gesprochen. Der Großteil redet nicht allzu oft darüber, was sie wirklich beschäftigt. Aber warum eigentlich nicht? Ist es Scham, Angst vor Ablehnung oder einfach nur „gutes“ Benehmen?
Besonders negative Gefühle, wie Wut und Trauer haben in unserem Leben wenig Platz. Sie werden als nicht gut betrachtet und alles was nicht “gut” ist, sollte laut der Gesellschaft lieber versteckt werden. Dieses Buch steht für mehr Gefühlsbewusstsein und soll einen offeneren Austausch mit sich selbst und anderen anstoßen. Denn auch negative Gefühle sollen einen Platz bekommen und können sanftmütig und bewusst gelebt werden.
Dieses Buch ist eine bunte Mischung aus ausgedachten aber realitätsnahen Geschichten vom Scheitern, Texten von Musikern und Bildern zum Träumen und Interpretieren. Es scheint zuerst ungewöhnlich, ausschließlich deutsche Rapper statt alte Philosophen zu zitieren. Doch die Hip-Hop-Kultur hat einiges zu sagen und bringt alltägliche Probleme und Ängste unverblümt auf den Punkt. Manchmal müssen wir nur etwas genauer hinhören.
The use of biochar is an important tool to improve soil fertility, reduce the negative environmental impacts of agriculture, and build up terrestrial carbon sinks. However, crop yield increases by biochar amendment were not shown consistently for fertile soils under temperate climate. Recent studies show that biochar is more likely to increase crop yields when applied in combination with nutrients to prepare biochar-based fertilizers. Here, we focused on the root-zone amendment of biochar combined with mineral fertilizers in a greenhouse trial with white cabbage (Brassica oleracea convar. Capitata var. Alba) cultivated in a nutrient-rich silt loam soil originating from the temperate climate zone (Bavaria, Germany). Biochar was applied at a low dosage (1.3 t ha−1). The biochar was placed either as a concentrated hotspot below the seedling or it was mixed into the soil in the root zone representing a mixture of biochar and soil in the planting basin. The nitrogen fertilizer (ammonium nitrate or urea) was either applied on the soil surface or loaded onto the biochar representing a nitrogen-enhanced biochar. On average, a 12% yield increase in dry cabbage heads was achieved with biochar plus fertilizer compared to the fertilized control without biochar. Most consistent positive yield responses were observed with a hotspot root-zone application of nitrogen-enhanced biochar, showing a maximum 21% dry cabbage-head yield increase. Belowground biomass and root-architecture suggested a decrease in the fine root content in these treatments compared to treatments without biochar and with soil-mixed biochar. We conclude that the hotspot amendment of a nitrogen-enhanced biochar in the root zone can optimize the growth of white cabbage by providing a nutrient depot in close proximity to the plant, enabling efficient nutrient supply. The amendment of low doses in the root zone of annual crops could become an economically interesting application option for biochar in the temperate climate zone.
Introduction The use of scaffolds in tissue engineering is becoming increasingly important as solutions need to be found for the problem of preserving human tissue, such as bone or cartilage. In this work, scaffolds were printed from the biomaterial known as polycaprolactone (PCL) on a 3D Bioplotter. Both the external and internal geometry were varied to investigate their influence on mechanical stability and biocompatibility. Materials and Methods: An Envisiontec 3D Bioplotter was used to fabricate the scaffolds. First, square scaffolds were printed with variations in the strand width and strand spacing. Then, the filling structure was varied: either lines, waves, and honeycombs were used. This was followed by variation in the outer shape, produced as either a square, hexagon, octagon, or circle. Finally, the internal and external geometry was varied. To improve interaction with the cells, the printed PCL scaffolds were coated with type-I collagen. MG-63 cells were then cultured on the scaffolds and various tests were performed to investigate the biocompatibility of the scaffolds. Results: With increasing strand thickness and strand spacing, the compressive strengths decreased from 86.18 + 2.34 MPa (200 µm) to 46.38 + 0.52 MPa (600 µm). The circle was the outer shape with the highest compressive strength of 76.07 + 1.49 MPa, compared to the octagon, which had the lowest value of 52.96 ± 0.98 MPa. Varying the external shape (toward roundness) geometry, as well as the filling configuration, resulted in the highest values of compressive strength for the round specimens with honeycomb filling, which had a value of 91.4 + 1.4 MPa. In the biocompatibility tests, the round specimens with honeycomb filling also showed the highest cell count per mm2, with 1591 ± 239 live cells/mm2 after 10 days and the highest value in cell proliferation, but with minimal cytotoxic effects (9.19 ± 2.47% after 3 days).
Lithium-ion batteries exhibit a dynamic voltage behaviour depending nonlinearly on current and state of charge. The modelling of lithium-ion batteries is therefore complicated and model parametrisation is often time demanding. Grey-box models combine physical and data-driven modelling to benefit from their respective advantages. Neural ordinary differential equations (NODEs) offer new possibilities for grey-box modelling. Differential equations given by physical laws and NODEs can be combined in a single modelling framework. Here we demonstrate the use of NODEs for grey-box modelling of lithium-ion batteries. A simple equivalent circuit model serves as a basis and represents the physical part of the model. The voltage drop over the resistor–capacitor circuit, including its dependency on current and state of charge, is implemented as a NODE. After training, the grey-box model shows good agreement with experimental full-cycle data and pulse tests on a lithium iron phosphate cell. We test the model against two dynamic load profiles: one consisting of half cycles and one dynamic load profile representing a home-storage system. The dynamic response of the battery is well captured by the model.
Das Ziel ist es, einen Workflow zu erstellen, mit dem Produkte von Kunden im 3D-Format aufbereitet und in einer webbasierten Echtzeit-360°-Anwendung zur Schau gestellt werden. Dabei können Betrachter mit dem Produkt interagieren und sich darüber informieren.
Dabei soll sich der Workflow auf den 3D-Artist richten und der Aufwand des Entwicklers möglichst minimiert werden.
Mit dem Öffnen der Webseite wird eine ThreeJS-Anwendung geladen. Die Anwendung enthält eine Szenendatei, in welcher sich eine GLB-Datei (Graphics Language Binary) des 3D-Modells befindet. Diese Datei wurde in 3DsMax, einem gängigen 3D-Programm, aufbereitet und exportiert. Neben der GLB-Datei enthält die Webseite ein Lichtsetting und ein Environment mit separatem Background.
Lithium-ion batteries exhibit a well-known trade-off between energy and power, which is problematic for electric vehicles which require both high energy during discharge (high driving range) and high power during charge (fast-charge capability). We use two commercial lithium-ion cells (high-energy [HE] and high-power) to parameterize and validate physicochemical pseudo-two-dimensional models. In a systematic virtual design study, we vary electrode thicknesses, cell temperature, and the type of charging protocol. We are able to show that low anode potentials during charge, inducing lithium plating and cell aging, can be effectively avoided either by using high temperatures or by using a constant-current/constant-potential/constant-voltage charge protocol which includes a constant anode potential phase. We introduce and quantify a specific charging power as the ratio of discharged energy (at slow discharge) and required charging time (at a fast charge). This value is shown to exhibit a distinct optimum with respect to electrode thickness. At 35°C, the optimum was achieved using an HE electrode design, yielding 23.8 Wh/(min L) volumetric charging power at 15.2 min charging time (10% to 80% state of charge) and 517 Wh/L discharge energy density. By analyzing the various overpotential contributions, we were able to show that electrolyte transport losses are dominantly responsible for the insufficient charge and discharge performance of cells with very thick electrodes.
Dieses Buch gibt einen fundierten Überblick über Krisen- und Transformationsszenarien im Rahmen der Corona-Pandemie in Wirtschaft, Kultur und Bildung. Den Schwerpunkt bilden konkrete Schilderungen erfolgreicher Maßnahmen und Lösungen in der Krise. Zahlreiche Expert*innen aus Wissenschaft und Praxis erläutern den Umgang mit der Pandemie in Institutionen und Unternehmen, die wirksame Entwicklung von Zukunftsperspektiven sowie ihre Umsetzung in den Alltag.
Die Corona-Pandemie hat in vielen Bereichen eine Krise ausgelöst und durch die zwingende Notwendigkeit zum Handeln einen katalytischen Effekt bewirkt. Entwicklungen wurden verstärkt oder beschleunigt und Transformationsprozesse, beispielsweise die Digitalisierung vieler Branchen und Lebensbereiche, in ihrer Richtung und Dynamik beeinflusst.
Anhand von Good Practises bieten die Autoren Lösungsvorschläge, wie die Krise als Chance weiterentwickelt werden kann: von neuen Omnichannel-Lösungen im Vertrieb über innovative New-Work-Ansätze bis hin zu Beispielen aus den besonders schwer getroffenen Branchen Luftfahrt und Tourismus. Weitere Kernbereiche sind die Sektoren Kultur und Bildung mit Beispielen zu konkreten Überlebensstrategien von Künstler*innen sowie innovativen Digitalkonzepten in Lehre und Forschung. Das Buch richtet sich gleichermaßen an wirtschaftlich und gesellschaftlich Interessierte, Studierende und Praktiker*innen.
This mature textbook brings the fundamentals of fluid mechanics in a concise and mathematically understandable presentation. In the current edition, a section on dissipation and viscous potential flows has been added. Exercises with solutions help to apply the material correctly and promote understanding.
Jürgen Zierep passed away on July 29, 2021, at the age of 92. To him, science and education was not only a profession, but an affair of the heart. His impressive contributions in fluid mechanics comprise about 200 scientific publications in the fields of gas dynamics, similarity laws, flow instabilities, flows with energy transfer, and non-Newtonian fluids. In addition, he wrote eleven textbooks with great dedication. Those books by the “scientist who loves to teach” are nowadays available in different languages and regularly appear in new editions.
Among the billions of smartphone users in the world, Android still holds more than 80% of the market share. The applications which the users install have a specific set of features that need access to some device functionalities and sensors that may hold sensitive information about the user. Therefore, Android releases have set permission standards to let the user know what information is being disclosed to the application. Along with other security and privacy improvements, significant changes to the permission scheme are introduced with the Android 6.0 version (API level 23). In this master thesis, the Android permission scheme is tested on two devices from different eras. The evolution of Android over the years is examined in terms of confidentiality. For each device, two applications are built; one focused on extracting every piece of information within the confidentiality scope with every permission declared and/or requested, and the other app focused on getting this type of information without user notification. The resulting analysis illustrates whether how and in what way the Android permission scheme declined or improved over time.
Intelligentes Data Governance und Data Management – Neue Chancen für die Kundendatenbewirtschaftung
(2022)
Mit der Digitalisierung haben sich für Marketing und Vertrieb vielzählige unterschiedliche neue Kanäle, Werbeformate und Zielgruppen eröffnet. Expertinnen und Experten schätzen, dass ca. 4.000 bis 10.000 Werbe- und Markenbotschaften täglich auf jede und jeden von uns einprasseln. Mögen diese Zahlen umstritten und eine Zahl zwischen 300 bis 500 Botschaften pro Tag realistischer sein, so ist dies noch immer eine Menge, die kaum noch verarbeitet und wahrgenommen werden kann. Als Reaktion auf diese Werbemasse und Reizüberflutung haben Konsumentinnen und Konsumenten zum Teil eine Art „Werbeblindheit“ entwickelt.
Für Unternehmen wird daher zunehmend herausfordernder, ihre Zielgruppe aktiv zu erreichen. Was können Unternehmen nun tun, um dennoch nachhaltig Aufmerksamkeit zu gewinnen, und wie kann Künstliche-Intelligenz-gestütztes Kundendatenmanagement dabei helfen?
Die Covid-19-Pandemie hat die Welt verändert. Alle Wirtschaftszweige wie etwa der Handel sahen sich von heute auf morgen mit einer veränderten Realität konfrontiert. Diese Entwicklung hat einerseits den schon vor der Pandemie wahrnehmbaren Digitalisierungsdruck, vor allem auf den stationären Handel, massiv erhöht. Und andererseits die Daten von Kundinnen und Kunden in das Zentrum der Aufmerksamkeit gerückt, da in der digitalen Welt der persönliche Kontakt zur Kundschaft fehlt. Dieser Beitrag beleuchtet die Bedeutung von Kundendaten, Datenqualität und Datenmanagement als wesentliche Erfolgsfaktoren für den Handel in dieser herausfordernden Situation. Er zeigt auf, wie Datenverantwortliche im Handel aus dem Wissen um die Daten mittels Identity Resolution klare Profile von Kundinnen und Kunden entwickeln und diese plattformbasiert ausrollen können. Hierzu wird das neue Konzept des Customer Digital Twins eingeführt. Die abschließenden Handlungsempfehlungen bieten eine ‚Arbeitsanweisung in fünf Schritten‘ für eine aktuelle, vollständige und verlässliche Datenbasis, als Grundlage für den datenorientierten stationären und Onlinehandel.
Hersteller von Laufschuhen versprechen ihren Kunden Schuhe, die einen durch gezielte Energierückgabe der Mittelsohlen oder durch eine optimale Dämpfung bei der sportlichen Leistung unterstützen. Als aktueller Teststandard für das Materialreaktionsverhalten von Sportschuhen gilt der ASTM F1976. In diesem Test werden die Schuhe durch einen wiederholten Impulstest untersucht. Allerdings weder Rücksicht auf die zurückgelegte Distanz, noch auf variierende Körpergewichte genommen. In dieser Arbeit wird ein Messverfahren entwickelt, das Sportschuhe über eine simulierte Marathondistanz in Bezug auf die verarbeitete Energiemengen und das Verändern der Festigkeit analysiert. Es wurde ein Schuh der „Ghost“-Reihe der Firma „Brooks“ mit Hilfe einer elektro-dynamischen Prüfmaschine LMT10 der Firma Zwick/Röll zwei Mal im Bereich des Rückfußes mit zwei verschiedenen Lasten analysiert. Die Einstellungsparameter sind recherchierte Durchschnittswerte, die einen erwachsenen Europäer darstellen. Es hat sich herausgestellt, dass ein um 20% geringeres Körpergewicht eines Läufers nicht eine äquivalente geringere umgesetzte Energiemenge bedeutet. Im Vergleich zu der Messung des schwereren Läufers wurden lediglich 65% der Energiemenge umgesetzt. Darüber hinaus nimmt die Festigkeit der Mittelsohle bei der Messung mit 20% weniger Last kontinuierlich ab, wobei sie bei der Messung mit 100% im letzten Drittel der Messung wieder zunimmt. Als Gründe für dieses Verhalten wurden das nichtlineare Reaktionsverhalten von EVA-Schäumen und das anfängliche Verbessern der Gleitfähigkeit der Polymerketten festgestellt.
Threat Modeling is a vital approach to implementing ”Security by Design” because it enables the discovery of vulnerabilities and mitigation of threats during the early stage of the Software Development Life Cycle as opposed to later on when they will be more expensive to fix. This thesis makes a review of the current threat Modeling approaches, methods, and tools. It then creates a meta-model adaptation of a fictitious cloud-based shop application which is tested using STRIDE and PASTA to check for vulnerabilities, weaknesses, and impact risk. The Analysis is done using Microsoft Threat Modeling Tool and IriusRisk. Finally, an evaluation of the results is made to ascertain the effectiveness of the processes involved with highlights of the challenges in threat modeling and recommendations on how security developers can make improvements.
Entwicklung und Realisierung eines Konzepts zur Erweiterung des Messbereichs einer Druckmesszelle
(2022)
Die Messung, von Prozessdrücken in industriellen Anlagen, ist heutzutage nicht mehr wegzudenken. Hierbei können während des Betriebs gelegentlich ungewollte Überdrücke auftreten, welche über dem Messbereich der eingesetzten Sensorik liegen. Mit den bisher bekannten Drucksensoren können solche Überdrücke daher nicht detektiert werden. Ziel dieser Arbeit ist die Entwicklung eines Konzepts, welches eine Messbereichserweiterung hervorbringt. Mit diesem sollen Drücke bis zu einer messbereichsspezifischen Grenze detektiert werden können.
Im ersten Schritt werden die Kapazitäten der Messzellen der aktuell bestehenden Sensorelektronik aufgenommen und ausgewertet. Aufgrund der Verläufe der gemessenen Kapazitäten, wird der Fokus auf die Auswertung der Referenzkapazität gelegt. Anschließend folgt das Approximieren des Verlaufs der Referenzkapazität durch geeignete mathematische Funktionen und das Entwickeln eines messbereichsübergreifenden Algorithmus. Hierfür wird die Methode der kleinsten Fehlerquadrate angewandt. Nachdem sich ein vielversprechendes Fitting, mittels zwei Polynomen herauskristallisiert hat, erfolgt die softwareseitige Implementierung des Algorithmus für einen Mikrocontroller auf der Sensorelektronik. Im letzten Teil der Arbeit werden Testmessungen durchgeführt, um die approximierten Polynome zu validieren.
Am Ende der Arbeit entsteht eine funktionierende Messbereichserweiterung zur Detektion von Drücken im Überlastbereich. Hierbei wird eine verhältnismäßig hohe Genauigkeit mit wenigen zusätzlichen Messpunkten erzielt.
Wie in den grundsätzlichen Überlegungen zur Transformationsstrategie von Medienunternehmen in Abschn. 1.1 bereits deutlich wurde, ist es für Medienunternehmen und ihre Leitungen nicht einfach, einerseits neue Impulse nicht durch das überdimensionale Regelwerk einer auf Effizienz getrimmten Standardorganisation zu ersticken und andererseits aber auch die Fähigkeit zu entwickeln, die neuen Impulse nicht nur in eigenen Organisationseinheiten zu konservieren, sondern sie als Nukleus für Veränderungen und für eine Weiterentwicklung des Hauptunternehmens zuzulassen. Diese generelle Problematik zeigt sich auch in der Medienbranche beim Umgang mit Transformationsstrategien sehr deutlich, denn es ist letztlich immer wieder ein Austarieren und Nachsteuern, da es den einfachen, idealen Weg nicht gibt und wohl auch nicht geben kann.
In diesem Einführungskapitel geht es um die Frage, welche Transformationsstrategien in der Medienbranche in den vergangenen zwanzig Jahren anzutreffen waren und welche Risiken und Chancen sie in ihrer Anwendung für die einzelnen Unternehmen und Akteure beinhalten. Dabei wird sehr schnell deutlich, dass es „die Medienbranche“ schlechthin nicht gibt, auch nicht geben kann, sondern dass es sich um eine sehr komplexe, mitunter auch widersprüchliche Branche handelt. Wir werden in diesem Kapitel aufzeigen, dass es gerade die angrenzenden Bereiche sind, aus denen meist innovative Ansätze kommen, die einen disruptiven Effekt auf die Kernbranche mit ihrem traditionellen Kerngeschäft haben. Insofern wird in diesem Kapitel zwar eine strukturierte analytische Betrachtung angestrebt, dennoch ist es ein Themenfeld, in dem die Dynamik der Akteure und Märkte dafür sorgt, dass die Branche, die Teilsegmente, die Unternehmen, Produkte und Märkte ständig in Bewegung sind und in Bewegung bleiben.
Dieses Buch gibt einen fundierten Überblick über Change- und Corporate-Venture-Capital-Strategien im Mediensektor. Viele Medienunternehmen stehen vor der Herausforderung, das eigene (Kern-)Geschäft weiterzuentwickeln sowie eine deutlichere Orientierung am Kundennutzen zu verfolgen und dennoch die eigene kreative und publizistische Mission beizubehalten. Darüber hinaus gilt es, neue Geschäftsfelder aufzubauen und den Ankauf von Unternehmen oder die Beteiligung an Start-ups voranzutreiben. Der dabei erforderliche Spagat zwischen strategischen und finanziellen Zielen sowie die operative Umsetzung stellen eine beachtliche Herausforderung dar.
Die Branchenexperten analysieren in ihren Beiträgen die vielfältigen Potenziale sowie konkrete Maßnahmen und Best Cases. Dabei kommen Medieninsider und medienunabhängige Experten zur Sprache, die die Change-Strategien, -Maßnahmen und -Fallstudien beleuchten und neue Gestaltungsmöglichkeiten aufzeigen.
Dass die digitale Transformation als generelles Thema für alle Gesellschafts- und Wirtschaftsbereich von Bedeutung ist, und gerade für den Mittelstand und zahlreiche Hidden Champions eine besondere Herausforderung darstellt, wurde in den vorausgehenden Unterkapiteln bereits deutlich. In diesem Unterkapitel geht es um die konkrete Umsetzung der digitalen Transformation in diesen Branchen- und Unternehmenssegmenten, wo von den Geschäftsmodellen und den dazugehörigen Kundensegmenten bis hin zur Unternehmens- und Führungskultur Veränderungen erforderlich sind. Diese Felder der Transformation im Sinne von Entwicklung und Change gilt es für einen erfolgreichen Transformationsprozess zu identifizieren und aufeinander abzustimmen.
Neue konzeptionelle Entwicklungen wie Industrie 4.0 gelten in vielen Fällen als Domäne von jungen, kleinen Unternehmen, die im Sinne einer Start-Up-Kultur auf Innovationen fokussiert sind oder als Themenfeld von Großunternehmen, die mit Hilfe von Forschungs- und Entwicklungsabteilungen und eigenen Engineering-Ansätzen sowie einem großen Budget in der Lage sind, größere Projekte zu testen und eigene Konzepte zu entwickeln. Da die deutsche Wirtschaft und Gesellschaft stark von den erfolgreichen Entwicklungen des Mittelstands abhängt, der eine Schlüsselstellung für die diversifizierte Wirtschaft und eine robuste Entwicklung des Wohlstands besitzt, kommt der hier behandelten Frage, wie mittelständische Unternehmen mit der digitalen Transformation und der Herausforderung von Industrie 4.0 zurechtkommen, eine zentrale Rolle zu.
In diesem Kapitel geht es um die Frage, was unter dem Buzz-Word Industrie 4.0 zu verstehen ist und was nicht. Industrie 4.0 kann dabei unter gesellschaftlichen, kompetenzorientierten, produktionsorientierten oder verhaltensorientierten Gesichtspunkten unterschiedlich interpretiert werden. Die Umsetzung in Deutschland hat sich dabei vom politischen Konstrukt zur technisch-wirtschaftlichen Entwicklung im Rahmen der digitalen Transformation gewandelt.
Dieses Buch erläutert die allgemeinen Rahmenbedingungen von Industrie 4.0 und bietet innovativen KMUs im Industriesektor wertvolle Impulse.
Industrie 4.0 als Herzstück der digitalen Transformation vieler Produktionsbetriebe liefert ein sehr heterogenes Bild bezüglich der Umsetzung. Die Unterschiede in den organisatorischen Bedingungen liegen im Innovationsgrad der jeweiligen Organisation und lassen sich an der Nachhaltigkeit der Investitionen und dem damit verbundenen mittel- bis langfristigen Markterfolg festmachen.
Das Buch zeigt konkrete Umsetzungsbeispiele auf und beschreibt unter anderem Anwendungsszenarien von praxiserfahrenen und innovativen Ingenieur*innen im Maschinenbau und in der Medizintechnik. Zudem vermittelt es einen grundsätzlichen Überblick über Digitalstrategien und Anwendungsfelder von Industrie 4.0.
Es richtet sich gleichermaßen an Interessierte, Studierende sowie Praktiker aus den Themenfeldern Technologie, Ingenieurwesen und Management.
Dieses Fachbuch hat die Funktion einer fachlich fundierten und praxisnahen Überblicksdarstellung über die Möglichkeiten des Einsatzes von Social Media und Messenger-Diensten im kommunalen Bereich. Social Media sind insbesondere als Instrument für den Dialog mit der Bürgerschaft geeignet, was eine gezielte Analyse von Kommunikationsanlässen und Dialogbedürfnissen im kommunalen Sektor erfordert.
Um das volle Potenzial sozialer Medien ausschöpfen sowie zeitnah und dezentral kommunizieren zu können, müssen die daraus resultierenden Anforderungen an die Organisationskultur und Führungsstruktur berücksichtigt werden. Das Handbuch liefert den theoretischen Hintergrund und die dazugehörige praktische Umsetzung, um die notwendigen Handlungsfelder der kommunalen Kommunikation mithilfe von Social Media und Messenger-Diensten erschließen zu können.
The use of architectural models is a long-proven method for the visualization of designs. More recently, powerful 3D printers have enabled the rapid and cost-effective additive manufacturing (AM) of textured architectural models. The use of AM technology to sample terraced houses in a specific use case (sampling center with more than 1200 customers per year) is examined within this contribution. The aim is to offer customers with limited spatial imagination assistance in the form of detailed architectural models of the whole house, which are divided into different modules. For this purpose, the structure of the terraced house is first analysed and examined for flexible design elements. The implementation of different variants of each floor should serve as a basis for the customer's decision on design and equipment. Thus, the architectural models are additively manufactured using Polyjet modeling. The necessary CAAD-data and interfaces, the technical possibilities and limits of this approach as well as the resulting costs are analyzed. The results of the AM process are evaluated to determine their applicability for the sampling of terraced houses. In addition, the evaluation will show that the additively manufactured architectural models will allow a more precise visualization of the building and thus a faster understanding of the design choices.
Ein Testsystem zum Prüfen neuer Komponenten elektromagnetischer Positionsmesssysteme soll durch eine Eigenkalibrierung des gesamten Systems stetig auf seine Genauigkeit geprüft werden, sodass nur noch eine periodische Rekalibrierung des Referenzgerätes erforderlich ist. Mittels Signal-Routing Software soll über die nationale Instrumentenkarte PCIe-6509 des Computers Spannungssignale an eine Hardware Under Test geleitet werden. Über diese Signale können Transistoren auf der Hardware angesteuert werden, die jeweils einem Relais Spannung übergeben können. Je nachdem welches Relais durchgeschalten werden soll, kann der Messwiderstand des gesamten Testsystems oder das Testsystems kalibriert werden. Um tatsächlich Kalibrierungen durchzuführen, wird eine Software erstellt. Mit der Software können die zu benutzenden Gerätschaften eingelesen und über eine Benutzeroberfläche eine Toleranzprüfung der Komponenten vollzogen werden. Hier gilt es eine Toleranzprüfung für den Messwiderstand zu erstellen und den Code dann auf Komponenten des Testsystems zu erweitern. Dafür wird ein kalibriertes Referenzmessgerät benötigt. Dabei wird ein Digitalmultimeter DAQ6510 verwendet, das über ein Multiplex Modul 7708 mit der Hardware verbunden wird. Um später Komponenten des Testsystems wie Frequenz kalibrieren zu können, wird ebenfalls ein Funktionsgenerator integriert und die Software-Codes darauf erweitert. Besteht das Grundkonzept, werden Funktionstests mit einer Messsystemanalyse erbracht und die Leistungsfähigkeit des Konstruktes beurteilt. Anschließend können neue Entwicklungsansätze und Optimierungskonzepte für weitere Abschlussarbeiten erstellt werden.
Ziel der Investitionsmaßnahme Enerlab 4.0 war die Bereitstellung einer umfangreichen in-operando und post-mortem Diagnostik für dezentrale Energieerzeuger und -Speicher, z. B. Batteriezellen und Photovoltaikzellen. Diese sind wichtige Komponenten für verschiedene Bereiche der Industrie 4.0 – von autonomen Sensoren über energieautarke Produktion bis hin zur Qualitätskontrolle. Zu diesem Zweck wurde die apparative Ausstattung der Hochschule Offenburg erweitert, und zwar sowohl für in-operando Diagnostik (elektrische Zyklierer, Impedanzspektrometer, Temperaturprüfschränke) als auch für post-mortem Diagnostik (Glovebox, Probenpräparationen für vorhandene Werkstoffanalytik und chemische Analytik). Be-reits vorhandene Geräte aus anderen laufenden oder abgeschlossenen Projekten wurden in die neue Infrastruktur integriert. Im Ergebnis entstand ein modernes und leistungsfähiges Batterie- und Photovoltaiklabor, welches in zahlreichen laufenden und neuen Vorhaben genutzt wird.
Um mit einer Marketing- oder Werbemaßnahme erfolgreich zu sein, muss ein Unternehmen die Bedürfnisse und Wünsche der anzusprechenden Zielgruppen kennen. Da
die Generation Z in den kommenden Jahren im Vergleich zu vorangegangenen Generationen einen immer größeren Anteil der Weltbevölkerung und somit der zukünftigen
Konsument*innen ausmachen wird, stellt sie die Zielgruppe der Zukunft dar. Für diese
Generation ist der Umgang mit dem Internet, Smartphones und Apps alltäglich und hat
sich in ihrem Leben bereits fest etabliert. Die vorliegende Bachelorarbeit behandelt basierend auf dieser Tatsache die Frage, ob Mitglieder der Generation Z noch von klassischer Werbung erreicht werden können und wie ein Unternehmen die eigenen Werbemaßnahmen gestalten sollte, um die Generation Z anzusprechen. Damit Rückschlüsse
auf die zielgruppengerechte Marketingkommunikation eines Unternehmens mit der Generation Z gezogen werden konnten, wurden Werke der Fachliteratur und nationale sowie internationale Studien über das Konsument*innenverhalten der Generation Z herangezogen. Um die Erkenntnisse der Literaturrecherche zu untermauern, wurde zusätzlich eine Gruppendiskussion mit Vertreter*innen der Generation Z durchgeführt. Die
qualitative Studie manifestierte die im Theorie-Teil herausgearbeiteten Informationen
und half somit maßgeblich bei der Beantwortung der Forschungsfragen. Im Rahmen
dieser Arbeit konnte festgestellt werden, dass die Generation Z grundsätzlich nicht mehr
von klassischer Werbung erreicht wird, da sie klassische Medien nur noch selten nutzt.
Um Mitglieder der Generation Z als Zielgruppe für sich zu gewinnen, bedarf es einer
Marketingkommunikation, die vorwiegend online und bestenfalls über Social Media
stattfindet und die Konsument*innen individuell mit relevanten Inhalten anspricht.
Diese Arbeit beschäftigt sich mit der Dynamik der Konsensbildung in sozialen Netzwerken mit unterschiedlichen Strukturen. Dafür wird mittels des Naming Games die Kommunikation mit dem Ziel der Konsensbildung simuliert und analysiert. Es geht dabei um die Frage, welchen Einfluss die unterschiedlichen Netzwerkstrukturen auf die Dynamik der Simulationen haben. Neben den unterschiedlichen Netzwerkstrukturen werden weitere Faktoren gesucht und analysiert, welche die Dynamik der Konsensfindung beeinflussen. Dafür werden die Simulationen unter bestimmten Parametern und Eigenschaften mehrfach wiederholt. Aus diesen mehrfachen Durchführungen wird eine repräsentative Simulation ausgewählt und untersucht. Hinsichtlich der Frage nach dem Einfluss der Netzwerkstruktur auf die Dynamik, konnte festgestellt werden, dass die Dichte des dem Netzwerk zugrundeliegenden Graphen einen erheblichen Einfluss auf die Effizienz der Kommunikation hat. Mit steigender Dichte steigt auch die Effizienz der Kommunikation. Zudem konnten zwei weitere wesentliche Einflussfaktoren ausgemacht werden: sogenannte Autoritäten und Announcements. Bei Autoritäten handelt es sich um Teilnehmer, welche besonders viele weitere Teilnehmer der Simulation kennen und bei Announcements handelt es sich um eine Form der Kommunikation, die zu einem Zeitpunkt zwischen mehr als zwei Teilnehmern stattfinden kann. Das Hinzufügen dieser Parameter führt wieder zu einer veränderten, effizienteren Dynamik.
Die vorliegende Abschlussarbeit wurde intern an der Hochschule Offenburg angefertigt. Gegenstand der Untersuchung ist der Einsatz von cloudbasierten Business-Intelligence-Systemen in der Lehre.
Die Arbeit befasst sich zu Beginn mit der Anbindung einer externen Datenquelle in SAP Data Warehouse Cloud (DWC). Diese basiert auf einer relationalen Datenbank. Hierfür wer- den drei unterschiedliche Lösungen untersucht und miteinander verglichen. Außerdem werden Lernszenarien für die Arbeit mit der SAP Analytics Cloud (SAC) entworfen. Die Lernszenarien beinhalten jeweils ein Vertriebsdashboard, welches zuvor konzipiert und in SAP Analytics Cloud (SAC) implementiert wird. Die Dashboards sollen durch das Absolvieren von Lernszenarien durch Studierende an der Hochschule Offenburg unter Einhaltung von Prinzipien guter Visualisierung nachgebaut werden. Beide Produkte von SAP sind momentan Teil von Laboren an der Hochschule Offenburg, um Prinzipien von Business Intelligence (BI) praktisch anzuwenden. Mit Hilfe von SAP Data Warehouse Cloud (DWC) wird ein Datenmodell entworfen. Dieses wird in SAP Analytics Cloud (SAC) verwendet, um die Daten zu visualisieren. Die Grundlage für die Arbeiten bilden die Daten der Global Bike Group. Hierbei handelt es sich um eine Referenzfirma von SAP, die es ermöglicht, anhand von geschäftlichen Testdaten einen Eindruck von den Funktionen der SAP-Produkte zu erlan- gen.
Die Arbeit orientiert sich an zwei Forschungsfragen. Die erste Forschungsfrage behandelt die Anbindung einer Datenquelle in SAP Data Warehouse Cloud (DWC). Die zweite Forschungsfrage betrifft den Entwurf von Lernszenarien mit unterschiedlichem Umfang und unterschiedlicher Zielgruppe in SAP Analytics Cloud (SAC). Beide Fragen konnten erfolg- reich beantwortet werden. Die Ziele der Arbeit wurden erreicht
Alle Materie strebt nach maximaler Unordnung. Diese Erkenntnis wird durch die thermodynamische Funktion der Entropie beschrieben. Auch bei jeglicher Art menschlichen Handelns wird die Entropie immer erhöht. Wird in der Technik Materie in geordnete Formen gebracht (z. B. beim Herstellen von Pfandflaschen), findet in diesem Produkt eine Entropieerniedrigung statt. Gleichzeitig wird aber an anderer Stelle die Unordnung beträchtlich vergrößert. Diese Entropieerhöhung nennen wir Abfall. Jede Entropieerhöhung ist mit dem Verbrauch wertvoller Ressourcen verbunden. Durch eine optimale Recyclingtechnik kann einer Entropieerhöhung von Materie entgegengearbeitet werden. Aber nur Recyclingraten von über 90 % erlauben eine wirksame Streckung der Ressourcen.
Electrochemical pressure impedance spectroscopy (EPIS) has recently been developed as a potential diagnosis tool for polymer electrolyte membrane fuel cells (PEMFC). It is based on analyzing the frequency response of the cell voltage with respect to an excitation of the gas-phase pressure. We present here a combined modeling and experimental study of EPIS. A pseudo-twodimensional PEMFC model was parameterized to a 100 cm2 laboratory cell installed in its test bench, and used to reproduce steady-state cell polarization and electrochemical impedance spectra (EIS). Pressure impedance spectra were obtained both in experiment and simulation by applying a harmonic pressure excitation at the cathode outlet. The model shows good agreement with experimental data for current densities ⩽ 0.4 A cm−2. Here it allows a further simulative analysis of observed EPIS features, including the magnitude and shape of spectra. Key findings include a strong influence of the humidifier gas volume on EPIS and a substantial increase in oxygen partial pressure oscillations towards the channel outlet at the resonance frequency. At current densities ⩾ 0.8 A cm−2 the experimental EIS and EPIS data cannot be fully reproduced. This deviation might be associated with the formation and transport of liquid water, which is not included in the model.
Abstract: Transthoracic impedance cardiography measurements with different monitoring devices
(2016)
Transthoracic impedance cardiography (ICG) is a non-invasive method for determination of hemodynamic parameters. The basic principle of transthoracic ICG is the measurement of electrical conductivity of the thorax over the time. The aim of the study was the analysis of hemodynamic parameters from healthy individuals and the evaluation of various hemodynamic monitoring devices. Fourteen men (mean age 25 ± 4.59 years) and twelve women (mean age 24 ± 3.5 years) were measured during the cardiovascular engineering laboratory at Offenburg University of Applied Sciences, Offenburg, Germany. The ICG recordings were measured with the devices CardioScreen 1000, CardioScreen 2000 and TensoScreen with the corresponding Software Cardiovascular Lab 2.5 (Medis Medizinische Messtechnik GmbH, Illmenau, Germany). In order to create identical frame conditions, all measurements were recorded in the same position and for the same duration. Various positions were simulated from horizontal lying position to vertical standing position. Altogether, more than 30 hemodynamic parameters were measured.
In contrast to conventional aortic valve replacement, the Transcatheter Aortic Valve Implantation (TAVI) is a new highly specialist alternative to surgical valve replacement for patients with symptomatic severe aortic stenosis and high operative risk. The procedure was performed in a minimally invasive way and was introduced at the university heart centre, Freiburg – Bad Krozingen in 2008. The results have been getting better and better over the years. The aim of the investigation is the analysis of electrocardiogram conduction time and the electrocardiography changes recorded hours and days after the procedure depending on artificial heart valve models, which may lead to pacemaker implantation, even the analysis of the effectiveness of treatment.
The present invention relates to open-loop and closed-loop control units for extracorporeal circulatory support, to systems comprising such an open-loop and closed-loop control unit, and to corresponding methods. An open-loop and closed-loop control unit (10) for extracorporeal circulatory support is proposed, which is configured to receive a measurement of an ECG signal (12) of a supported patient over a predefined period of time, wherein the ECG signal (12) comprises multiple data points for each time point within a heart cycle. The open-loop and closed-loop control unit (10) comprises an evaluation unit (100) which is configured to evaluate the data points for at least one time point in a spatial and/or temporal manner and to determine at least one amplitude change (14) within the heart cycle based on the evaluated data points. The open-loop and closed-loop control unit (10) is further configured to output an open-loop and/or closed-loop signal (16) for extracorporeal circulatory support at a predefined point in time after the at least one amplitude change (14).
The present invention relates to open-loop and closed-loop control units for extracorporeal circulatory support, to systems comprising such an open-loop and closed-loop control unit, and to corresponding methods. An open-loop and closed-loop control unit (10) for extracorporeal circulatory support is proposed, which is configured to receive a measurement of an ECG signal (12) of a supported patient over a predefined period of time, wherein the ECG signal (12) comprises multiple data points for each time point within a heart cycle. The open-loop and closed-loop control unit (10) comprises an evaluation unit (100) which is configured to evaluate the data points for at least one time point in a spatial and/or temporal manner and to determine at least one amplitude change (14) within the heart cycle based on the evaluated data points. The open-loop and closed-loop control unit (10) is further configured to output an open-loop and/or closed-loop signal (16) for extracorporeal circulatory support at a predefined point in time after the at least one amplitude change (14).
Die Veränderung von biomechanischen Risikofaktoren für Laufverletzungen bei laufinduzierter Ermüdung
(2021)
In dieser Arbeit wird die Veränderung von biomechanischen Risikofaktoren für Laufverletzungen bei laufinduzierter Ermüdung thematisiert. Ziel dieser Arbeit ist es daher zum einen den Haupteffekt der Laufdistanz auf die abhängigen Variablen (Risikofaktoren) mittels einer Varianzanalyse zu untersuchen und zum anderen zu ermitteln ab wann im Detail es innerhalb der 10 km-Laufdistanz zu einer signifikanten Veränderung im Vergleich zum nicht ermüdeten Zustand kommt.
Unternehmen verfolgen seit Jahren das Ziel, Marketingkampagnen online zur Vermarktung ihrer Produkte einzusetzen. Um einen wachsenden Umsatz zu generieren, greifen sie insbesondere auf das E-Mail-Marketing und Newsletter als Instrument zurück. Viele lassen dabei allerdings trotz der regelmäßigen Versendung von E-Mails Optimierungsbedarf entstehen. Daher ist es notwendig zu verstehen, wie solche Newsletter-Kampagnen konzipiert sind und wie sie funktionieren.
Das Ziel in der vorliegenden Arbeit ist es zu beantworten, welche Faktoren für eine gelungene Kampagne beachtet werden sollten und aus diesen einen übersichtlichen Leitfaden zu generieren. Dazu wird die folgende Forschungsfrage gestellt: Inwiefern kann das E-Mail-Marketing und der Newsletter genutzt werden, um die B2C Ziele des Unternehmens erfolgreich zu erfüllen und gleichzeitig die Empfänger und Empfängerinnen zufrieden zu stellen?
Um die Forschungsfrage zu beantworten, wurde eine Literaturrecherche sowie eine qualitative Studie in Form eines Experteninterviews durchgeführt. Die theoretische Literaturrecherche unter-suchte, welche Kriterien bei den jeweiligen Prozessschritten erfüllt sein müssen, damit diese den Nutzenden zufriedenstellt. In der qualitativen Studie waren den teilnehmenden Fachleuten offene Fragen zum E-Mail-Marketing Prozess gestellt worden, die im Anschluss ausgewertet wurden. Dadurch wurden die vorab gewonnenen Kenntnisse auf ihre Anwendbarkeit in der Praxis validiert.
Die Recherche und Interview-Aussagen zeigen, dass die Erfolgsfaktoren in allen Prozessschritten verteilt liegen. Besonders die Planung und die Konzeption der Werbemittel haben einen großen Anteil an der Zufriedenheit von Empfangenden Personen. Neben der Einhaltung der Gesetzlage liegt der Fokus auf einer unternehmensspezifischen Zielsetzung und einer umfangreichen Ziel-gruppenanalyse. Adressen variieren in der Qualität und können unterschiedlich generierbar sein. Sie sollten vor der Nutzung und unabhängig von dem Ursprung validiert werden. Bei der Gestal-tung empfiehlt sich der Einsatz von interessanten Texten, emotionalen Bildern und gut platzierten Call-to-Actions. Die Nutzung einer Personalisierung und Individualisierung erhöht die Aufmerksam-keit und die E-Mail sollte abschließend getestet werden. Grundsätzlich muss für eine inhaltliche Relevanz für den Nutzenden gesorgt sein. Hinsichtlich des Versands sollten Frequenz und Zeit-punkt an die individuellen Zielgruppen angepasst werden. Der Einsatz einer Blacklist vor dem Ver-sand und die Aufnahme in eine Whitelist führen beide zu einer verbesserten Resonanz auf Kun-denseite. Ein erfolgreiches Controlling besteht, neben der Vielzahl an Kennzahlen, vor allem aus einem transparenten Tracking dieser. Nur durch ein Zusammenspiel beider kann die Zielerreichung realistisch betrachtet werden. Die regelmäßige Bereinigung des Adressverteilers von Abmeldern und nicht erreichbaren Adressen, sowie das zielgerichtete Anschreiben von Nicht-Reagierern er-höhen die Performance. Software wirkt dabei unterstützend und sollte genutzt werden
Weiterführende Forschung im E-Mail-Marketing Marketings für Newsletter könnte auf eine noch genauere Betrachtung des Controllings oder der Zielgruppenanalyseausgerichtet sein.
Die vorliegende Erfindung betrifft Steuer- und Regeleinheiten für eine extrakorporale Kreislaufunterstützung sowie Systeme, umfassend eine solche Steuer- und Regeleinheit und entsprechende Verfahren. Entsprechend wird eine Steuer- und Regeleinheit (10) für eine extrakorporale Kreislaufunterstützung vorgeschlagen, welche dazu eingerichtet ist eine Messung eines EKG-Signals (12) eines unterstützten Patienten über einen vorgegebenen Zeitraum zu empfangen und für die extrakorporale Kreislaufunterstützung bereitzustellen, wobei das EKG-Signal (12) für jeden Zeitpunkt innerhalb eines Herzzyklus eine Signalhöhe aus mindestens einer EKG-Ableitung (14A, 14B) umfasst. Die Steuer- und Regeleinheit (10) umfasst eine Auswerteeinheit (16), welche dazu eingerichtet ist, eine Signaldifferenz (18) einer Signalhöhe eines aktuellen Zeitpunkts (12A) und einer Signalhöhe des vorhergehenden Zeitpunkts (12B) zu bestimmen und die Signaldifferenz (18) mit einem vorgegebenen Schwellenwert (20) zu vergleichen. Die Steuer- und Regeleinheit (10) ist weiterhin dazu eingerichtet, das EKG-Signal (22) beim Überschreiten des Schwellenwerts (20) für den aktuellen Zeitpunkt und eine vorgegebene Anzahl von nachfolgenden Zeitpunkten (28) mit einer vorgegebenen Signalhöhe (30) bereitzustellen.
Die vorliegende Erfindung betrifft Steuer- und Regeleinheiten für eine extrakorporale Kreislaufunterstützung sowie Systeme, umfassend eine solche Steuer- und Regeleinheit und entsprechende Verfahren. Entsprechend wird eine Steuer- und Regeleinheit Steuer- und Regeleinheit (10) für eine extrakorporale Kreislaufunterstützung vorgeschlagen, welche dazu eingerichtet ist eine Messung eines EKG-Signals (12) eines unterstützten Patienten über einen vorgegebenen Zeitraum zu empfangen, wobei das EKG-Signal (12) für jeden Zeitpunkt innerhalb eines Herzzyklus mehrere Datenpunkte umfasst. Die Steuer- und Regeleinheit (10) umfasst eine Auswerteeinheit (100), welche dazu eingerichtet ist, die Datenpunkte für mindestens einen Zeitpunkt räumlich und/oder zeitlich auszuwerten und aus den ausgewerteten Datenpunkten mindestens eine Amplitudenänderung (14) innerhalb des Herzzyklus zu bestimmen. Die Steuer- und Regeleinheit (10) ist weiterhin dazu eingerichtet, ein Steuer- und/oder Regelsignal (16) für die extrakorporale Kreislaufunterstützung an einem vorgegebenen Zeitpunkt nach der mindestens einen Amplitudenänderung (14) auszugeben.
The aim of the essay is to identify current trends in infrastructure financing in times of net zero, crucial challenges, and solutions to overcome these issues. To gain information, a fundamental literal research, and interviews with infrastructure financing specialists of development banks were conducted. The growing importance of climate aspects for financing decisions, the changing sources of infrastructure funding and the increased role of Multilateral Development Banks (MDBs) can be listed as the most important trends. The main challenges are the financing gap for infrastructure, the high investment risks and a lack of standards, and policies regarding climate neutrality. To overcome these challenges, innovative financing solutions and the merging of public and private funding have been identified as potential solutions.
This paper examines and evaluates the challenges and opportunities of export credit agencies (ECA) in the Middle East and North Africa (MENA) region. Political risks, unrest and instability made exports in the MENA region arduous. Further challenges are demonetization, the lack of reliable information and the acquisition of skilled employees. Access to financial resources can be quite challenging and several ECAs in the MENA region struggle from having no economies of scale. The global trend of globalisation and digitalisation has proved to be both a challenge and an opportunity. Nevertheless, the ECAs are becoming progressively important and needed in the MENA region. ECAs can benefit from this by working closely with financial institutions, banks and stakeholders. Other opportunities are infrastructure, renewable energies, international events and the diversification of the product portfolio. Through research on the ECAs EGE, ECI, Credit Oman and ICIEC, differences of multilateral and national export credit agencies have been analysed as well.
The aim of this essay is to point out the challenges and opportunities of government export credits and insurance in Europe. The Covid-19 pandemic confronted the entire world with new challenges. This also applied to the export financing and insurance market. Furthermore, there are also challenges that play a major role for ECAs regardless of the pandemic. However, the risks are also offset by opportunities that may enable European export credit agencies to prevail against international competition.
The focus of this essay is on the export credit agencies from Finland (Finnvera), Sweden (EKN) and Portugal (COSEC). As part of the European Union (EU) and the Organisation for Economic Co-operation and Development (OECD) the three ECAs share many fundamental similarities but in some points they may also distinguish from each other.
The aim of this essay is to give an overview about recent developments of the government innovation funds of Sweden and Finland. In order to discover recent developments basic knowledge regarding innovation funds, funding structures and information about the two big funding agencies Vinnova Sweden and Business Finland is presented. Building on this information, the developments of the two funding agencies are compared and examined for similarities and differences. Both countries have a very similar structure in terms of the R&D sector and are striving with the same issues. Just as sustainability is a leading issue, the collaboration between the different shareholders is another main challenge. Both topics were negatively affected by the COVID-19 pandemic. Both Sweden and Finland had to really push forward innovation with financial support and political, strategic goals. Even though there are strong recent developments, the countries are facing the same challenges, do have similar funding structures and therefore have no big comparative strengths or weaknesses to each other.
Innovation Policies and Government Instruments – An illustration of Israel’s innovation system
(2021)
The aim of this paper is to introduce innovation policy measures, government instruments and conceptual approaches to promote innovation growth. Since Israel is increasingly establishing itself as a pioneer for innovation, this paper mainly refers to their innovation policy. This paper will explain why Israel's innovation policy is successful and which actors play a particularly important role in it. Using semi-structured interviews, government experts like the Israel Innovation Authority as well as companies like Bosch were asked about Israel’s national innovation system and its success which allowed diverse perspectives on the topic.
The aim of this essay is to give a systematic review of the literature. Climate change is omnipresent and manifests itself in a steady increase in global warming. This trend was triggered as a reaction to increasing emissions in the course of industrialization. Climate finance is generally understood to be the provision of public, private, and alternative sources of finance that represent measures to mitigate and adapt to climate change. Significant commitments to support developing countries by developed countries have been manifested in the UNFCC climate framework and the Paris Climate Agreement. Funding from public and private sources increased to a total of $540 billion in 2019. Whether multilateral or bilateral, the largest share is provided in the form of loans to the target countries.
Germany was considered the world's export champion for a long time, until it was overtaken by China in 2009. Both nations provide officially supported export credits to national exporting organizations, but the two systems operate differently. German export credit guarantees serve as a substitute when the private market is unable to assume the risks of exporting companies. The German Export Credit Agency Euler Hermes is responsible for processing applications on behalf of the Federal Government. China belongs to the largest providers of export finance with the institutions China EXIM and Sinosure. While Germany is bound by the OECD consensus, which defines the level playing field, Chinese export credit agencies have greater flexibility not being bound by international rules or agreements.
Disruptive innovations can solve major global challenges. However, the system in Germany does not sufficiently favor the development of such innovations. The disruptive output of leading nations like the United States puts increasing pressure on Germany’s innovation leadership. The German innovation agency SPRIND was founded in 2019 and is a suitable instrument to promote disruptive innovations. The SPRIND itself cites the American innovation agency DARPA, which has been promoting disruptive innovations since 1958, a role model. Therefore, the aim of this paper is to conduct a comparative analysis of DARPA and SPRIND. To answer the research question, secondary sources were used. In addition, two expert interviews were conducted with employees of SPRIND. The result of this paper is a systematic comparison that identifies the key differences and similarities between the two agencies. SPRIND is based on DARPA in key success factors, such as the person-centered approach, funding instruments or risk management. However, compared to DARPA, SPRIND has a major disadvantage; namely several administrative hurdles which inhibit agile action.
Supporting the COVID-19 response in Asia and the Pacific—The role of the Asian Development Bank.
(2020)
The COVID-19 pandemic has affected all countries of the Asia Pacific region over the last few months with far reaching economic, health and social consequences. To counter the impact, governments have accelerated their health spending and announced large macroeconomic stabilization and stimulus policy packages. As with past disasters and crises in the region, the Asian Development Bank has reacted with a number of targeted support interventions since the very early stages of the outbreak. In mid- April 2020, the Bank then put forward a comprehensive COVID-19 Response Package totalling $20 billion to support its member countries which rests on four pillars.
The last few months have proven that multilateral development banks like the Asian Development Bank have the ability to respond quickly and to mobilize significant resources for a global emergency like COVID-19. Whilst this financial supported is urgently needed at this point, attention will need to be paid on how debt sustainability for low- and middle-income countries can be ensured in the coming years. Given the unprecedented scale of and uncertainty around the COVID-19 pandemic, it may offer a window of opportunity to redesign the way developmental finance is coordinated and the way it is delivered. This also includes a chance to “build back better” and to focus on a sustainable, resilient and green recovery.
If the current situation could be described in one word, it would be ‘uncertainty’. In times of global crisis, it is important to support the economy to keep businesses alive. Therefore, this paper shows the Finnish government measures and how exporters can benefit from them. Looking in particular at the maritime sector, the research pointed out that there were not that many specific measures for exporters and shipbuilders. This essay detected that the provided measures are suitable for the needs of the affected companies and are an effective instrument by the government to stabilise the industry. This is proved by the number of companies taking advantage of these loans, grants and guarantees. Due to the already mentioned uncertainty, it remains unclear how measures have to be adjusted in the future.
Africa was the last region to witness significant spread of the COVID-19. Nonetheless, it was expected that the continent would be hardest hit due to the fragility of its health and social infrastructure as well as the vulnerability of its economies. While the rates of infection and death were initially relatively low and contained economically, the continent was hard hit early on. Cuts in credit and trade services by international banks, along with a decline in export earnings, tourism receipts, and inward remittances, have severely constrained the ability of African countries to finance imports of essential goods and to service maturing debt obligations.
However, Africa has over time created mechanisms and institutions to help cushion its economies from the adverse consequences of global shocks. Among these institutions is Afreximbank, which emerged out of the debt crisis of the 1980s. This paper presents an overview of the Bank’s support to African countries in dealing with two major derivatives of the COVID-19 pandemic: the trade finance challenges resulting from cuts in international financial flows to the continent, and the health consequences of the pandemic.
This book, now in its third, completely revised and updated edition, offers a critical approach to the challenging interpretation of the latest research data obtained using functional neuroimaging in whiplash injury. Such a comprehensive guide to recent and current international research in the field is more necessary than ever, given that the confusion regarding the condition and the medicolegal discussions surrounding it have increased further despite the publication of much literature on the subject. In recent decades especially the functional imaging methods – such as single-photon emission tomography, positron emission tomography, functional MRI, and hybrid techniques – have demonstrated a variety of significant brain alterations. Functional Neuroimaging in Whiplash Injury - New Approaches covers all aspects, including the imaging tools themselves and the various methods of image analysis. Details on biomechanics, including the finite element method and facts on historical whiplash experiments and crash tests have now been added to this new edition. The book will continue to help physicians, patients and their relatives and friends, and others to understand this condition as a disease.
In the work at hand, we state that privacy and malleability of data are two aspects highly desired but not easy to associate. On the one hand, we are trying to shape data to make them usable and editable in an intelligible way, namely without losing their initial information. On the other hand, we are looking for effective privacy on data such that no external or non-authorized party could learn about their content. In such a way, we get overlapping requirements by pursuing different goals; it is trivial to be malleable without being secure, and vice versa. We propose four “real-world” use cases identified as scenarios where these two contradictory features are required and taking place in distinct environments. These considered backgrounds consist of firstly, cloud security auditing, then privacy of mobile network users and industry 4.0 and finally, privacy of COVID-19 tracing app users. After presenting useful background material, we propose to employ multiple approaches to design solutions to solve the use cases. We combine homomorphic encryption with searchable encryption and private information retrieval protocol to build an effective construction for the could auditing use case. As a second step, we develop an algorithm to generate the appropriate parameters to use the somewhat homomorphic encryption scheme by considering correctness, performance and security of the respective application. Finally, we propose an alternative use of Bloom filter data structure by adding an HMAC function to allow an outsourced third party to perform set relations in a private manner. By analyzing the overlapping bits occurring on Bloom filters while testing the inclusiveness or disjointness of the sets, we show how these functions maintain privacy and allow operations directly computed on the data structure. Then, we show how these constructions could be applied to the four selected use cases. Our obtained solutions have been implemented and we provide promising results that validate their efficiency and thus relevancy.
Im Jahre 2010 bot die Hochschule Offenburg ein Medizintechnikstudium mit dem Schwerpunkt ’Kardiologie, Elektrophysiologie und elektronische kardiologische Implantate’ als Bachelor- und später auch Masterstudiengang an. Ziel des auf diesen Schwerpunkt ausgelegten didaktischen Lehrkonzeptes ist die Vermittlung sofort anwendungsbereiten theoretischen Wissens und praktischen Könnens, welches die Absolventinnen und Absolventen in ihrer künftigen Berufsausübung in der Industrie oder als technische Partner der behandelnden Ärztinnen und Ärzte in hochspezialisierten klinischen Einrichtungen benötigen.
Aufgrund fehlender kommerzieller Angebote ist zur Umsetzung dieses Lehrkonzeptes die ingenieurtechnische Realisierung geeigneter Lehrmittel zwingend erforderlich. Dies betrifft die hard- und softwareseitige Erstellung visueller Demonstrationsmöglichkeiten für pathologische und implantatinduzierte Herzrhythmen, sowie die synthetische Bereitstellung originalgetreuer elektrokardiographischer Ableitsignale aus der klinischen Routine. Des Weiteren den Aufbau von in-vitro Trainingssystemen zu Therapien mit elektronischen kardiologischen Implantaten sowie zur Hochfrequenz-Katheterablation.
Insbesondere die Wahlfächer ’Programmierung von Herzschrittmachern’ und ‚Programmierung von Defibrillatoren’, deren Besuch den Teilnehmenden einen besonders raschen Berufseinstieg ermöglichen sollte, wurden in didaktischer Hinsicht in engem Bezug zum 4-Komponenten-Instruktionsdesign-Modell der Lehre gestaltet.
Durch den kontinuierlichen Einsatz der Instrumente der formativen Evaluation gelangen sowohl deutliche Verbesserungen am Gesamtkonzept der Lehrveranstaltungen als auch an den dort eingesetzten, selbst realisierten Lösungen des benannten speziellen Lehr- und Trainingsequipments.
Eine summative Evaluation des Lehrkonzeptes ist aufgrund seines Alleinstellungsmerkmals schwierig. Aus diesem Grund erschien die quantitative Prüfung des Einflusses eines Besuchs des praktisch orientierten Wahlfachs ’Programmierung von Herzschrittmachern’ auf die Note der kombinierten Abschlussklausur in den Fächern ’Elektrokardiographie’ und ’Elektrostimulation’ sinnvoll. In diese Evaluation eingeschlossen wurde eine Kohorte von 221 Studierenden, 76 Frauen und 145 Männer, von denen 93 am Wahlfach nicht teilnahmen und 128 die es besucht hatten.
Über 7 zusammengefasste Studienjahre zeigte sich, dass die praktische Ausbildung im Wahlfach ’Programmierung von Herzschrittmachern’ das Leistungsniveau der Studierenden der Medizintechnik in der kombinierten Abschlussprüfung ’Elektrokardiographie und Elektrostimulation’ deutlich beeinflusste.
Das im Rahmen dieser Arbeit mitgestaltete Lehrkonzept, die realisierten Lehrmaterialien und Lehrumgebungen wurden im Bachelor- und Masterstudiengang der Medizintechnik an der Hochschule Offenburg in den Praktika, Seminaren und Vorlesungen des Schwerpunktes ’Kardiologie, Elektrophysiologie und elektronische kardiologische Implantate’ vielfältig genutzt. Sie ermöglichten die Gestaltung interaktiver praktischer Weiterbildungsveranstaltungen für ärztliches und mittleres medizinisches Personal und für auf diesen Gebieten tätige medizintechnische Firmen.
In previous work we [1] and other authors (e.g. [2]) have shown that agent-based systems are successful in optimizing delivery plans of single logistics companies and are meanwhile successfully productive in industry. In this paper we show that agent-based systems are particularly useful to also optimize transport across logistics companies. In intercompany optimization, privacy is of major importance between the otherwise competing companies. Some data has to be treated strictly private like the cost model or the constraint model. Other data like order information has to be shared. However, typically the amount of orders released to other companies has also to be limited. We show that our agent-based approach can be easily fine tuned to trade off privacy against the benefit of cooperation.
The transition from college to university can have a variety of psychological effects on students who need to cope with daily obligations by themselves in a new setting, which can result in loneliness and social isolation. Mobile technology, specifically mental health apps (MHapps), have been seen as promising solutions to assist university students who are facing these problems, however, there is little evidence around this topic. My research investigates how a mobile app can be designed to reduce social isolation and loneliness among university students. The Noneliness app is being developed to this end; it aims to create social opportunities through a quest-based gamified system in a secure and collaborative network of local users. Initial evaluations with the target audience provided evidence on how an app should be designed for this purpose. These results are presented and how they helped me to plan the further steps to reach my research goals. The paper is presented at MobileHCI 2020 Doctoral Consortium.
Das Virtuelle Informatiklabor soll Schülern und Studierenden den übergroßen Respekt vor dem Fach Informatik nehmen und sie beim Lernen der Inhalte unterstützen. Zu diesem Zweck werden grundlegende Algorithmen der Informatik anhand konkreter Aufgabenstellungen in interaktiven Anwendungen behandelt, um den Lernenden das explorative Erkunden zu ermöglichen. Animationen sollen das Verstehen fördern, Experimente das eigenständige, durch vielfältige Hilfen unterstützte Anwenden und Umsetzen des Gelernten. Der erste Themenbereich im Virtuellen Informatiklabor umfasst die Rekursion, die in mehreren Anwendungen präsentiert wird.
Das tiefe Lernen und die daraus entstehenden Technologien bieten eine neue Herausforderung für Unternehmen und privat Personen beiderlei. Deepfakes sind schon seit über vier Jahren im Internet verbreitet und in dieser Zeit wurden hauptsächlich politische Figuren Opfer der Technologie. Diese Arbeit nimmt sich das Ziel, die möglichen Attacken zu beschreiben und Gegenmaßnahmen dafür vorzustellen. Es wird zunächst Social Engineering erläutert und die technischen Grundlagen von Deepfakes gelegt. Daraufhin folgt ein Fallbeispiel, welches genauer aufzeigt, wie auch Unternehmen Opfer von Deepfake Attacken werden können. Diese Attacken fügen einen erheblichen finanziellen sowie Reputationsschaden an. Daher müssen verschiedene technische und organisatorische Maßnahmen gegenüber Deepfakes im Social Engineering Umfeld eingeführt werden. Durch die ständige Entwicklung der Technik werden diese Attacken in der Zukunft an Komplexität und Häufigkeit zunehmen. Unternehmen, Forscher und IT-Sicherheitsspezialisten müssen daher die Entwicklung dieser Attacken beobachten.
Subspace clustering aims to find all clusters in all subspaces of a high-dimensional data space. We present a massively data-parallel approach that can be run on graphics processing units. It extends a previous density-based method that scales well with the number of dimensions. Its main computational bottleneck consists of (sequentially) generating a large number of minimal cluster candidates in each dimension and using hash collisions in order to find matches of such candidates across multiple dimensions. Our approach parallelizes this process by removing previous interdependencies between consecutive steps in the sequential generation process and by applying a very efficient parallel hashing scheme optimized for GPUs. This massive parallelization gives up to 70x speedup for
the bottleneck computation when it is replaced by our approach and run on current GPU hardware. We note that depending on data size and choice of parameters, the parallelized part of the algorithm can take different percentages of the overall runtime of the clustering process, and thus, the overall clustering speedup may vary significantly between different cases. However, even
in our ”worst-case” test, a small dataset where the computation makes up only a small fraction of the overall clustering time, our parallel approach still yields a speedup of more than 3x for the complete run of the clustering process. Our method could also be combined with parallelization of other parts of the clustering algorithm, with an even higher potential gain in processing speed.
Significant progress in the development and commercialization of electrically conductive adhesives has been made. This makes shingling a very attractive approach for solar cell interconnection. In this study, we investigate the shading tolerance of two types of solar modules based on shingle interconnection: first, the already commercialized string approach, and second, the matrix technology where solar cells are intrinsically interconnected in parallel and in series. An experimentally validated LTspice model predicts major advantages for the power output of the matrix layout under partial shading. Diagonal as well as random shading of a 1.6-m2 solar module is examined. Power gains of up to 73.8 % for diagonal shading and up to 96.5 % for random shading are found for the matrix technology compared to the standard string approach. The key factor is an increased current extraction due to lateral current flows. Especially under minor shading, the matrix technology benefits from an increased fill factor as well. Under diagonal shading, we find the probability of parts of the matrix module being bypassed to be reduced by 40 % in comparison to the string module. In consequence, the overall risk of hotspot occurrence in matrix modules is decreased significantly.
A versatile liquid metal (LM) printing process enabling the fabrication of various fully printed devices such as intra- and interconnect wires, resistors, diodes, transistors, and basic circuit elements such as inverters which are process compatible with other digital printing and thin film structuring methods for integration is presented. For this, a glass capillary-based direct-write method for printing LMs such as eutectic gallium alloys, exploring the potential for fully printed LM-enabled devices is demonstrated. Examples for successful device fabrication include resistors, p–n diodes, and field effect transistors. The device functionality and easiness of one integrated fabrication flow shows that the potential of LM printing is far exceeding the use of interconnecting conventional electronic devices in printed electronics.