Refine
Year of publication
Document Type
- Conference Proceeding (223)
- Bachelor Thesis (135)
- Part of a Book (83)
- Master's Thesis (76)
- Article (unreviewed) (71)
- Article (reviewed) (67)
- Book (39)
- Other (35)
- Contribution to a Periodical (20)
- Doctoral Thesis (3)
Conference Type
- Konferenzartikel (200)
- Konferenz-Abstract (11)
- Konferenzband (6)
- Konferenz-Poster (5)
- Sonstiges (1)
Keywords
- Arbeitszeugnis (18)
- Biomechanik (14)
- Social Media (13)
- Digitalisierung (12)
- IT-Sicherheit (12)
- Künstliche Intelligenz (11)
- Marketing (10)
- E-Learning (8)
- Finite-Elemente-Methode (8)
- Medizintechnik (8)
Institute
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (211)
- Fakultät Medien (M) (ab 22.04.2021) (191)
- Fakultät Wirtschaft (W) (143)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (121)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (84)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (28)
- INES - Institut für nachhaltige Energiesysteme (24)
- POIM - Peter Osypka Institute of Medical Engineering (16)
- IBMS - Institute for Advanced Biomechanics and Motion Studies (ab 16.11.2022) (11)
- IMLA - Institute for Machine Learning and Analytics (10)
Open Access
- Closed (757) (remove)
In this study, circular economy (CE) relevance in Germany will be discussed based on LinkedIn readily available data. LinkedIn company profiles located in Germany with ‘circular economy’ in their description or any other field were selected and used as a data source to analyze their CE relation. Overall, 514 German companies were analyzed in reference to the 15 German regions they belong. Most companies are located in the federal state of Berlin (126), followed by North Rhine-Westphalia (96) and Bavaria (77). In terms of the industry sector, they are self-classified to environmental services (64), management consulting (50), renewables & environment (33), research (31), and computer software (18) etc. Regarding their employees with LinkedIn profiles, 22,621 people are affiliated with these companies, ranging from one to 7,877. All examined companies have a total of 819,632 followers on LinkedIn, ranging from none to 88,167. An increase in CE-related companies was recorded in 13 of the 16 federal states of Germany over a one-year period. This work provides essential insights into the increasing relevance and trends of the circular economy in German enterprises and will help conduct further national studies with readily available data from LinkedIn.
Bildung für nachhaltige Entwicklung (BNE) hat einen festen Platz im deutschen Bildungssystem gefunden. BNE setzt sich die Ziele, Lernende zu informierten und verantwortungsbewussten Konsumenten zu befähigen sowie sie darauf vorzubereiten und das eigene Verhalten sowie das Verhalten anderer kritisch zu reflektieren. Der Nachhaltigkeitsbegriff von BNE orientiert sich hierbei an den drei Perspektiven, Soziales, Ökonomisches und Ökologisches, und an deren Wechselwirkungen untereinander.
Um Lernenden Nachhaltigkeitsthemen nach der Definition von BNE zu vermitteln, bieten sich Photovoltaik-Systeme (PV), vor allem in Off-Grid-Ausführungen, an, da sie aufgrund ihrer Eigenschaften als erneuerbare Energieerzeuger einen rücksichtsvolleren Umgang mit den vorhandenen Ressourcen fordern, Reflexion des eigenen Verhaltens anregen und sich in verschiedenen Situationen unter den drei Perspektiven der Nachhaltigkeit betrachten lassen.
Für eine Projektarbeit an allgemeinbildenden sowie beruflichen Schulen wurde außerhalb dieser Arbeit ein Off-Grid-PV-System entworfen, anhand dessen Lernende Fragestellungen der elektrischen Energieerzeugung aus Sonneneinstrahlung sowie allgemeine Nachhaltigkeitsthemen erforschen. Das didaktische Konzept zur Begleitung des PV-Systems wurde anhand von den Anforderungen der BNE entwickelt und gliedert sich in die Bereiche einleitende Workshops, Lern- und Arbeitsmaterial, weiterführendes Material sowie einen abschließenden Workshop zur Reflexion des erlernten. Die getroffenen Entscheidungen im Bereich der Technik sowie des Lehr-Lern-Materials werden jeweils didaktisch begründet.
Die Musik-, Kunst- und Kulturszene ist vielfältig und lebt von Individualität. An der Diskussionsrunde zum Thema „Überlebensstrategien während der Pandemie“ nehmen die Musiker*innen Lindy Huppertsberg, Pat Appleton, Martin Verdonk, Tommy Baldu und Markus Birkle am 10.05.2021 teil. Die Teilnehmer*innen der Diskussionsrunde erwirtschaften ihr Einkommen primär über Konzertgagen und sind als freischaffende Musiker*innen etabliert und erfolgreich in der Musikwelt tätig. Trotz großer Übereinstimmungen werden Strategien während der Krise bemerkenswert individuell gewählt. Ebenso vielschichtig ist der Fokus bei der Karriereplanung und Auswahl der musikalischen Projekte. Zwei essenzielle Themenbereiche kristallisieren sich im Verlauf der Unterhaltung heraus: Zum einen die persönlichen singulären Strategien für ein wirtschaftliches Überleben, zum anderen die Auseinandersetzung mit dem Verlust der Möglichkeit auf Resonanz und Empathie mit Mitmusiker*innen und dem Publikum. Die Frage wird aufgeworfen, ob Kulturschaffende einer Gesellschaft eine emotionale Stimme geben.
Unter fossilen Energieträgern verstehen sich energie- und kohlenstoffhaltige Stoffe, die in mehreren Millionen Jahren aus Biomassen unter dafür günstigen Bedingungen (Sauerstoffausschluss) gebildet wurden. Das geologische Alter von Steinkohle beträgt über 250 Millionen Jahre, das von Braunkohle ca. 50 Millionen. Derzeit werden deutlich mehr fossile Energieträger verbraucht als nachgebildet. Während in Deutschland die Stilllegung von Dampfkraftwerken, die mit Steinkohle befeuert werden, begonnen hat, steigt global der Verbrauch dieser Brennstoffe weiterhin an. Die Steinkohleförderung erreichte im Jahr 2019 weltweit den Wert von 7,3 Milliarden Tonnen, mit einer Steigerung von immerhin fast 3 % gegenüber dem Vorjahr 2018 nach [1]. Dieser Anstieg erfolgte hauptsächlich in China und Indonesien – in Deutschland ging der Kohleverbrauch in diesem Zeitraum zurück.
Zwischen den Zeilen
(2005)
In diesem Buch erfolgt die Ausarbeitung eines im Sinne der kaufmännischen Rechnungslegung zweckadäquat ausgestalteten Hochschulrechnungswesens, das insbesondere auch hochschulspezifische Sachverhalte einer Lösung zuzuführen vermag.
Auf der Grundlage kaufmännischer Jahresabschlüsse aus unterschiedlichen Bundesländern werden zunächst bestehende Unterschiede in der Rechnungslegung der Hochschulen aufgezeigt. Im Hinblick auf Sinn und Zweck der kaufmännischen Rechnungslegung werden unterschiedliche Vorgehensweisen in einer vereinheitlichten Ausgestaltung zusammengefasst. In diesem Zusammenhang sind auch die Governance-Strukten im Steuerungsverhältnis zwischen den Bundesländern und den öffentlichen Hochschulen in der Entwicklung des Rechnungslegungssystems berücksichtigt.
Um den Erfolg einer Operation zu beurteilen, werden in klinischen Untersuchungen häufig Fragebögen genutzt. Ziel dieser Arbeit ist es, herauszufinden, ob es einen Zusammenhang zwischen subjektiven Outcome-Scores der Fragebögen und biomechanischen Parametern gibt. Die Forschungsfrage lautet: „Reicht ein Fragebogen zur Beurteilung des Operationserfolges oder sind weitere objektive Untersuchungen von Nutzen.
Um dies zu beantworten, wurde eine Querschnittsstudie mit elf Probanden durchgeführt. Diese mussten vor zwölf Monaten mit einer Hüft-Totalendoprothese versorgt worden sein. Die Probanden mussten verschiedene Fragebögen ausfüllen, anschließend wurde eine Ganganalyse mittels Optogait durchgeführt und die Maximalkraft mit dem Multifunktionalen Diagnostikgerät ermittelt. Die Ergebnisse der Fragebögen wurden mit den biomechanischen Parametern auf eine statistische Korrelation überprüft.
Die Studie hat gezeigt, dass es zwischen einigen Unterkapiteln der Fragebögen und den biomechanischen Parameter moderate bis starke statistisch signifikante Korrelation gibt. Jedoch nicht mit allen Parametern und nicht in der Gesamtbetrachtung der Fragebögen.
Dies zeigt, dass es zwar Zusammenhänge zwischen subjektiven Outcome-Scores und biomechanischen Parametern gibt, diese aber nur einen groben Eindruck des Operationserfolges widerspiegeln. Für eine Beurteilung reicht ein Fragebogen alleine damit nicht aus, und man sollte biomechanische Parameter zusätzlich nutzen.
Moderne strombetriebene Wärmepumpenanlagen sind im Hinblick auf die Umweltbilanz und die Jahresenergiekosten selbst gegenüber den effizientesten gasbefeuerten und ölbefeuerten Heizanlagen deutlich im Vorteil. Um diesen Vorteil auch in der Praxis zu erreichen, muss der Auswahl und Dimensionierung der Wärmepumpe einschliesslich der Wärmequelle besondere Beachtung geschenkt werden. Hinsichtlich des Temperaturniveaus bietet sich als Wärmequelle besonders das Erdreich an, beispielsweise durch Erdsonden erschlossen. Abhängig von den hydrogeologischen Rahmenbedingungen ist insbesondere auf die längenbezogene Wärmeentzugsleistung der Erdsonden zu achten. Hierfür hat das Ministerium für Umwelt und Verkehr des Landes Baden-Württemberg einheitliche Grundlagen für die Beurteilung und Bearbeitung geschaffen. Ausgehend von einer Wärmepumpenheizanlage, von der bereits Messungen vorliegen, wurde diese Anlage mit dem Simulationsprogramm TRNSYS nachgebildet und die wesentlichen Temperaturverhältnisse in verschiedenen Erdreichtiefen und Erdsondenabständen ermittelt. Mit diesen Erdreichtemperaturen werden mit Hilfe eines vereinfachten Energiebilanzverfahrens die Jahresarbeitszahlen ermittelt. Dabei zeigt sich, dass neben der Hydraulik der Heizanlage der Art der Trinkwassererwärmung besondere Bedeutung zukommt, da dies sich entscheidend auf die Jahresarbeitszahl und damit auch auf die mögliche Reduzierung des CO2-Ausstosses auswirkt.
Elektrische Wärmepumpen sind eine Schlüsseltechnologie für klimafreundliche Gebäude. In Mehrfamilienhäusern ist ihr Einsatz noch eine Herausforderung und entsprechend wenig verbreitet. Im Rahmen des Verbundprojekts "HEAVEN" haben Forschende nun ein Mehrquellen-Wärmepumpensystem entwickelt, das an die Anforderungen größerer Wohngebäude angepasst ist. Getestet wurde es im Rahmen des Verbundprojekts "Smartes Quartier Durlach" in einem Karlsruher Gebäude. Daten zum ersten Betriebsjahr liegen nun vor.
Diese Metadaten wurden zur Verfügung gestellt von der Literaturdatenbank RSWB®plus
Globale Ereignisse politischen, wirtschaftlichen oder kulturellen Ursprungs führen dazu, dass Unternehmen sich gezwungen sehen zu handeln, um wettbewerbsfähig zu bleiben. In vielen Fällen wird dabei so vorgegangen, dass versteckte Preiserhöhungen vollzogen werden. Auch Unternehmen, die mit ihrem Angebot einen gesellschaftlichen Zusatznutzen erbringen, erhöhen die Preise, da nur so der verfolgte ökologische oder soziale Purpose erhalten werden kann, kommunizieren dies jedoch offen und erhöhen dadurch ihre Kundenloyalität. Dieses Vorgehen ist bislang jedoch überwiegend in den USA zu beobachten. Da das Thema Purpose auch in Deutschland immer höhere Relevanz erfährt, stellt sich die Frage der Übertragbarkeit. Die Forschungsfrage lautet deshalb: Inwiefern beeinflusst die Kommunikation von purpose-getriebenen Preissteigerungen das Markenimage von B2C-Unternehmen in Deutschland? Um der Forschungsfrage nachzugehen, wurde ein empirischer Forschungsansatz gewählt, der in Form einer quantitativen Studie umgesetzt wurde, die die Meinung der Studierendenschaft der Gen Z und Y der Hochschule Offenburg abbildet. Die Ergebnisse der Umfrage zeigten, dass die Glaubwürdigkeit und Akzeptanz von purpose-getriebenen Preiserhöhungen vom gegenwärtigen Markenimage bzw. dem übergeordneten Image einer Branche abhängen. Purpose wird eine hohe Bedeutung zugesprochen, die sich jedoch aufgrund der Preissensibilität der Zielgruppe nicht immer in der Markenwahl widerspiegelt. Dies verdeutlicht, dass Purpose das Potenzial besitzt, das Markenimage nachhaltig zu beeinflussen und zu prägen und die Zielgruppe der Gen Z und Y zukünftig an sich zu binden. Ferner wurde deutlich, dass bei der Umsetzung von Purpose bestimmte Kriterien verfolgt werden sollten, die bei der Kommunikation zu berücksichtigen sind, um eine authentische Wirkung zu erzielen.
Wirtschaftliche Krisenzeiten implizieren häufig Liquiditätsengpässe und bei kompletter Zahlungsunfähigkeit auch Insolvenzen. Das Instrument des Working Capital Management hilft bei der schnelleren Freisetzung von gebundenem Kapital. Sofern ein datengetriebenes Management unter Einsatz von Business-Analytics-Techniken und mit der dafür notwendigen technisch-organisatorischen Infrastruktur eingesetzt wird, entstehen neue Möglichkeiten von Einsichten in die Prozesslandschaft und die Optimierung von Durchlaufzeiten. Das Ziel ist der Aufbau eines Working-Capital- Analytics-Ansatzes.
Wirtschaftlichkeitsbetrachtung eines smarten Energiekonzepts für ein Bestandsquartier in Karlsruhe
(2023)
Die Transformation der Energieversorgung in Bestandsgebäuden ist für die Erreichung der Klimaziele im Gebäudesektor entscheidend. In einem modellhaften Quartiersprojekt in Karlsruhe-Durlach wird ein ‚smartes Energiekonzept‘, bestehend aus Wärmepumpen, Blockheizkraftwerk und PV-Anlagen mit lokalem Strom- und Wärmenetz umgesetzt und messtechnisch begleitet. Ziel ist dabei eine CO2-effiziente und wirtschaftliche Bereitstellung von Wärme und Strom.
In dem Artikel wird eine Wirtschaftlichkeitsbetrachtung für das Wärme- und Stromcontracting auf Basis der realen Investitionskosten sowie der gemessenen und berechneten Energieflüsse durchgeführt. Die Wärmegestehungskosten hängen neben den Investitionskosten von den energiewirtschaftlichen Rahmenbedingungen ab. Mit ansteigender CO2-Steuer werden mittelfristig Wärmegestehungskosten erreicht, die unter denen konventioneller Energiesysteme liegen. Dadurch bietet das integrierte Energiekonzept ein breites Anwendungspotenzial für städtische Bestandsquartiere außerhalb von Fernwärme-Gebieten.
Das Ziel dieser Arbeit ist es, herauszufinden inwiefern der Exopulse Mollii Suit® Auswirkungen auf Menschen mit dem Krankheitsbild Multiple Sklerose hat. Genauer soll ermittelt werden, wie die Symptome Spastik und Schmerz beeinflusst werden und wie sich dies auf die Mobilität und Lebensqualität auswirkt.
Im Rahmen der Studie wurde von jedem Probanden eine qualitative Untersuchung mittels eines Fragebogens durchgeführt, um eine subjektive Einschätzung der Beeinträchtigung zu erhalten. Zusätzlich wurde eine quantitative Untersuchung mit vier Assessments durchgeführt, bei denen die Mobilität und Feinmotorik getestet wurden. Der Mollii Suit® wurde daraufhin einmalig angewendet und im Verlauf von 48 Stunden wurden die Untersuchungen wiederholt durchgeführt, um einen möglichen Verlauf und die maximalen Veränderungen zu ermitteln.
Die qualitativen Ergebnisse der Studie ergeben, dass sich bei 22,2 % der Probanden keine Veränderungen zeigten. Bei 77,8 % hingegen zeigten sich positive Auswirkungen in einer großen Variationsbreite. Am häufigsten verbesserte sich die Spastik, gefolgt von der Mobilität. Ebenso berichteten die Probanden, dass sich ihre Beweglichkeit und der Bewegungsablauf verbesserten.
Quantitativ zeigte sich eine durchschnittliche Verbesserung von 21,6 % und einer Range zwischen -1,3 % und 53,4 %.
Aufgrund dieser großen Variationsbreite bei beiden Untersuchungen kann keine genaue Aussage über das Ausmaß der Wirkung und Verbesserung getroffen werden. Es zeigt sich aber das mögliche Potential des Mollii Suit®.
Die bisherige Forschung steht noch an ihrem Anfang und benötigt, um zuverlässige Aussagen treffen zu können, größer angelegte aber auch spezifischere Studien, die die einzelnen Symptome und Wirkweisen genauer untersuchen. Die vorliegende Studie stellt einen Grundstein dar, auf dem zukünftige Studien aufbauen können.
Das Ziel der vorliegenden Arbeit ist die Beantwortung der Frage, wie sich eine individuelle Fußbettung auf die Druckverteilung im Fuß und das körperliche Wohlbefinden im Allgemeinen auswirkt. Zu Anfang stehen die Nullhypothesen, dass durch eine solche Einlage keine Veränderungen in der Druckverteilung zu erwarten sind.
Um die Forschungsfrage zu beantworten, wurde eine experimentelle interventionelle Pilotstudie mit einer Kohorte von neun Probanden ohne orthopädische Probleme durchgeführt, die alle eine individuelle Schuheinlage erhielten. Die plantare Druckverteilung im Schuh wurde einmal ohne und einmal mit der Einlage sowohl statisch als auch dynamisch erfasst. Die Ergebnisse wurden anschließend verglichen. Die dynamische Datenerfassung beinhaltete die folgenden Konditionen: geradeaus Gehen, Gehen im Kreis (links- und rechtsherum), Stehen und der Transfer einer Kiste mit sich drehendem Oberkörper. Gleichzeitig wurde das Wohlbefinden der Probanden mit verschiedenen Fragebögen erfasst.
Die Anwendung einer individuellen Einlage zeigte im Bereich des medialen Mittelfußes einen Druckanstieg von über 100%, der Rückfuß wurde während des Stehens und Gehens entlastet. Der Vorfuß wurde während des Stehens teilweise mehr belastet. Diese Veränderungen können unter Umständen auf das Einführen der Längsgewölbestütze in der Einlage zurückgeführt werden. Die Auswertung der Fragebögen zu dieser Studie ergab, dass sich speziell für die Füße das Wohlbefinden leicht zum Schlechteren änderte, andere Bereiche, welche in den Fragebögen eruiert wurden, zeigten keine nennenswerten Veränderungen auf.
Daraus wird geschlossen, dass eine Schuheinlage die Druckverteilung in der Fußsohle stark verändern kann. Weiterführende Studien könnten den Einfluss der Einlage im Allgemeinen und der Wirkungsweise einer Längsgewölbestütze im Besonderen mit kinematischen Daten weiter belegen. Längerfristige Studien könnten die Langzeitwirkung von Einlagen auf das Wohlbefinden genauer erforschen.
Das Ziel der vorliegenden Arbeit war es, den Kopplungskoeffizienten (KK) zwischen der Calcaneus Inversion/Eversion und der Tibia Innen-/Außenrotation zu ermitteln. Dabei wurde die Bewegung beim Barfußlaufen ohne Tape, mit frischem Tape und gebrauchtem Tape verglichen.
Die Durchführung erfolgte mit Hilfe eines markerbasierten Kamerasystems von Qualisys (Qualisys AB, Göteborg, Schweden). Diese Studie wurde mit 10 Probanden (Männer: 5; Frauen: 5, Alter: 24,3 ± 1,49 Jahre) durchgeführt. Zu Beginn wurde die Sprunggelenksstabilität der Probanden getestet, da Probanden mit einer Instabilität nicht miteingeschlossen werden sollten. Die Aufgabe bestand darin, barfuß unter drei Bedingungen (ohne Tape, mit frischem Tape, mit gebrauchtem Tape) mit einer Geschwindigkeit von 4,5 m/s zu laufen. Jede Bedingung hatte drei Durchgänge.
Die Auswertung wurde mit Hilfe von Matlab und statistischer Analyse durchgeführt. Matlab führte die Berechnung des KK zwischen Calcaneus Inversion/Eversion und der Tibiarotation aus. Die statistische Analyse beschrieb die Signifikanz der Werte.
Die Ergebnisse zeigten, dass der KK einen signifikanten Anstieg vom Barfußlaufen ohne Tape zum Laufen mit frischem und gebrauchtem Tape aufwies. Der KK ohne Tape lag bei 0,98 ± 0,38, bei frischem Tape von 1,28 ± 0,42 und bei gebrauchtem Tape bei 1,3 ± 0,42.
Zusammenfassend kann gesagt werden, dass eine signifikante Veränderung des KK bei getaptem Sprunggelenk besteht. Dadurch kann es zu einer verstärkten Rotation der Tibia kommen, was zu einer Überlastung der Strukturen des Kniegelenks und damit zu Knieverletzungen führen kann.
Das Ziel der Bachelorthesis ist die Beantwortung folgender Fragestellung: Wie sieht ein Newsletter aus, der Leads generiert und in zahlende Kundschaft verwandelt? Um die Fragestellung zu beantworten, wurden zahlreiche aktuelle Fachliteraturen, Berichte, Statistiken, Studien und weitere Quellen analysiert und die wichtigsten Erkenntnisse zusammengefasst. Dabei wurden Konzepte aus verschiedenen Bereichen kombiniert und spezifisch auf die Anwendung eines Newsletters ausgerichtet.
Die Bachelorarbeit beantwortet die Fragestellung so, dass sie einen Überblick gibt, was die Unternehmensberatung Schritt für Schritt tun muss, um einen erfolgreichen Newsletter zu planen und umzusetzen. Dafür sind gemäß dieser Bachelorarbeit die folgenden sechs Schritte notwendig: Die Definition der Zielgruppe durch eine Persona und Customer Journey, die Ziele des Newsletters definieren, den Content planen, erstellen und organisieren, E-Mail-Adressen von potenziellen Interessenten sammeln, die Gestaltung der Newsletter-Mails und das Controlling sowie die Optimierung des Newsletters.
Des Weiteren zeigt die Bachelorthesis insgesamt zehn Kriterien auf, die definieren, wie ein Newsletter aussieht, der Leads generiert und in zahlende Kundschaft verwandelt. Diese zehn Kriterien sind die folgenden: zielgruppenspezifische Ausrichtung, Integration in die Customer Journey, Zieldefinition anhand des Back-Planning-Verfahren, hochwertiger Content, Leadmagneten für die Gewinnung von E-Mail-Adressen, strukturierter Aufbau der Mails inklusive Call-to-Action, Storytelling, kreative Gestaltung, professionelle technische Umsetzung durch E-Mail-Marketing-Software und regelmäßiges Controlling und Tests.
What would you do if?
(1995)
Aluminiumgussbauteile spielen heutzutage in vielen Branchen, wie der Automobilindustrie und der Luft- und Raumfahrtindustrie eine wichtige Rolle. Sie zeichnen sich durch hohe Festigkeit und Steifigkeit bei vergleichsweise geringem Gewicht aus. Bei der Herstellung von Aluminiumgussbauteilen, kommt es prozessbedingt immer zu Defekten im Werkstoff. Mit Computer Tomographie Aufnahmen können diese Defekte zerstörungsfrei detektiert werden. Anschließend sollen die Defekte in Finite-Elemente-Methode Berechnungen berücksichtigt werden. Dies bietet einen entscheidenden Vorteil bei der Schadensvorhersage dieser Bauteile.
In dieser Masterarbeit wurde zwei Programme entwickelt, welche das Mapping von Defekten aus CT-Aufnahmen eines Aluminiumgussbauteils auf ein LS-Dyna Netz ermöglichen. Dadurch können die Defekte und damit die Porosität eines Gussbauteils in der Festigkeitsberechnung berücksichtigt und die Schadensvorhersage verbessert werden. Die Programmierung erfolgte in Python.
Das weiterentwickelte Mapping-Programm benötigt zwei Input Dateien. Zum einen wird die Defektdatei aus den CT-Aufnahmen benötigt und zum anderen ein LS-Dyna Netz. Die komplexen Defektgeometrien werden in dem Mapping-Programm vereinfacht als umschließende Kugeln um den Defekt beschrieben. Diese Vereinfachung ist aufgrund der benötigten Rechenleistung notwendig. Anschließend prüft das Mapping-Programm alle Kollisionen zwischen Elementen des FE-Netzes und den Defekten und ermittelt für jedes Element ein Schnittvolumen. Aus dem Schnittvolumen und dem Elementvolumen wird die Porosität berechnet. Die Rechenzeit für ein Bauteil mit 107379 Elementen beträgt 480 Minuten.
Ein zweites, neu entwickeltes Programm ermöglicht das Mapping der wahren Porengeometrie auf FE-Netze. Durch die optimierte Porenbeschreibung wird eine höhere Genauigkeit beim Mapping der Defekte erreicht. Die Rechenzeit beträgt bei einem Bauteil mit 107379 Elementen lediglich 15 Minuten.
Ziel dieser Masterarbeit ist es, das Mapping-Programm zu optimieren, damit es neben Hexaedern weitere Elementtypen verarbeiten kann. Darüber hinaus sollte die Porenbeschreibung verbessert werden, um genauere Ergebnisse zu erhalten. Dafür wurde ein zweites Programm mit einer verbesserter Porenbeschreibung entwickelt, dass zudem deutlich geringere Rechenzeiten benötigt.
Die immer weitreichenderen Anwendungen des Smart Metering und des Smart Grid stellen immer höhere Anforderungen an Kommunikationstechnologien, die die Zielkonflikte aus Echtzeitfähige, Stabilität, Kosten und Energieeffizienz möglichst anwendungsoptimiert und auf einem immer höheren Niveau lösen. Insbesondere im Bereich der so genannten Primärkommunikation zwischen einem Sensor- oder Aktorknoten und einem Datensammler mit Gatewayfunktionalität konnten in den vergangenen Jahren wesentliche Fortschritte erzielt werden. Zu nennen sind hierbei insbesondere die Aktivitäten der ZigBee Alliance rund um den offenen Spezifikationsprozess des ZigBee Smart Energy Profiles (SEP) und der OMS-Gruppe beim ZVEI, die auf dem Wireless M-Bus nach EN13757-4 aufbauen, der sich seinerseits lebhaft und zielgerichtet weiter entwickelt. Der Beitrag diskutiert die vorhandenen Einschränkungen und die verfügbaren Lösungsansätze. Er illustriert diese anhand einiger öffentlich geförderter Projekte, an denen das Team des Autors beteiligt ist.
Design Thinking wird im Wesentlichen als Methode zur Lösung komplexer Probleme und Entwicklung neuer Ideen verstanden.
Doch das mit dem Design Thinking einhergehende Mindset kann für breite und vielfältige Fragestellungen nutzbar sein und geht weit über die Methodik zur Lösung komplexer Probleme und Entwicklung neuer Ideen hinaus. Es besteht aus den Komponenten Empathie, non-lineare und lineare Denkweise, Experimentierfreude und Offenheit.
Die wissenschaftliche Auseinandersetzung mit praktischen Anwendungsbeispielen zeigt, wie durch das Design Thinking Mindset der Denkhorizont in Richtung Zukunft erweitert wird. Der Herausgeber Robert Gücker und fünf Autorinnen geben einen fundierten Einblick in das “Design Thinking Mindset”. In einem breiten Spektrum umfassen die Themen des vorliegenden Sammelbandes den Zusammenhang von Design Thinking und Unternehmenskultur, Arbeitszufriedenheit der Mitarbeitenden und Resilienz, die Möglichkeiten der Erreichung des Design Thinking Mindsets durch Workshops und gezielte Führungsentwicklungsmaßnahmen bis hin zur Betrachtung des Herausgebers, der die Metapher der qualitativen Forschung für Design Thinking vorschlägt.
Die wissenschaftliche Auseinandersetzung der fünf Autorinnen mit der Thematik erfolgt auf Grundlage von umfangreichen Literaturrecherchen und Expertenbefragungen, deren Erkenntnisse auf den Praxiseinsatz übertragen werden. Im Sammelband finden Sie damit in kompakten Beiträgen einen fundierten Überblick an Möglichkeiten und Chancen, wie Unternehmen anhand der Anwendung von Design Thinking bei ihren Mitarbeitenden und Führungskräften einen Mindshift in Richtung Zukunft schaffen und welche Rahmenbedingungen nötig sind, um zu einer resilienten Organisation mit zufriedenen Mitarbeitenden zu werden.
Die Ergebnisse der Beiträge bestätigen eine positive Wirkung in Richtung Zukunftskompetenzen, die sich aus einer Haltung ergeben, welches dem Design Thinking Mindset entspricht.
Mit praktischen Anwendungsbeispielen bietet das Buch nicht nur Personalverantwortlichen sowie Organisationsentwicklern wissenschaftlich fundiert und praxisnah neue Ansätze.
Weg- und Winkelsensoren
(2014)
Weg- und Winkelaufnehmer werden überall dort benötigt wo veränderliche Positionen, (Abstände, Längen oder Winkel) erfasst werden müssen, um entweder als reiner Messwert ausgegeben zu werden oder in einem Regelkreis zumeist die Regelgröße als Messwert zur Verfügung zu stellen. Grundsätzlich unterscheidet man zwischen berührenden (tastenden) und berührungslosen Aufnehmern. Zu den berührenden Sensoren zählen dabei alle Aufnehmer, die ein spezielles Messobjekt als Weg- oder Winkelvermittler benötigen, das während der Messung fest mit dem eigentlichen Messobjekt verbunden ist. Diese Bezeichnung gilt auch dann, wenn die eigentliche Messung gegen das vermittelnde Objekt im Endeffekt berührungslos erfolgt. Berührungslose Weg- und Winkelaufnehmer können ohne einen solchen Vermittler direkt gegen das zu vermessende Objekt messen.
Die meisten Webseiten im World Wide Web werden mit Web-Content-Management-Systemen (WCMS) realisiert. In diesem Beitrag werden Ziele, Prinzipien, Funktionen und Architektur dieser wichtigen Infrastruktursysteme für unser tägliches Online-Leben und -Arbeiten vorgestellt.
Nach der Definition der grundlegenden Begriffe werden die Basisprinzipien Content Life Cycle und Trennung von Inhalt, Struktur und Darstellung erläutert. Es folgt die Vorstellung der wichtigen Komponenten von WCMS und deren Funktionalität, wie etwa Asset Management, Benutzerverwaltung und Workflow-Maschine. Zum Schluss wird ein Einblick in die aktuellen Entwicklungen von WCMS gegeben.
In den letzten Jahren ist die Relevanz des Wassersparens und der nachhaltigen Nutzung dieses lebenswichtigen Elements angesichts des Klimawandels und abnehmender Wasserressourcen erheblich gestiegen. In diesem Kontext legt die vorliegende Bachelorarbeit, die in Zusammenarbeit mit der Firma Hansgrohe erstellt wurde, den Fokus auf die Schaffung eines Konzeptes sowie der prototypischen Realisierung eines Serious Games. Das Ziel des Spiels ist es, bei Kindern ein Bewusstsein und Verständnis für die nachhaltige Wassernutzung zu fördern. Im Zuge des Projekts wurde ein iterativer Spiel-Design-Prozess verfolgt, um ein pädagogisch wertvolles und ansprechendes Spielkonzept zu entwickeln. Der nutzerzentrierte Ansatz war maßgeblich, um ein tiefgehendes Verständnis für die Bedürfnisse und Vorlieben der jungen Zielgruppe zu erlangen und somit ein optimal auf die Lernerfahrung abgestimmtes Produkt zu entwerfen. Das Spiel kombiniert Elemente der Exploration, Simulation und des Casual Gamings, um das Verständnis für die nachhaltige Wassernutzung auf spielerische und interaktive Weise zu vermitteln. Die Resultate der prototypischen Umsetzung wurden mittels Nutzertests überprüft, um die Effektivität und Benutzerfreundlichkeit zu sichern. Diese Arbeit unterstreicht nicht nur die Wichtigkeit eines verantwortungsvollen Umgangs von Wasser, sondern illustriert zudem, wie durch innovatives Spiel-Design die Bildung und Sensibilisierung von Kindern in Bezug auf zentrale ökologische Themen erreicht werden können.
Wasserkraftwerke
(2022)
Die Wasserkraft ist global die bedeutendste erneuerbare Energiequelle zur Stromerzeugung. Sie hat in Deutschland allerdings einen stagnierenden Anteil von nur ca. 3,5 % der gesamten Stromerzeugung. In Deutschland wurde die Wasserkraft bei der Stromerzeugung durch die Windkraft, Photovoltaik und sogar von der Biomassevergasung überholt. Die Wasserkraft ist allerdings eine gut berechenbare Energiequelle und unterliegt nicht den nur kurzfristig vorhersehbaren Schwankungen der Wind- und Solarenergien.
Wandel und Krise im Gastronomiebereich: Herausforderungen und Handlungsempfehlungen für Restaurants
(2022)
Seit Februar 2020 fordert die Corona-Pandemie einen hohen Tribut von Wirtschaft und Gesellschaft. Unzählige Branchen standen plötzlich Herausforderungen gegenüber, die es so zuvor noch nicht gegeben hat. Insbesondere die Gastronomie wurde von dem Shutdown hart getroffen. Restaurants, Bars und Cafés mussten unerwartet schließen. Dies führte branchenweit zu wachsenden Herausforderungen und steigenden Existenzängsten. Für das Gaststättengewerbe bedeutet dies den größten Notstand der Nachkriegszeit. Die Branche musste sich innerhalb kürzester Zeit an die enormen Veränderungen, die diese Pandemie hervorbrachte, anpassen. Die Situation verlangte von Restaurantbetreibern, aktiv tätig zu werden, um sich der aus der Krise erwachsenden Probleme zu stellen und langfristig erfolgreich zu bleiben. Dieser Beitrag bietet einen Einblick in die Situation der Gastronomie in Deutschland und beleuchtet dazu die wesentlichen Herausforderungen dieser Branche. Dabei wird der Fokus auf die Lage von Restaurants während der Coronakrise gerichtet und konkrete Maßnahmen zur Sicherung der zukünftigen Existenz betrachtet.
Wahlweise Lichtleiter oder Zweidraht-Leitungen: Ringbus-System zur flexiblen Messdatenerfassung
(1986)
In diesem Beitrag wird ein Messdatenerfassungssystem vorgestellt, bei dem die Datenuebertragung je nach den Anforderungen entweder auf Zweidrahtleitung oder via Lichtleiter erfolgen kann. Es handelt sich um ein ringfoermiges serielles Bussystem fuer das eine universelle Interfacekarte mit Mikroprozessor aufgebaut wurde. Nach Beschreibung der Struktur des Systems wird auf den Uebertragungscode und das Datenprotokoll eingegangen. Anschliessend wird der Aufbau der Interfacekarte gezeigt. Einige Bemerkungen zu den Software-Modulen fuer die Interfacekarte, zum Programmablauf auf ihr und zur Synchronisierung der Interface-Karte runden den Beitrag ab.
Vortex breakdown phenomena in rotating fluids are investigated both theoretically and experimentally. The fluid is contained in a cone between two spherical surfaces. The primary swirling motion is induced ba the rotating lower boundary. The upper surface can be fixed with non-slip condition or can be a stress-free surface. Depending on these boundary conditions and on the Reynolds number, novel structures of recirculation zones are realized. The axisymmetric flow patterns are simulated numerically by a finite difference method. Experiments are done to visualize the topological structure of the flow pattern and to observe the existence ranges of the different recirculating flows. The comparison between theory and experiment shows good agreement with respect to the topological structure of the flow.
Ein beachtlicher Teil der eingesandten Zeugnisse waren Zwischenzeugnisse. Auch die Einsender von Endzeugnissen fügten oft früher ausgestellte Zwischenzeugnisse bei. Dabei wurde oft die Frage gestellt, auf welche Aussagen und mit welcher Priorität in Verhandlungen mit dem Arbeitgeber besonderer Wert zu legen sei.
Die vorliegende Bachelorarbeit untersucht die Anwendung der Transformer-Architektur bei der Entwicklung eines Chatbots für die Auskunft von Studieninformationen. Sie bietet eine gründliche Einführung in Chatbots, deren Funktionsweise und Klassifikation sowie in die Grundlagen neuronaler Netzwerke, Deep Learning und Natural Language Processing. Insbesondere die Transformer-Architektur und ihre Hauptkomponenten werden eingehend analysiert. Im Zuge dessen werden auch aktuelle Forschungen im Bereich Large Language Models und Fine-Tuning berücksichtigt.
Im praktischen Teil erfolgt die Darstellung der Konzeption, Implementierung und Evaluierung eines Chatbots für die Studienauskunft. Der erstellte Chatbot nutzt eine semantische Suche in Kombination mit einem Large Language Model, was sich als attraktive Alternative zu herkömmlichen Chatbots erweist. Zwar ist der aktuelle Entwicklungsstand des Chatbots noch nicht für die produktive Nutzung geeignet, dennoch zeigt er Potenzial für vielfältige Einsatzmöglichkeiten bei fortlaufender Entwicklung.
Die Arbeit schließt mit einer Diskussion ethischer Aspekte und zeigt zukünftige Forschungsmöglichkeiten auf. Die erzielten Erkenntnisse könnten für eine Vielzahl von Kontexten relevant sein und einen signifikanten Beitrag zur Entwicklung effizienter und genauer Informationsabfragesysteme leisten.
Voice User Experience
(2023)
Sprachassistenten wie Alexa, Google Assistant, Siri, Cortana, Magenta und Bixby erfreuen sich dank ihrer intuitiven, schnellen und bequemen Interaktionsmöglichkeiten zunehmender Beliebtheit und bieten deshalb spannende Möglichkeiten für die Weiterentwicklung des digitalen Kundendialogs. Doch ob die Technologie wirklich breite Akzeptanz finden wird, hängt nicht nur mit ihrer technischen Qualität oder Usability zusammen. Auch die User Experience, die neben den Reaktionen der Nutzer*innen während der Anwendung auch ihre Erwartungen und Wahrnehmungen vor und nach der Anwendung umfasst, spielt eine zentrale Rolle. Die Messung der Qualität der Voice User Experience (Voice UX) ist daher von großem Interesse für die Bewertung und Optimierung von Sprachapplikationen. Die Frage, wie die Voice UX von sprachgesteuerten Systemen gemessen werden kann, ist jedoch noch offen. Aktuelle Methoden stützen sich häufig auf UX-Forschung zu grafischen Benutzeroberflächen, obwohl die sprachbasierten Interaktionsformen in der Regel weder visuell noch haptisch greifbar sind. In unserem Beitrag möchten wir den aktuellen Status quo der deutschen Voice User Experience untersuchen. Folgende Fragen stehen dabei im Mittelpunkt: Wie können Sprachanwendungen zu einem erfolgreichen Kundendialog beitragen? Welche Nutzerirritationen treten aktuell bei der Anwendung von Sprachassistenten auf? Mit welchen Methoden lässt sich die Voice User Experience messen?
Eine neue Programmiersprache zu erlernen kann für Anfänger:innen manchmal schwer sein, selbst für Programmiersprachen wie Python, die bekannt dafür sind Einsteigerfreundlich zu sein. Denn selbst wenn die Syntax eines Python Programms schnell verstanden wird, ist oft nicht direkt erkenntlich wie der Code hinter dem Programm funktioniert. Anfänger:innen können dabei auch auf ihre Grenzen stoßen, den Ablauf eines Programmes nur alleine durch den Programmcode zu verstehen. Denn der Text der den Code ausmacht, kann auch nur bis zu einem gewissen Grad vermitteln wie oder was genau abläuft. Um den Ablauf eines Programms besser vermitteln zu können, wird der Code oft z.B. mit Diagrammen visualisiert. Visuelle Elemente können ebenfalls zusätzlich zum Code mehr Unterstützung leisten. Das Thema dieser Arbeit beschäftigt sich mit der Visualisierung von Python Programmen in der Entwicklungsumgebung Visual Studio Code, um Programmieranfänger:innen und Student:innen beim Erlernen der Programmiersprache Python zu unterstützen. Die Entwicklung der Visualisierung beinhaltet, das Erstellen einer Erweiterung in Visual Studio Code, die unter anderem das Debug Adapter Protocol einsetzt um mit dem Python Debugger zu kommunizieren.
Bei vielen Schulungen, Unterrichten und Weiterbildungen kommen Präsentationen zum Einsatz, um ausbildungsrelevante Inhalte zu vermitteln. Oft sind diese jedoch nicht interessant und zielführend gestaltet, was sich z. B. durch ein Übermaß an Text auszeichnet. Die Autoren stellen alternativ eine visualisierte Aufbereitung von Inhalten vor. Ziel ist es, komplexe Sachverhalte als einfache Bilder und Skizzen komprimiert darzustellen. Mit Hilfe der vorgestellten Methoden können beispielsweise Übungen effizienter vorbereitet, Einsätze übersichtlich erfasst, aber auch alltägliche Situationen vereinfacht kommuniziert werden.
Die Kombination von Reibung und Kompressibilität wird bei der Rohrströmung, der Kugelumströmung und der laminaren und turbulenten Plattengrenzschicht untersucht. Das Auftreten von Verdichtungsstößen führt zur Stoß-Grenzschicht-Interferenz und auf den Tsien-Parameter. Die Mach-Reynoldszahl Ähnlichkeit in der Gasdynamik führt zur Abgrenzung der verschiedenen Strömungsbereiche. Resultate von Windkanaluntersuchungen sowie analytischen und numerischen Berechnungen werden für das Rhombusprofil und das NACA 0012 Profil analysiert.
Virtual-Reality
(2023)
Die Virtual-Reality (VR) Technologie ermöglicht Unternehmen eine Produktpräsentation, die weit über traditionelle Darstellungsmethoden hinausgeht. Obgleich die Integration der VR-Technologie für Unternehmen viele Chancen eröffnet, ist deren Einsatz auch mit Risiken verbunden. Insbesondere der Mangel an empirisch gesicherten Erkenntnissen zur Kundenakzeptanz, zu den Auswirkungen der Nutzung sowie zu Kannibalisierungseffekten ist ein wesentlicher Grund, der die Verbreitung von VR in der Kundenkommunikation noch hemmt. Das Buch adressiert diese Forschungslücken und identifiziert mittels eines nutzerzentrierten, quantitativen Forschungsdesigns konkrete Chancen und Risiken, die mit dem Einsatz von VR-Produktpräsentationen verbunden sind.
Virtual Reality ist ein allgegenwärtiges Thema und wird aktuell in zahlreichen Medien als sehr erfolgversprechende zukunftsorientierte Technologie mit großem Potenzial diskutiert. In diesem Beitrag werden, nach einer Definition und einem Überblick der zentralen Einsatzfelder, Use Cases aus der betriebswirtschaftlichen Praxis vorgestellt. Diese Anwendungsbeispiele sollen dem Leser das Potenzial und die Vielfältigkeit von Virtual Reality für Organisationen verdeutlichen.
Nowadays the processing power of mobile phones, Smart phones and PDA is increasing, as well as the transmission bandwidth. Nevertheless there is still the need to reduce the content and the need of processing the data. Proposals and solutions for dynamic reduction of the transmitted content will be discussed. For that, device specific properties will be taken into account, aiming at reducing the need of processing power at the client side to display the 3D Virtual Reality data. Therefore, well known technologies like data compression are combined with new approaches to achieve the goal of adaptive content transmission. For device dependant reduction of processing power the data has to be pre-processed at the server side or the server itself has to take over functionality of weak mobile devices.
Viralität auf TikTok
(2023)
Die Social Media Plattform TikTok erfreut sich spätestens seit der Corona-Pandemie einer immer größer werdenden Gemeinschaft. Mittlerweile verfügt die App über mehr als 20 Millionen Nutzer:innen - alleine in Deutschland. Virale Videos sprießen förmlich aus dem Boden. Diese Masterarbeit beschäftig sich mit der Frage, welche Faktoren der Viralität zu Grunde liegen und ob man die Viralität maßgeblich beeinflussen kann. Dies erfolgt mittels theoretischer Grundlagen, einer quantitativen Nutzerumfrage und Experteninterivews mit erfolgreichen deutschen Creatorn. Abschließend werden Videos für TikTok konzipiert und analysiert.
Es sollte in dieser Schrift untersucht werden, inwieweit bei Änderungen im Bereich der Planung, Durchführung und Auswertung von klinischen Arzneimittelprüfungen die Bewertung mit wissenschaftlichen oder politischen Begründungen erfolgt und inwieweit wissenschaftliche Regeln für politische Zwecke genutzt werden.
Konstrukteure im Maschinenbau stehen häufig vor der Problemstellung, hochfest vorgespannte Schraubenverbindungen und einen durchgehenden Korrosionsschutz zu vereinen. Die einschlägigen Normen und Richtlinien bieten hierzu Stand heute keine ausreichende Hilfestellung. In diesem Beitrag werden an Versuchsblechen ermittelte Setzbeträge von maschinenbautypischen organischen Beschichtungssystemen unter Variation der Belastungshöhe und der Umgebungstemperatur präsentiert und mit in Bauteilversuchen gemessenen Vorspannkraftverlusten vergleichend bewertet.
The importance of machine learning (ML) has been increasing dramatically for years. From assistance systems to production optimisation to healthcare support, almost every area of daily life and industry is coming into contact with machine learning. Besides all the benefits ML brings, the lack of transparency and difficulty in creating traceability pose major risks. While solutions exist to make the training of machine learning models more transparent, traceability is still a major challenge. Ensuring the identity of a model is another challenge, as unnoticed modification of a model is also a danger when using ML. This paper proposes to create an ML Birth Certificate and ML Family Tree secured by blockchain technology. Important information about training and changes to the model through retraining can be stored in a blockchain and accessed by any user to create more security and traceability about an ML model.
Durch den demografischen Wandel und dem daraus resultierenden Fachkräftemangel brauchen Unternehmen eine Strategie, um in Zukunft genügend Fachkräfte zu gewinnen und die aktuellen Mitarbeitenden halten zu können. Dabei können mit dem Employer Branding Maßnahmen zur Stärkung der Arbeitgebermarke erarbeitet werden.
Ziel dieser Arbeit ist eine vergleichende Analyse von Selbst- und Fremdbild zwei großer Arbeitgebermarken. Dabei sollen zwei Unternehmen aus der Region Offenburg/Ortenau in Hinblick auf ihr Employer Branding und ihre Kommunikation auf der unternehmenseigenen Karriere-Webseite untersucht werden. Dafür wurden die beiden Arbeitgebermarken „Hubert Burda Media“ und „Hansgrohe Group“ ausgewählt. Durch den Einsatz von qualitativen Experteninterviews wird das Selbstbild der Unternehmen ermittelt. Für die externe Beurteilung wurde die Zielgruppe „Studierende der Generation Z“ ausgewählt. Diese können mithilfe eines Fragebogens das Fremdbild beider Unternehmen beschreiben und die Karriere-Webseiten beurteilen.
Das Ergebnis der Forschung war unter anderem die Beschreibung des Arbeitgeber-images. Durch die Annäherung von Fremd- und Selbstbild nach Ansicht der Karriere-Webseite konnte die Kommunikation bewertet werden. Dabei konnten Optimierungs-ansätze für beide Unternehmen identifiziert werden. Die erarbeiteten Erkenntnisse wurden zusammengefasst und es wurden jeweils Handlungsempfehlungen für die Kommunikation und das Employer Branding formuliert.
Durch die Auswertungen der qualitativen Forschungen konnte die Wichtigkeit der Karriere-Webseite für die junge Generation bestätigt werden. Dabei fiel bei beiden Unternehmen auf, dass die Authentizität und die Kommunikation der eigenen Arbeitgebermarke in einigen Punkten optimiert werden sollten.
Die Analytik von Pflanzenkohle ist besonders im Hinblick auf einen möglichen Einsatz in der Landwirtschaft als Düngemittel Ersatz wichtig, da bei der Herstellung krebserregende polyzyklische aromatische Kohlenwasserstoffe (PAK) entstehen. Die PAK-Analytik bietet die Möglichkeit zu überprüfen und zu kontrollieren, wie viel belastetes Material auf diese Weise in die Umwelt eingeführt wird. In dieser Arbeit werden mögliche Methoden zur Extraktion und Analyse im Hinblick auf einen Schnelltest mit der bestehenden Methode bestehend aus Soxhlet-Extraktion und GC-MS Analyse verglichen. Untersucht werden die 16 EPA-PAK. Ein Schnelltest würde den Herstellern von Pflanzenkohle eine günstigere und engmaschigere Überwachung ihrer Produkte bieten.
Für die Extraktion wurden Ultraschallbad, Schüttler und Mikrowelle getestet, sowie verschiedene grüne Lösemittel als mögliche Alternativen zum momentan verwendeten Toluol. Die Extraktion mit 6 h Ultraschallbad hat mit 64% im Verhältnis zur Soxhlet am besten abgeschnitten. Bei dem Vergleich zweier Ultraschallbad-Extrakte mit den Soxhlet-Referenzen wurden jedoch 43 % und 93 % für die Summe der 16 EPA PAK gemessen. Die Methode bedarf also weiterer Untersuchungen.
Für die Analyse wurde HPTLC mit RP-18 Platten und einem Acetonitril-Wasser-Gemisch als mobile Phase getestet. Es wurden drei mögliche Methoden für die Gestaltung eines Schnelltestes getestet, ein Summenpeak mit allen 16 EPA-PAK und Naphthalin oder Benzo[a]pyren als Indikatorsubstanz. Aus diesen Versuchen geht das Standard-Additionsverfahren mit Benzo[a]pyren erfolgreich hervor, da die Ergebnisse durch die GC-MS-Analyse der gleichen Extrakte bestätigt werden konnten. Die Bestimmung von LOD und LOQ bestätigt, dass die Methode empfindlich genug ist, um den nötigen Messbereich erfassen zu können. Es wurden auch Versuche mit Coffein imprägnierten Platten durchgeführt. Diese Methode ist jedoch wegen der notwendigen Zweifachentwicklung deutlich aufwendiger und wurde daher nicht für die quantitativen Versuche gewählt.
Im Rahmen der Bachelorarbeit zum Thema „Vergleich von REST und GraphQL als moderne Web-APIs und Implementierung eines PIM-Systems“ werden zwei moderne Ansätze zum Erstellen von Web-APIs untersucht und verglichen. Ziel der Arbeit ist es, passende Anwendungsfälle für die Verwendung von REST und GraphQL zu definieren. Im praktischen Teil der Arbeit wurde eine Prototyp eines Product-Information-Management-Systems mit einer GraphQL-Schnittstelle implementiert.
Bei der plattformunabhängigen Softwareentwickelt stellt sich häufig die Frage, welche Technologie am besten geeignet ist. Die vorliegende Arbeit "Vergleich von ProgressiveWebapps und Hybrid Apps für mobile Endgeräte" beschäftigt sich mit der Entscheidungsfindung zur Auswahl einer geeigneten Technologie. Stellvertretend für die Progressive Webapp-Technologie wird die Single Page Application-Technologie React.js und für die Hybrid App-Technologie Flutter verwendet. Die Anwendung Mundle, eine medizinische Enzyklopädie, dient als Beispielanwendung, die in beiden Technologien umgesetzt wird. Anhand von Qualitätskriterien werden beide Technologien bewertet und gegenübergestellt, um eine sinnvolle Entscheidung bei zukünftigen Projekten treffen zu können.
In dieser Bachelorthesis werden On-Premise und Cloud Lösungen miteinander verglichen und eine bereits bestehende On-Premise Reklamationsverwaltung, die Teil eines ganzen ERP-Systems ist, wird mithilfe des Reengineerings, als cloudbasierte App neu implementiert.
Im ersten Abschnitt wird der Vergleich durchgeführt. Dabei werden die Hauptmerkmale beider Lösungen und ihre Vor- und Nachteile herausgearbeitet. Zum Schluss wird überprüft, welche der beiden Lösungen besser zu den Anforderungen passen. Da die neue Reklamationsverwaltung als App umgesetzt werden soll, wurde sich für die Cloud Lösung entschieden. Diese ist deutlich flexibler und für kleinere Kunden kostengünstiger.
Im zweiten Abschnitt wird ein Reengineering der alten On-Premise Lösungen als cloudbasierte App durchgeführt. Dabei werden alle Anforderungen und Kriterien an die App aufgezeigt. Danach werden alle Schritte des Reengineerings, wie beispielsweise die Analyse der Datenstruktur und Erstellung von Aktivitätsdiagrammen, genauer beschrieben und für die App angewendet. Mithilfe des Reengineerings konnte die Datenstruktur angepasst werden. Auch wurden viele überflüssige Funktionen aus der alten Lösung entfernt und nur die wichtigsten Funktionen sind geblieben.
Aufgrund der Beliebtheit des Laufsports herrscht in der biomechanischen Forschung ein großes Interesse, die Laufbewegung zu erforschen. Ein Gold-Standard der biomechanischen Laufanalyse konnte jedoch bisher noch nicht gefunden werden. Zumeist werden markerbasierte Systeme verwendet, welche die Kinematik des Laufens durch aufgeklebte Marker bestimmen. Diese bringen jedoch einige Fehlerquellen mit sich und benötigen einen hohen zeitlichen und organisatorischen Aufwand. Seit Kurzem werden auf dem Markt auch markerlose Softwares angeboten, welche über eine Videoanalyse die Kinematik des Laufens bestimmen können.
Da dieses markerlose System bisher nur wenig angewendet wird, kann in der vorhandenen wissenschaftlichen Literatur aktuell nur wenig über den Vergleich der beiden Systeme herausgefunden werden. Ein Großteil der Berichte stammt von den Herstellern der markerlosen Softwares. Diese bieten zudem selten eine Aussage über die Vergleichbarkeit ihrer Werte mit den Werten von markerbasierten Systemen.
Das Ziel dieser Thesis ist daher ein Vergleich von einem markerbasierten mit einem markerlosen System anhand einer Laufbandanalyse. Getestet wurde dabei vor allem, ob und inwiefern die Systeme einen Unterschied in der Laufkinematik durch eine Schuhmodifikation erkennen können. Dazu wird der Fokus auf die Rückfuß-Eversion gelegt, da diese laut der vorhandenen Literatur einen signifikanten Faktor in der Laufkinematik darstellt.
Elf Proband:Innen (sechs männliche und fünf weibliche) wurden untersucht: Sie haben mit drei verschiedenen Schuhbedingungen jeweils einen circa einminütigen Trial auf dem Laufband bei einer Geschwindigkeit von 2,5 msˉ abgeschlossen. Dabei wurden ihnen Marker an 22 anatomischen Landmarken aufgeklebt. Während dieses Trials wurden Sie gleichzeitig von Infrarot-Kameras und normalen Video-Kameras gefilmt, um den Vergleich der identischen Schritte zu ermöglichen. Im Anschluss wurden bei der Bearbeitung der Daten Grafiken zu den Gelenkwinkelverläufen der Hüftgelenks-, Kniegelenks- und Rückfuß-Bewegungen in allen drei Körperebenen erstellt. Die Rückfuß-Eversion wurde im Detail betrachtet und statistisch mittels einer zweifaktoriellen repeated Measures ANOVA auf Haupteffekte untersucht.
Als Ergebnis zeigen sich einige Unterschiede in den Gelenkwinkelverläufen zwischen markerbasiertem und markerlosem System. Der markerbasierte Ansatz misst größere Flexionen in der Sagittalebene, wohingegen sich in Frontal- und Transversalebene teilweise systematisch verschiedene Winkelverläufe zeigen. Unter der Prämisse, dass das Offset beachtet wird, können die Ergebnisse der Sagittalebene verglichen werden. Die Ergebnisse in Bezug auf die Frontalund Transversalebene sind hingegen kaum vergleichbar und führen nicht zu übereinstimmenden Interpretationen. Für die Rückfuß-Eversion zeigt das markerlose System ein Offset, sowie neutralere Winkelverläufe, dennoch ist ein Vergleich interpretatorisch möglich. Auch die Ergebnisse zwischen den Schuhbedingungen sind hier zwischen beiden Systemen interpretatorisch gleich und führen zu den gleichen Schlussfolgerungen. Statistisch tritt ein Haupteffekt sowohl durch Schuhintervention, als auch durch das System auf, womit bestätigt wird, dass ein direkter Vergleich der Werte nicht möglich ist.
Die Schuhmodifikation zeigt bei beiden Systemen, dass eine laterale Lagerung zu einer verstärkten Rückfuß-Eversion führt, während eine mediale Lagerung des Schuhs zu einer verringerten Rückfuß-Eversion führt.
Vergleich eines iOS-basierten zu einem markerbasierten System zur dreidimensionalen Bewegungsanalyse
(2023)
Die iOS-basierte Methode zur dreidimensionalen Bewegungsanalyse wird mithilfe von OpenCap durchgeführt. OpenCap ist eine Open-Source-Software, die laut Hersteller eine gute Alternative zu herkömmlichen Methoden der Bewegungsanalyse sein soll. Durch eine verständliche Menüführung, geringe Anschaffungskosten und ohne Notwendigkeit von Fachpersonal, soll hiermit eine großflächigere Anwendung von dreidimensionalen Bewegungsanalyse gegeben werden. (Uhlrich et al., 2022) Um diese Hypothese zu belegen wurde im Rahmen dieser Bachelorthesis eine kleine Studie mit 12 Probanden durchgeführt. Diese waren hauptsächlich Freiwillige der Hochschule Offenburg und sowohl männlich (7/12 Probanden) als auch weiblich (5/12 Probanden). Das Alter lag bei 25,76 ±5,08 Jahre, die Größe betrug 1,73 ±0,08 Meter und das Gewicht 69,38 ±7,12 Kilogramm. Die Probanden wurden zum Vergleich mit zwei verschiedenen Methoden zur dreidimensionalen Bewegungsanalyse (OpenCap und markerbasierter) und bei zwei verschiedenen Sprungformen, aufgenommen.
Anschließend wurden die Ergebnisse der Gelenkwinkel für Hüfte und Knie der rechten Körperhälfte der Probanden betrachtet. Dabei fiel auf, dass die gemessenen Werte von OpenCap, für Hüfte und Knie verschieden stark von den markerbasierten Werten abwichen. Die Differenz der Hüftflexionswinkel, zwischen den beiden Messmethoden, war um einiges größer als die ermittelte Differenz der Knieflexionswinkel. Diese lag beim Counter Movement Jump (CMJ) für die Hüfte bei 8,01° ±10,89° und für das Knie bei -0,9° ±3,22°. Beim Drop Jump (DJ) ergaben die Differenzen für die Hüfte 15,91° ±12,35° und für das Knie 3,03° ±2,59°. Außerdem wichen die Ergebnisse auch von der Studie der OpenCap Erfinder ab, die mit einem mittleren absoluten Fehler von 4,5°, die App anpriesen. (Uhlrich et al., 2022)
Der Vergleich zeigte somit das OpenCap eine gute Alternative zur Messung offensichtlicher Körpersegmente oder Bewegungen, wie beispielsweise dem Knie, sein kann. Für Messungen der Hüftpartie eignet es sich derzeitig, aufgrund seiner Ungenauigkeit, weniger.
Verfassen guter Texte
(2023)
Wer Texte für seinen Internetauftritt schreibt, möchte, dass diese auch gelesen werden. Doch Lesende sind ungeduldig, insbesondere am Monitor. Fasziniert man sie nicht in den ersten Sekunden, springen sie ab. Erfahren Sie hier, welche stilistischen Regeln Journalistinnen und Journalisten nutzen, um die Aufmerksamkeit ihrer Leser- oder Hörerschaft zu gewinnen und Texte mit wenig Aufwand zu perfektionieren. Ein paar Besonderheiten gelten auch für den Aufbau. Ein Schwerpunkt des Kapitels liegt auf dem Teaser, den ersten Zeilen, die in den Text locken sollen, sowie der Headline. Häufig ist es jedoch nicht der Text, der die Aufmerksamkeit der User fesselt, sondern ein Foto, idealerweise mit einer informativen Bildunterschrift. Zahlreiche Beispiele aus dem journalistischen Alltag machen das Beschriebene anschaulich. Als Zugabe informiert die Autorin Sie über die Bedeutung des Nutzwerts und attraktive Anlässe für eine Veröffentlichung.
Beim Betrieb von Maschinen mit großen Trägheitsmomenten treten bei Asynchronmaschinen mit Käfigläufer als Antriebsmotor teilweise Probleme beim Hochlauf des Aggregats auf. Es werden Maßnahmen zur Verbesserung des Anlaufs erläutert sowie mit Hilfe von Näherungsrechnungen und Simulationen untersucht. Aus den Simulationsergebnissen lassen sich Voraussagen über das Gelingen des Hochlaufs und die Tauglichkeit verschiedener Hilfsmaßnahmen ableiten.
Marketing and sales have high expectations of new methods such as Big Data, artificial intelligence, machine learning, and predictive analytics. But following the “garbage in—garbage out” principle, the results leave much to be desired. The reason is often insufficient quality in the underlying customer data. This article sheds light on this problem using the data quality and value pyramid as an example. The higher up the value-added pyramid the data is located, the higher its quality and the more value it generates for a company. In addition, we show how the use of monitoring systems, such as a data quality scorecard, makes data quality visible and improvements measurable. In this way, the actual value of data for companies becomes obvious and manageable.
Additive manufacturing offers completely new production technologies thanks to the layered structure and the simultaneous processing of several materials. In order to exploit the potential of this new technology, it is already necessary in product development to consider the components no longer as monolithic blocks, but as a structure of many layers and individual elements (voxels). Therefore, this paper will examine the current state of voxel-based CAD systems and the subsequent 3D multi-material printing of the designed components. Different voxel-based CAD systems are used and analyzed for component design and a sample component is additively manufactured. The results show that simple components can be designed using voxel-based CAD systems. With the application of 3D multi-material printing, different materials and thus functions can be assigned to the designed voxel-based CAD-model.
This textbook helps use regenerative systems for heating and cooling effectively. Integration and automation schemes provide a quick overview. Practical examples clearly show standard solutions for the integration of regenerative energy sources. For the 2nd edition, improvements have been made to the text and illustrations, and references to standards have been updated. Control questions at the end of the main chapters serve to consolidate the understanding of the content.
A method for evaluating skin cancer detection based on millimeter-wave technologies is presented. For this purpose, the relative permittivities are calculated using the effective medium theory for the benign and cancerous lesion, considering the change in water content between them. These calculated relative permittivities are further used for the simulation and evaluation of skin cancer detection using a substrate-integrated waveguide probe. A difference in the simulated scattering parameters S 11 of up to 13dB between healthy and cancerous skin can be determined in the best-case.
An organized strategy to ensure the security of an organization is an information security management system. During various security crises, hazards, and breaches, this strategy aids an organization in maintaining the confidentiality, integrity, and accessibility of information. Organizations are getting ready to comply with information security management system criteria. Despite this, security concerns continue to plague ineffective controls, have poor connectivity, or cause a silo effect, which is a common cause. One of the causes is a low maturity model that is not synchronized with the organization’s business processes. For a higher level of maturity, it is best to evaluate the practices.
Different maturity models on information security and cyber security capacity, management processes, security controls, implementation level, and many more have already been developed by numerous international organizations, experts, and scholars. The present models, however, do not assess a particular organization's particular practices. The evaluation of the business process is frequently neglected because measurement requirements for models are typically more concentrated on examining specific elements. For this reason, it caused the maturity assessment to not be executed explicitly and broadly.
We developed an organizational information security maturity model, a combination of work of different maturity models currently existing. While making this model, we considered that any size or type of organization could use this model. The model considers the success elements of the information security management system when assessing the implementation's effectiveness. We employed a mixed-method strategy that included both qualitative and quantitative research. With the help of a questionnaire survey, we evaluated the previous research using a qualitative methodology. In the quantitative method, we'll figure out how mature the information security management system is now. The proposed model could be used to reduce security incidents by improving implementation gaps.
Das Wachstum der Digitalisierung in der Industrie unterstreicht die Bedeutung der Usability der Systeme. Usability bezieht sich auf das Ausmaß, in dem ein Produkt oder Design von bestimmten Benutzern in einem bestimmten Kontext verwendet werden kann, um ein definiertes Ziel effektiv, effizient und zufriedenstellend zu erreichen.
In dieser Bachelorarbeit wurden die Ergebnisse einer Usability-Evaluierung einer Anwendung vorgestellt, die für tägliche Führungsroutinen im industriellen Bereich entwickelt wurde. Die Studie konzentrierte sich auf die Bewertung der Usability der Anwendung, der Benutzungserfahrung und der Einhaltung von Interaktionsprinzipien unter Berücksichtigung psychologischer Aspekte. Bei der Untersuchung wurde eine umfassende Methodik zur Bewertung der Usability angewandt, einschließlich formaler Usability-Tests und Nachbefragungen mit echten Endbenutzenden, die nur begrenzt mit der Anwendung vertraut waren.
Die Ergebnisse zeigten, dass die Kommunikation, die Hilfestellung und das unklare Design einiger Elemente selbst bei kleinen Aufgaben wie der Konfiguration von Linien Schwierigkeiten bereiten. Außerdem hatten die Testpersonen Probleme mit der komplexen Navigation in manchen Seiten. Die Studie enthält umsetzbare Empfehlungen, darunter die Integration von Feedback-Mechanismen, wie Tooltips und klare Fehlermeldungen und die Verbesserung des visuellen Designs von Schlüsselelementen für eine bessere Usability und eine positive Benutzungserfahrung.
Diese Arbeit beschäftigt sich mit der simulativen Untersuchung von Strömung und Wärmeübergang im Kontext von Vorkammerzündsystemen. Dies geschieht im Rahmen der Entwicklung eines Gasmotors mit gasgespülter Vorkammer. Entscheidene Größen für die Strömung und Arbeitsweise in einer Vorkammerzündkerze sind die Geometrie und Anordnung der Überströmbohrungen, das Vorkammervolumen und die Form der Vorkammer. Die Betrachtung wird dafür aufgeteilt in die Themen Spaltströmungen, Wärmeübergang und drallbehaftete Strömungen. Diese werden zunächst isoliert betrachtet und letztendlich in einem Anwendungsfall zusammengeführt. Für die Betrachtung von Spaltströmungen werden unterschiedliche Platten mit Bohrlöchern zu verschiedenen Drücken, Durchmessern und Plattenstärken durchströmt und der Wärmeübergang und der Drall werden mithilfe einer durch Leitbleche gelenkte Strömung in einem beheizten Rohr untersucht. Die Zusammenführung der Themen wird anhand einer Anströmvorrichtung für Brenngase auf Motorzylinder durchgeführt. Dabei erreichen die Gase hohe Temperaturen und aufgrund von hohen Drücken und Spaltströmungen große Geschwindigkeiten.
Für die Simulation werden die Programme Ansys Fluent und Ansys Forte verwendet. Während ersteres primär für die Simulation von Strömungen verwendet wird, ist Forte speziell aufgebaut, um in Verbrennungsmotoren neben der Berechnung der Strömung auch die Einspritzung von Kraftstoff, die Verbrennung dessen und die resultierenden Schadstoffe zu berechnen. Da die Ergebnisse aus Forte eine große Gewichtung in der Beurteilung der Entwicklungsarbeit des Gasmotors hat, muss Forte selbst validiert werden. Dies wird durchgeführt anhand der angesprochenen Teilthemen und verglichen mit Messungen aus der Literatur und Simulationsergebnissen in Fluent.
Um die Ausmaße des Klimawandels und die Emission von Treibhausgasen zu verringern, wird ein Umschwung auf erneuerbare Energien angestrebt. Dazu zählt unter anderem der Wandel von Öl und Gasheizungen, hin zu Wärmepumpen. Aufgrund seiner guten Beurteilung hinsichtlich Nachhaltigkeit und Umweltbeeinflussung, findet Propan als Betriebsstoff jüngst eine zunehmende Beachtung. Da dieses ein brennbares Kältemittel ist, müssen solche Wärmepumpen aus Sicherheitsgründen genauer untersucht werden. Ziel der vorliegenden Arbeit ist es deshalb, den Fall von Propan-Leckagen in den Heizkreislauf einer Propan-Wärmepumpe unter verschiedenen Versuchsbedinungen zu untersuchen. Des weiteren wird untersucht, wie gut das Propan im Leckagefall von einem Gasabscheider abgeschieden werden kann, um das Risiko für den Endanwender zu minimieren.
Um die Auswirkungen einer Propanleckage in den Heizkreis untersuchen zu können, werden unterschiedliche Messungen bei veränderbaren Parametern durchgeführt. Es wird untersucht, wie sich das Propan bei unterschiedlichen Leckagemassenströme Propan, unterschiedlichen Strömungsgeschwindigkeiten des Wassers und unterschiedlichen Temperaturen im Heizkreis verhält. Außerdem wird der Gasabscheider evaluiert, um zu untersuchen, unter welchen Bedienungen das meiste Propan abgeschieden werden kann.
Die Auswertung der Messungen zeigen, dass lediglich der Leckagemassenstrom an Propan einen Einfluss auf die Menge des abgeschiedenen Propans und die dafür benötigte Zeit hat. Umso größer die Propanleckage in dem Fall ist, umso mehr Propan wird dementsprechend in kürzerer Zeit abgeschieden. Durch die Variation des Volumenstrom des Wassers verändert sich der Druck im Heizkreis und steigt bei zunehmendem Volumenstrom an. Ab einem bestimmten Druck kann nun auch Propan über ein eingebautes Sicherheitsventil und nicht nur über den Gasabscheider entweichen. Die Temperatur des Heizkreises hat keinen Einfluss auf die Messungen. Des weiteren zeigen die Messungen, dass der Gasabscheider einen Großteil des Propans abscheidet. Die Messungen zeigen außerdem, dass durch eine niedrigere Strömungsgeschwindigkeit des Wassers mehr Propan über den Gasabscheider abgeschieden werden kann.
Sicherheitstechnisch ist bei einer Propan-Wärmepumpe zu Empfehlen, dass im Fall einer Propan-Leckage das abgeschiedene Propan nach dem Gasabscheider direkt nach draußen zu leiten. Eine weitere Möglichkeit wäre es, den Gasabscheider draußen aufzustellen und das Heizwasser erst nach dem Abscheider in das Gebäude zu leiten.
Die Untersuchungen wurden im Raumlufttechnischen Labor der Fachhochschule Offenburg zur Beurteilung der Effizienz der Schadstoffabfuhr unter Einhaltung der thermischen Behaglichkeit beim Einsatz verschiedener Luftführungssysteme- Quellauslaß, Deckendrallauslaß und Fußbodenauslaß- in Verbindung mit einer Kühldecke durchgeführt. Die Ergebnisse zeigen, daß keine signifikanten Vorteile für ein bestimmtes RLT-Konzept bestehen. Je nach Wahl der Randbedingungen der Untersuchungen liegen die erreichbaren Kühlleistungen innerhalb einer Systemkombination weiter auseinander als im Verhältnis zu den Vergleichssystemen. Insgesamt ist hinsichtlich der von beiden Systemen zusammen abgebbaren, maximalen Kühlleistung die Kombination Kühldecke mit Deckendralluftauslaß vorteilhaft.
Rupturen des vorderen Kreuzbandes werden meist mit einer Kreuzbandplastik-Operation wiederhergestellt. Bei einer gängigen OP-Methode wird hierbei Sehnenmaterial am Semitendinosus-Muskel entnommen, und mit diesem gewonnenen Sehnenmaterial das Kreuzband rekonstruiert. Dies hat zur Folge, dass es zu neuromuskulären Defiziten und dem Verhalten der Co-Kontraktion von Quadrizeps und Hamstrings kommen kann. Weitere Folgen sind Muskelschwäche und ein weniger flektiertes Verhalten in der Stützphase beim Gehen am operierten Bein. Das Auftreten von Co-Kontraktion beim Laufen ist im Zusammenhang mit einer expliziten Co-Kontraktionsberechnung noch nicht ausreichend untersucht worden. Auch ist unklar, welchen Einfluss die Kraftfähigkeiten auf Co-Kontraktion und Gelenkwinkel haben. In dieser Studie soll untersucht werden, inwieweit diese Effekte auch bei der Bewegung des Laufens auftreten. Mögliche Zusammenhänge zwischen Kraft/Co-Kontraktion und Kraft/Kniegelenkswinkel werden ebenfalls untersucht. Die Ergebnisse sollen einen Beitrag zum Verständnis der Mechanismen und damit auch zur Verbesserung der Rehabilitationsprozesse leisten. Im Rahmen von „Return to Sport“ Messungen wurden im IFD Colgone über einen Zeitraum von zwei Jahren „Return to Sport“ Messungen durchgeführt und relevante biomechanische Parameter erfasst. Die Untersuchungen fanden im Durchschnitt sieben Monate nach der Kreuzbandoperation statt. Innerhalb der Studie wurden 26 Patientendaten ausgewertet. Die Co-Kontraktion wurde durch Auswertung der EMG-Daten mit Hilfe einer Formel bestimmt. Die Patienten zeigten unabhängig vom Geschlecht signifikant erhöhte Co-Kontraktionswerte, reduzierte Kniegelenkswinkel und reduzierte Kraftfähigkeiten am operierten Bein. Dabei konnten die erhöhten Co- Kontraktionswerte als auch weniger flektierte Kniewinkel nicht bei allen Patienten der Stichprobe auf deren schlechte Kraftfähigkeit zurückgeführt werden. Hier gab es leichte Zusammenhänge aber keine signifikanten Ergebnisse. Da Co-Kontraktion als auch reduzierte Kniegelenkswinkel mit unterschiedlichsten Problemen in Verbindung gebracht werden können, sollte daran mit Hilfe von angepassten Reha- Maßnahmen gearbeitet werden. Rehabilitationsprozesse sollten verschiedene Kraft- und Koordinationsfähigkeiten fördern, mit dem Ziel, das neuromuskuläre Zusammenspiel zu verbessern.
Unterschiedliche Stimulationszeitpunkte bei bimodaler Versorgung mit Hörgerät und Cochleaimplantat
(2023)
Die bimodale Versorgung von Patienten mit Hörgerät (HG) ipsilateral und Cochleaimplantat (CI) kontralateral bei asymmetrischem Hörverlust ist aufgrund vieler inhärenter Variablen die komplizierteste Versorgungsart im Kontext der Versorgung mit CI. Im vorliegenden Übersichtsartikel werden alle systematischen interauralen Unterschiede zwischen elektrischer und akustischer Stimulation dargestellt, die bei dieser Versorgungsart auftreten können. Darüber hinaus werden Methoden zur Quantifizierung des interauralen Latenzoffsets, also des Zeitunterschieds zwischen der akustischen und elektrischen Stimulation des Hörnervs, mittels Registrierung auditorisch evozierter Potenziale – erzeugt durch akustische bzw. elektrische Stimulation – und Messungen an den Sprachprozessoren und Hörgeräten vorgestellt. Die technische Kompensation des interauralen Latenzoffsets und ihre positive Auswirkung auf die Schalllokalisationsfähigkeit bimodal mit CI und HG versorgter Patienten wird ebenfalls beschrieben. Zuletzt werden neueste Erkenntnisse diskutiert, die Gründe dafür aufzeigen, warum die Kompensation des interauralen Latenzoffsets das Sprachverstehen im Störgeräusch bei bimodal versorgten CI-/HG-Trägern nicht verbessert.
Covid-19 war mit Schulschließungen, Fernunterricht und Kontaktsperren ein bislang unbekannter Einschnitt für Bildungseinrichtungen. Zugleich wurden mit Laptops und Tablets, Web und App flächendeckend digitale Medien im Unterricht etabliert. Wird daraus jetzt das »neue Normal« oder müssen auf Basis aktueller Studien womöglich andere Schlüsse gezogen werden? Dieser Band versammelt Beiträge von Vertretern aus Wissenschaft, Schulpraxis und Kinderheilkunde. So entsteht ein faktenbasiertes und praxistaugliches Fundament für die Frage, was die zentralen Parameter für Schule und gelingenden Unterricht sind.
Ziel dieser Arbeit ist es darzulegen, was der Dunning-Kruger-Effekt genau ist, und den aktuellen Wissensstand zu diesem Effekt zu erfassen und wiederzugeben. Wo möglich, findet eine Einordnung und Bewertung statt. Dies ist insofern von Interesse, da dieser Effekt unter anderem gerne in der Populärwissenschaft thematisiert wird, seit Erstellung der begriffsprägenden Studie hierzu aber bereits mehr als 20 Jahre vergangen sind. Diese Thesis geht zudem darauf ein, in welchen Lebensbereichen der DKE eine Rolle spielen kann, welche best practices man als Gegenmaßnahmen ergreifen kann, ob dieser kulturell unabhängig beobachtbar ist und in welchen Bereichen noch offene Fragen für die zukünftige Forschung bestehen. Für die Erstellung dieser Thesis wurden überwiegend Paper aus verschiedenen Quellen gesammelt, die sich mit dem Dunning-Kruger-Effekt direkt oder indirekt beschäftigen oder naheliegende Stichwörter beinhalten.
Die Identifikation und Einschätzung von Risiken werden stets von Unsicherheit begleitet. Auch die besten Risikomodelle und Wahrscheinlichkeitsberechnungen können diese Tatsache nicht komplett beseitigen. Mit dieser Kenntnis besteht aber die Möglichkeit, alle erfassbaren Sachverhalte besser einzuschätzen und Modelle anzuwenden, die zielorientiert Probleme angehen. Dadurch lässt sich die Unsicherheit zugunsten des Risikomanagements verringern.
Ausreißer in Datenreihen geben einen Hinweis auf mögliche Risiken. Die empirischen Daten bestimmen weitestgehend die anzuwendenden Methoden. Dabei helfen Klassifikationssysteme, um zielorientiert zu einer Auswahl gelangen zu können. Die einfachste Form bilden univariate Datenreihen, deren Ausreißer mittels Häufigkeitsverteilungen, Konfidenzintervalle um den Mittelwert und Boxplots bestimmt werden.
In this study, an approach to a microwave-based radar system for the localization of objects has been proposed. This could be particularly useful in microwave imaging applications such as cardiac catheter detection. An experimental system is defined and realized with the selection of an appropriate antenna design. Hardware control functions and different imaging algorithms are implemented as well. The functionality of this measurement setup has been analyzed considering multiple testscenarios and it is proved to be capable of locating multiple objects as well as expanded objects.
As industrial networks continue to expand and connect more devices and users, they face growing security challenges such as unauthorized access and data breaches. This paper delves into the crucial role of security and trust in industrial networks and how trust management systems (TMS) can mitigate malicious access to these networks.The TMS presented in this paper leverages distributed ledger technology (blockchain) to evaluate the trustworthiness of blockchain nodes, including devices and users, and make access decisions accordingly. While this approach is applicable to blockchain, it can also be extended to other areas. This approach can help prevent malicious actors from penetrating industrial networks and causing harm. The paper also presents the results of a simulation to demonstrate the behavior of the TMS and provide insights into its effectiveness.
TRIZ Innovationstechnologie
(2023)
With recent developments in the Ukrainian-Russian conflict, many are discussing about Germany’s dependency on fossil fuel imports in its energy system, and how can the country proceed with reducing that dependency. With its wide-ranging consumption sectors, the electricity sector comes as the perfect choice to start with. Recent reports showed that the German federal government is already intending to have a fully renewable electricity by 2035 while exploiting all possible clean power options. This was published in the federal government’s climate emergency program (Easter Package) in early 2022. The aim of this package is to initiate a rapid transition and decarbonization of the electricity sector. The Easter Package expects an enormous growth of renewable energies to a completely new level, with already at least 80% renewable gross energy consumption, with extensive and broad deployment of different generation technologies on various scales. This paper will discuss this ambitious plan and outline some insights into this huge and rapidly increasing step, and show how much will Germany need in order to achieve this huge milestone towards a fully green supply of the electricity sector. Different scenarios and shares of renewables will be investigated in order to elaborate on preponed climate-neutral goal of the electricity sector by 2035. The results pointed out some promising aspects in achieving a 100% renewable power, with massive investments in both generation and storage technologies.
We consider large scale Peer-to-Peer Sensor Networks, which try to calculate and distribute the mean value of all sensor inputs. For this we design, simulate and evaluate distributed approximation algorithms which reduce the number of messages. The main difference of these algorithms is the underlying communication protocol which all use the random call model, where in discrete round model each node can call a random sensor node with uniform probability.The amount of data exchanged between sensor nodes and used in the calculation process affects the accuracy of the aggregation results leading to a trade-off situation. The key idea of our algorithms is to limit the sample size using the Finite Population Correction (FPC) method and collect the data using a distribution aggregation using Push-Pull Sampling, Pull Sampling, and Push Sampling communication protocols. It turns out that all methods show exponential improvement of Mean Squared Error (MSE) with the number of messages and rounds.
We propose a new streaming media service development environment comprising of a streaming media service model, a XML based service specification language and several implementation and configuration management tools. In our project, the described approach is used for integration of streaming based eLearning services in manufacturing processes of a subcontractor to the automotive industry. The key components of our approach are 1) an xml based streaming service specification language, 2) a set of web services for searching, registration, and creation of streaming services, 3) caching and replication policies based on timing information derived from the service specifications.
This book constitutes the proceedings of the 23rd International TRIZ Future Conference on Towards AI-Aided Invention and Innovation, TFC 2023, which was held in Offenburg, Germany, during September 12–14, 2023. The event was sponsored by IFIP WG 5.4.
The 43 full papers presented in this book were carefully reviewed and selected from 80 submissions. The papers are divided into the following topical sections: AI and TRIZ; sustainable development; general vision of TRIZ; TRIZ impact in society; and TRIZ case studies.