Refine
Year of publication
Document Type
- Bachelor Thesis (575)
- Article (unreviewed) (439)
- Part of a Book (395)
- Conference Proceeding (317)
- Contribution to a Periodical (229)
- Book (210)
- Master's Thesis (142)
- Other (140)
- Article (reviewed) (128)
- Working Paper (86)
Conference Type
- Konferenzartikel (215)
- Konferenzband (65)
- Konferenz-Abstract (22)
- Konferenz-Poster (10)
- Sonstiges (7)
Language
- German (2867) (remove)
Keywords
- Mikroelektronik (62)
- Marketing (46)
- Digitalisierung (44)
- Social Media (38)
- E-Learning (28)
- Künstliche Intelligenz (27)
- Arbeitszeugnis (22)
- Social Media Marketing (20)
- Management (19)
- Biomechanik (18)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (946)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (527)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (411)
- Fakultät Wirtschaft (W) (366)
- Fakultät Medien (M) (ab 22.04.2021) (302)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (189)
- INES - Institut für nachhaltige Energiesysteme (78)
- Zentrale Einrichtungen (65)
- POIM - Peter Osypka Institute of Medical Engineering (32)
- Rektorat/Verwaltung (32)
Open Access
- Closed Access (1038)
- Open Access (856)
- Closed (463)
- Bronze (207)
- Diamond (25)
- Hybrid (5)
- Grün (4)
- Gold (2)
Günter Knieps hat das Forschungsgebiet der Netzökonomie in Deutschland maßgeblich geprägt. Ein in seinen Forschungsarbeiten immer wiederkehrendes Thema ist die Frage nach der richtigen Balance zwischen Wettbewerb und Regulierung in Netzsektoren. Unter den vielen wissenschaftlichen Beiträgen, die Günter Knieps bislang vorgelegt hat, genießt ein Beitrag einen besonderen Stellenwert: sein im August 1997 in der Zeitschrift Kyklos erschienener Aufsatz „Phasing out Sector-Specific Regulation in Competitive Telecommunications“. Der 25. Jahrestag des Erscheinens dieses Aufsatzes wurde von der Herausgeberin und den Herausgebern des vorliegenden Sammelbandes zum Anlass genommen, den Versuch zu unternehmen, das wissenschaftliche Werk und das Wirken von Günter Knieps als Forscher und Hochschullehrer mit einer Festschrift zu würdigen. Mit Beiträgen von (in der Reihenfolge der Kapitel): Johannes M. Bauer, Falk von Bornstaedt, Manfred J. Holler & Florian Rupp, Hans-Ulrich Küpper, Kay Mitusch, Friedrich Schneider, Viktor J. Vanberg, Achim Wambach, Bernhard Wieland und Patrick Zenhäusern sowie einem Geleitwort von Carl Christian von Weizsäcker.
KINLI
(2023)
Konsumenten haben immer höhere Ansprüche an Lebensmittelsicherheit, -qualität und -nachhaltigkeit. Bei Fleisch erwarten viele Menschen auch eine artgerechte und ethisch vertretbare Aufzucht, Haltung und Schlachtung der Tiere. Im Projekt KINLI sollen eine Datenplattform und Dienste mit künstlicher Intelligenz entwickelt werden, um mögliche Probleme vorherzusagen. Unternehmen in der Lieferkette können damit proaktiv ihre Prozesse anpassen, bevor Probleme tatsächlich eintreten.
Im Zuge der Machbarkeitsstudie „BubbleMeth“ (FKZ BWFE310091) wurde die Machbarkeit der biologischen Methanisierung in einem neukonzipierten innovativen Pilot-Reaktor, basierend auf einer Gegenstromblasensäule mit separatem Entgasungs-Reaktor, sowohl für den Betrieb in der biologischen in-situ als auch der ex-situ Methanisierung demonstriert.
Die Pilot-Anlage besteht aus einer Gegenstromblasensäule und einem separaten Entgasungs-Reaktor und wurde an der Hochschule Offenburg geplant und gebaut. Die beiden Reaktor-Säulen haben jeweils eine Höhe von 10 m, einen Säulendurchmesser von 0,3 m und ein Gesamtreaktionsvolumen von etwa 1,1 m3. Der Gaseintrag erfolgt über Sinterplatten am Boden der Gegenstromblasensäule. In dieser Begasungssäule strömt die Flüssigkeit in entgegengesetzter Richtung zu den aufsteigenden Gasblasen und reichert sich durch den am Säulenfuß vorliegenden hydraulischen Druck zunehmend mit gelöstem Gas an. Die Säule, in die das Eduktgas am Säulenboden eingetragen wird, ist in Abbildung 1 auf der rechten Seite dargestellt und befindet sich auf der Saugseite einer Pumpe. Bei einer etwa 9,5 m hohen Wassersäule erhöht sich der Absolutdruck am Säulenboden auf etwa 1,95 bar, womit sich die Löslichkeit einer beliebigen Gaskomponente im Vergleich zum Atmosphärendruck bei konstanter Temperatur im Gleichgewicht gemäß dem Henry’schen Gesetz näherungsweise verdoppelt. Dieser Effekt wird genutzt, um die Verfügbarkeit von gelöstem Wasserstoff für die bei der biologischen Methanisierung katalytisch wirkenden hydrogenothrophen Archaeen zu erhöhen. Durch die Zirkulation der Flüssigkeit und den damit erreichten Druckwechsel wird auf der Seite des Entgasungs-Reaktors ein Ausgasen der relativ zum Atmosphärendruck übersättigten Gaskomponente ermöglicht. Durch die Zirkulation der Flüssigkeit über zwei Säulen wird außerdem die räumliche Trennung des Eduktgaseintrages und der Produktgasabtrennung erreicht.
Die in-situ Methanisierung wurde in der Machbarkeitsstudie bis zu einer organischen Beladungsrate von 0,94 kg m-3 d-1 realisiert. Die erwartete Biogasbildungsrate (BGBR) bei vollständiger Umsetzung des Glucose/Fructose-Substrates zu Methan und CO2 lag bei ca. 0,686 m3 m-3 d-1. Die gemessene BGBR erreichte 0,61 ± 0,03 m3 m-3 d-1. Die geringe Abweichung kann auf eine zusätzliche Nutzung des Substrates für den Erhaltungsstoffwechsel des gesamten biologischen Systems zurückgeführt werden. Der maximale volumetrische H2-Eintrag betrug während der in-situ Methanisierung 0,785 m3 m-3 d-1 und ist dabei bezogen auf das gesamte Reaktionsvolumen von ca. 1,1 m3 in beiden Reaktorkolonnen. Das eingesetzte H2:CO2-Verhältnis lag bei 2,3, um einen vollständigen CO2-Umsatz und eine damit verbundene Verschiebung des pH-Wertes in den alkalischen Bereich bei der in-situ Methanisierung zu vermeiden. Die Produktgaszusammensetzung lag stabil bei ca. 80 Vol.% CH4, 18 Vol.% CO2 und geringen Mengen an Stickstoff, die im Wesentlichen aus der manuellen Entnahme der Gasproben resultieren, und entsprach der erwarteten Zusammensetzung bei dem vorgegebenen H2:CO2-Verhältnis.
Im Anschluss an die Untersuchungsphase der in-situ Methanisierung wurde der Prozess auf die ex-situ Methanisierung umgestellt. Dazu wurde die OLR schrittweise reduziert und gleichzeitig der Eintrag von CO2 aus einer Druckgasflasche erhöht. Die ex-situ Methanisierung wurde im Rahmen der Machbarkeitsstudie bis zu einem volumenspezifischen CO2-Eintrag bezogen auf das Gesamtreaktionsvolumen von 1,1 m3 von 0,563 m3 CO2 m-3 d-1 durchgeführt.
Der maximale volumetrische H2-Eintrag betrug während der ex-situ Methanisierung 2,168 m3 m-3 d-1. Das eingesetzte H2:CO2-Verhältnis lag bei 3,6 bis 3,9. Die Produktgaszusammensetzung lag stabil bei ca. 91 Vol.% CH4, 8 Vol.% CO2 und geringen Mengen an Stickstoff, und entsprach der erwarteten Zusammensetzung bei dem vorgegebenen H2:CO2-Verhältnis.
Besonders bemerkenswert war, dass sowohl bei der in-situ als auch der ex-situ Methanisierung und den jeweils in der Machbarkeitsstudie eingesetzten maximalen volumetrischen H2-Einträge weder im austretenden Produktgas am Entgasungsreaktor noch im rezirkulierten Gas am Kopf des Begasungsreaktors Wasserstoff nachzuweisen war. Damit besteht großes Potenzial für eine weitere Steigerung der Methanbildungsrate. Aus diesem Grund sollen die Arbeiten zur biologischen Methanisierung in einem Innovationsprojekt fortgeführt werden. Die Anlage soll hinsichtlich ihrer Eignung in einer relevanten Einsatzumgebung zur Methanisierung von in Biogas enthaltenem CO2-bewertet werden. Dazu soll die Anlage außerdem mit einem preiswerten alkalischen Elektrolyseur kombiniert werden, um das Verfahren so kostengünstig wie möglich zu gestalten. Dieser Elektrolyseur soll in Anlehnung an die fluktuierende Energiebereitstellung Erneuerbarer Energien zyklisch betrieben werden und dabei vor allem zu Zeiten günstiger Spotmarktpreise in Betrieb sein.
In dieser Arbeit werden Untersuchungen an einem neuartigen Sensorkonzept zur Erfassung von Winkelbeschleunigungen durchgeführt. Ziel dieser Arbeit war es, die Möglichkeit, eine Miniaturisierung des Prototyps zu untersuchen. Hierfür wurde eine analytische und experimentelle Untersuchung durchgeführt. Für die analytische Betrachtung erfolgte eine Fehlerfortpflanzung nach Gauß, welche die Fertigungstoleranzen, Dimensionsfehler des Accelerometers, Rauschen und Messabweichungen von Accelerometer und Gyroskop berücksichtigt. Die Ergebnisse zeigen, dass bei Verwendung der hochwertigen Inertial Measurment Units (IMUs) eine theoretische Verkleinerung bis auf 21mm eine höhere Genauigkeit bietet als die numerischen Differentiationen der Winkelgeschwindigkeit.
Für die Verifizierung unter realen Bedingungen wurden verschiedene Prüfkonzepte verglichen.
Dabei erwies sich ein Pendelprüfstand als vielversprechender Ansatz. Durch die Verwendung von Kugellagern kann ein breites Spektrum an Winkelbeschleunigungen abgebildet werden. Die kontinuierliche Erfassung reflektierender Marker auf der Pendelstange ermöglicht die Ermittlung der Winkel, die als Grundlage für ein Modell dienen, wodurch sich reale Winkelbeschleunigungen mit den Messdaten des Sensors vergleichen lassen. Dabei stellt die Modellierung der Verlustterme eine zukünftige Herausforderung dar.
Die Ergebnisse zeigen, dass eine Miniaturisierung des Sensorprototyps möglich ist und das der Pendelprüfstand eine Methode zur Verifizierung darstellt. Dies trägt dazu bei, die Anwendungsmöglichkeiten des Sensorkonzepts in der Praxis zu erweitern.
Die vorliegende Erfindung betrifft ein Verfahren zum Herstellen dreidimensionaler Bauteile, bei dem aus einem pulverförmigen Ausgangswerkstoff (1), der mit mindestens zwei Komponenten gebildet ist, wobei die Komponenten einen unterschiedlichen Dampfdruck bei gleicher Temperatur aufweisen, durch ein additives Strahlfertigungsverfahren ein Bauteil hergestellt wird. Mindestens ein Prozessparameter zum Betrieb mindestens eines zweidimensional auslenkbaren Energiestrahls wird derart eingestellt, dass sich der Dampfdruck mindestens einer der Komponenten ändert, so dass der Anteil dieses chemischen Elements oder dieser Legierung im Bauteilvolumen lokal definiert im Bauteil variiert wird.
Bei der Vorrichtung zum Verdampfen einer Flüssigkeit ist eine offenporöse Struktur (1) in einem Gehäuse (8) angeordnet, die zumindest bereichsweise als eine Heizvorrichtung ausgebildet oder mittels einer externen Heizvorrichtung oder Bereiche der offenporösen Struktur (1) auf eine Temperatur, die mindestens der Siedetemperatur der jeweiligen Flüssigkeit entspricht, erwärmbar ist. Die Flüssigkeit ist in einem außerhalb des Gehäuses (8) angeordneten Reservoir (4), mit einer Menge aufgenommen, die während des Betriebs eine kontinuierliche Verdampfung von Flüssigkeit ermöglicht. Das Reservoir ist über mindestens eine Leitung (3) für Flüssigkeit mit dem Gehäuse (8) verbunden und in der mindestens einen Leitung (3) ist/sind ein Ventil und/oder eine Pumpe oder ein Verdichter (5) angeordnet. Die Leitung (3) mündet in mindestens eine Öffnung mindestens einer Düse (2) oder mindestens eine Austrittsöffnung und die Düse (2), deren Öffnung(en) und/oder die mindestens eine Austrittsöffnung der Leitung (3) ist/sind so angeordnet, dass Flüssigkeit auf Oberflächenbereiche der offenporösen Struktur (1) auftrifft und/oder in Poren der offenporösen Struktur (1) eintritt, wenn Flüssigkeit durch die eine Leitung (3) strömt.
The article investigates the development of a manufacturing route for highly porous titanium foams suitable for craniofacial surgery applications, particularly in cranioplasties. The study focuses on the polyurethane replication method for foam production and emphasizes reducing residual gas content, as it significantly affects the mechanical properties and suitability for approval of the foams. Various factors such as starting materials, solvent debinding, heating schedules, and hydrogen atmosphere are analyzed for their impact on residual gas content. It is shown that significant reductions in residual gas content can only be achieved by reworking each step of the process. A combination of initial solvent debinding of the PU template with dimethyl sulphoxide, reduction of suspension additives, use of coarser Gd. 1 powders, and an integrated debinding and sintering process under partial hydrogen atmosphere achieves a significant reduction in residual gas content. This way, the potential for producing titanium foams that comply with relevant standards for craniofacial implants is demonstrated.
Der vorliegende Leitfaden entstand im Rahmen der wissenschaftlichen Querspange »LowEx-Bestand Analyse« des thematischen Projektverbunds »LowEx-Konzepte für die Wärmeversorgung von Mehrfamilien-Bestandsgebäuden (LowEx-Bestand)« zusammen. In diesem Verbund arbeiteten die drei Forschungsinstitute Fraunhofer ISE, KIT und Universität Freiburg (INATECH) mit Herstellern von Heizungs- und Lüftungstechnik und mit Unternehmen der Wohnungswirtschaft zusammen. Gemeinsam wurden Lösungen entwickelt, analysiert und demonstriert, die den effizienten Einsatz von Wärmepumpen, Wärmeübergabesystemen und Lüftungssystemen bei der energetischen Modernisierung von Mehrfamiliengebäuden zum Ziel haben.
In der Studie "Technisch-wissenschaftliche Analyse zur Energieeffizienz unterschiedlicher Trinkwasser-Erwärmungssysteme im Vergleich" im Auftrag der Viega GmbH & Co. KG werden verschiedene Trinkwasser-Erwärmungssysteme hinsichtlich ihrer Energieeffizienz in Wärmepumpensystemen vergleichend untersucht. Neben Aufbau und Parametrierung eines Simulationsmodells sowie Integration von Lastreihen nach Norm umfasst die Studie eine detaillierte Abbildung aller untersuchten Systeme. Dabei liegt ein Schwerpunkt auf der Einordnung des Energieeinsparpotenzials durch eine Warmwassertemperaturreduktion mit dem Viega AVS Trinkwasser Management System. Die untersuchten Varianten sind: Referenzsystem 1: Durchflusstrinkwassererwärmer DTE (1 stufig) mit Rücklaufeinschichtung. System 2: Viega DTE (2 stufig). System 3: Viega AVS Trinkwasser Management System mit DTE (2 stufig) und Ultrafiltrationsmodul im Zirkulationsrücklauf UFC. System 4: Wohnungsstation, 4-Leiter-System. System 5: Wohnungsstation, 2-Leiter-System. System 6: Elektrischer Durchlauferhitzer. Die Studie ergab, dass sich bei Einsatz einer Niedertemperatur-Wärmepumpe mit maximaler Vorlauftemperatur von 58 °C das Viega AVS System mit DTE und UFC, dezentrale elektrische Durchlauferhitzer sowie das 4-Leiter-System bei einer Trinkwassertemperatur von 45°C im Vergleich als energetisch am besten erweisen. Bei einer Wärmepumpe mit einer höheren maximalen Vorlauftemperatur von 64 °C kann auch das 4-Leiter-System bei einer Trinkwassertemperatur von 50°C sinnvoll eingesetzt werden. Die Ergebnisse zeigten auch, dass je höher die durch die Wärmepumpe bereitgestellte Temperatur (maximale Vorlauftemperatur), desto besser lassen sich auch die anderen Systeme einsetzen, da sich dadurch der Einsatz des Backup-Systems minimieren lässt. Das Viega Aqua VIP System mit Temperaturabsenkung schneidet im Vergleich sehr gut hinsichtlich des Einsatzes der Endenergie und der zu erreichenden Jahresarbeitszahl ab. Der Einsatz dieses Systems in Kombination mit einer Wärmepumpe bietet Potenzial für den Einsatz erneuerbarer Energien.
LowEx-Konzepte für die Wärmeversorgung von Mehrfamilien-Bestandsgebäuden ("LowEx-Bestand Analyse")
(2023)
Der vorliegende Abschlussbericht fasst die Ergebnisse der wissenschaftlichen Querspange »LowEx-Bestand Analyse« des thematischen Projektverbunds »LowEx-Konzepte für die Wärmeversorgung von Mehrfamilien-Bestandsgebäuden (LowEx-Bestand)« zusammen. In diesem Verbund arbeiteten drei Forschungsinstitute mit Herstellern von Heizungs- und Lüftungstechnik und mit Unternehmen der Wohnungswirtschaft zusammen. Gemeinsam wurden Lösungen entwickelt, analysiert und demonstriert, die den effizienten Einsatz von Wärmepumpen, Wärmeübergabesystemen und Lüftungssystemen bei der energetischen Modernisierung von Mehrfamiliengebäuden zum Ziel haben. LowEx-Systeme arbeiten durch geringe Temperaturdifferenzen zwischen Heizmedium und Nutzwärmebesonders effizient. Wärmepumpen haben dabei erhebliches Potenzial zur Absenkung der spezifischen CO2-Emissionen bei der Wärmebereitstellung. Für die energetische Modernisierung von Mehrfamiliengebäuden ist der Einsatz solcher Systeme mit besonderen Herausforderungen und Anforderungen an die Übergabe der Raumwärme, die Warmwasserbereitung und die Nutzung von Umweltwärme verbunden. Diese Herausforderungen werden in LowEx-Bestand adressiert.
Elektrische Wärmepumpen sind eine Schlüsseltechnologie für klimafreundliche Gebäude. In Mehrfamilienhäusern ist ihr Einsatz noch eine Herausforderung und entsprechend wenig verbreitet. Im Rahmen des Verbundprojekts "HEAVEN" haben Forschende nun ein Mehrquellen-Wärmepumpensystem entwickelt, das an die Anforderungen größerer Wohngebäude angepasst ist. Getestet wurde es im Rahmen des Verbundprojekts "Smartes Quartier Durlach" in einem Karlsruher Gebäude. Daten zum ersten Betriebsjahr liegen nun vor.
Diese Metadaten wurden zur Verfügung gestellt von der Literaturdatenbank RSWB®plus
Am 1. Juli 2022 trafen sich im Rahmen des Abschlusskolloquiums des Projekts ACA-Modes rund 60 Teilnehmende aus Forschung, Lehre und Industrie zu einer internationalen Konferenz an der Hochschule Offenburg. Hier wurden die Projektergebnisse rund um die erfolgreiche Implementierung modellprädiktiver Regelstrategien vorgestellt, aktuelle Fragestellungen diskutiert und Entwicklungspfade hin zu einem netzdienlichen Betrieb von Energieverbundsystemen skizziert.
Wärmepumpen sind eine Schlüsseltechnologie der Wärmewende. Durch die Nutzbarmachung von Umweltwärme und den Antrieb mit Elektrizität, die zunehmend aus erneuerbaren Energien gewonnen wird, kann die CO2-Intensität der Wärmeversorgung gesenkt werden. Eine Herausforderung besteht in der Anwendung in größeren Mehrfamilienbestandsgebäuden. Lösungsansätze und beispielhafte Umsetzungen werden hierzu vorgestellt.
In der Geschichte »Die Schule« (Originaltitel: ,,The fun they had“) von 1954 beschreibt der russisch-amerikanische Wissenschaftler und Science fiction Autor Isaac Asimov, wie die Schule der Zukunft im Jahr 2157 aussieht – oder genauer: dass es gar keine Schulen mehr gibt. Jedes Kind hat neben seinem Kinderzimmer im Elternhaus einen kleinen Schulraum, in dem es von einem mechanischen Lehrer (einer Maschine mit Bildschirm und einem Schlitz zum Einwerfen der Hausaufgaben) unterrichtet wird. Diese Lehrmaschine ist perfekt auf die Fähigkeiten des einzelnen Kindes eingestellt und kann es optimal beschulen. Nur: Maschinen können kaputt gehen. Die elfjährige Margie wird von ihrem mechanischen Lehrer wieder und wieder in Geographie abgefragt, aber jedes Mal schlechter benotet. Das sieht die Mutter und ruft den Schulinspektor, um den mechanischen Lehrer zu reparieren.
Verfahren zum Betrieb eines batterieelektrischen Fahrzeugs mit einer elektrischen Maschine zum Antrieb des Fahrzeugs und einem Inverter (1) zum Ansteuern der elektrischen Maschine, wobei der Inverter (1) eine dreiphasige Brückenschaltung mit einer Anzahl von als Halbleiter ausgebildeten Schaltern (3) umfasst, wobei im Inverter (1) entstehende Verluste zum Heizen eines Innenraums des Fahrzeugs und/oder zum Temperieren einer Batterie und/oder zum Temperieren von Getriebeöl verwendet werden, wobei der Inverter (1) mittels Raumzeigermodulation gesteuert wird, wobei ein nicht-optimales Schaltverhalten des Inverters (1) herbeigeführt wird, indem nicht optimale Spannungs-Raumzeiger (e, eu, ev, ew, e1, e2, -e1, -e2) eingestellt werden, wobei eine Skalierung der Spannungs-Raumzeiger (e, e1, e2) über die Schaltung von Nullspannungsvektoren, die je nach zeitlichem Anteil die Spannung reduzieren, oder durch Zuhilfenahme eines jeweils gegenüberliegenden Spannungs-Raumzeigers (-e1, -e2) erfolgt, so dass eine Schaltfolge mit einer maximalen Anzahl von Schaltzyklen realisiert wird, dadurch gekennzeichnet, dass in der Mitte einer Schaltperiode (Tp) keine Symmetrie erzeugt wird.
Die Erfindung betrifft ein Verfahren zum Betrieb eines batterieelektrischen Fahrzeugs mit einer elektrischen Maschine zum Antrieb des Fahrzeugs und einem Inverter (1) zum Ansteuern der elektrischen Maschine, wobei der Inverter (1) eine dreiphasige Brückenschaltung mit einer Anzahl von als Halbleiter ausgebildeten Schaltern (3) umfasst, wobei im Inverter (1) entstehende Verluste zum Heizen eines Innenraums des Fahrzeugs und/oder zum Temperieren einer Batterie und/oder zum Temperieren von Getriebeöl verwendet werden, wobei der Inverter (1) mittels Raumzeigermodulation gesteuert wird, wobei ein nicht-optimales Schaltverhalten des Inverters (1) herbeigeführt wird, indem nicht optimale Spannungs-Raumzeiger (e, eu, ev, ew, e1, e2, -e1, -e2) eingestellt werden, wobei eine Skalierung der Spannungs-Raumzeiger (e, e1, e2) über die Schaltung von Nullspannungsvektoren, die je nach zeitlichem Anteil die Spannung reduzieren, oder durch Zuhilfenahme eines jeweils gegenüberliegenden Spannungs-Raumzeigers (-e1, - e2) erfolgt, so dass eine Schaltfolge mit einer maximalen Anzahl von Schaltzyklen realisiert wird, wobei in der Mitte einer Schaltperiode (Tp) keine Symmetrie erzeugt wird.
Die Erfindung betrifft ein Verfahren zum Betrieb eines batterieelektrischen Fahrzeugs mit einer elektrischen Maschine zum Antrieb des Fahrzeugs und einem Inverter (1) zum Ansteuern eine Stators (2) der elektrischen Maschine, wobei der Inverter (1) eine dreiphasige Brückenschaltung mit einer Anzahl von als Halbleiter ausgebildeten Schaltern (3) umfasst, wobei im Inverter (1) und/oder in der elektrischen Maschine entstehende Verluste zum Heizen eines Innenraums des Fahrzeugs und/oder zum Temperieren einer Batterie und/oder zum Temperieren von Getriebeöl verwendet werden, wobei während des Stillstands des Fahrzeugs ein von einem Permanentmagneten der elektrischen Maschine verursachter Permanentmagnetfluss durch Einstellen einer nichtdrehmomentbildenden Statorstromkomponente (Id) in Höhe des negativen Quotienten aus einem Statorfluss (&psgr;PM) und einer d-Komponente einer Statorinduktivität (Ld) so stark geschwächt wird, dass der magnetische Fluss kompensiert wird, wobei ein sehr hochfrequenter Wechselstrom als drehmomentbildende Statorstromkomponente (Iq) eingestellt wird.
Die Erfindung betrifft ein Verfahren zum Betrieb eines batterieelektrischen Fahrzeugs mit einer elektrischen Maschine zum Antrieb des Fahrzeugs und einem Inverter (1) zum Ansteuern eines Stators (2) der elektrischen Maschine, wobei der Inverter (1) eine dreiphasige Brückenschaltung mit einer Anzahl von als Halbleiter ausgebildeten Schaltern (3) umfasst, wobei im Inverter (1) und/oder in der elektrischen Maschine entstehende Verluste zum Heizen eines Innenraums des Fahrzeugs und/oder zum Temperieren einer Batterie und/oder zum Temperieren von Getriebeöl verwendet werden, wobei eine als Wechselstrom ausgebildete nichtdrehmomentbildende Statorstromkomponente (Id) in die elektrische Maschine eingeprägt wird, wobei im Stillstand eine drehmomentbildende Statorstromkomponente (Iq) zu Null geregelt wird, wobei im Fahrbetrieb ein Kompensationsstrom als drehmomentbildende Statorstromkomponente (Iq) eingeprägt wird, der ein durch die Variation der nichtdrehmomentbildenden Statorstromkomponente (Id) entstehendes Drehmoment kompensiert.
Die Arbeit beinhaltet die Konzeption und den Aufbau eines Prüfstandes für den Elektromotor sowie den Antriebsstrang des Hocheffizienzfahrzeugs "Schluckspecht S6" der Hochschule Offenburg. Neben Beschreiben des Vorgehens bei dem Entwerfen von benötigten CAD-Modellen wird auch auf die Auswahl und Implementierung elektronischer Komponenten sowie die Programmierung des verwendeten Mikrocontrollers eingegangen. Die Ergebnisse eines ersten Tests des Prüfstandes werden außerdem aufgezeigt und diskutiert.
Im Rahmen dieser Arbeit wurde das elektrisch / elektronische System des Hocheffizienzfahrzeugs „Schluckspecht 6“ hinsichtlich seiner Übersichtlichkeit und Modularität optimiert. Essenziell war die Vernetzung der durch verschiedene Projektgruppen erstellten Teilsysteme mittels des neu integrierten CAN-Bus. Im Zuge der Überarbeitung des E/E-Systems wurde auch ein neuer Gesamtfahrzeugschaltplan angefertigt.
Im Rahmen der Optimierung des E-Antriebsstrangs wurde eine neue Motorsteuerung entwickelt, die aufgrund des verbauten Vierquadrantenstellers neben einem zuverlässigen Antrieb des Schluckspecht 6 zukünftig auch die Steuerung und Regelung von Lastmaschinen in – für den Schluckspecht 6 neu entwickelten – Testständen erlaubt. Für die Messdatenerfassung, während Test- und Rennläufen sowie in den Testständen, wurden diverse Messsysteme realisiert. Dazu gehören die Messung des Motorstroms, der Zwischenkreisspannung und der Motordrehzahl. Basierend auf der Motorstrommessung und Zwischenkreisspannungsmessung wurde eine Stromregelung implementiert, um die Bedienfreundlichkeit und Effizienz des S6 im Rennbetrieb zu erhöhen.
Die Visualisierung von Programmabläufen ist ein zentraler Aspekt für Programmieranfänger, um das Verständnis von Codeabläufen zu erleichtern und den Einstieg in der Softwareentwicklung zu unterstützen. In dieser Masterthesis wird ein speziell auf die Bedürfnisse von Einsteigern zugeschnittenes generisches Framework vorgestellt, wobei der Fokus auf einer einfachen, verständlichen aber auch korrekten Darstellung der Programmausführung liegt. Das Framework integriert das Debugger Adapter Protocol, um den Debugger unterschiedlicher Sprachen ansprechen und verwenden zu können.
In dieser Arbeit werden zunächst die Anforderungen für das generische Framework diskutiert. Anschließend werden bestehende Ansätze zur Visualisierung von Programmabläufen ausführlich untersucht und analysiert. Die Implementierung des Frameworks wird daraufhin detailliert beschrieben, wobei besonderer Wert auf die Erweiterbarkeit unterschiedlicher Sprachen gelegt wird.
Um die Eignung des Frameworks zu evaluieren, werden mehrere Aufgaben aus dem ersten Modul mit der jeweiligen Programmiersprache des Studiengangs Angewandte Informatik der Hochschule Offenburg betrachtet. Die Ergebnisse zeigen, dass das Framework mit den Aufgaben umgehen und diese korrekt und verständlich darstellen kann.
The aim of this bachelor thesis is to introduce a product data management (PDM) system to reduce the current difficulties in the project team workflow. The main objective is to reduce or prevent problems in the project team's collaboration processes by establishing a centralized, structured data repository.
The process to achieve this goal was to first talk to the project team and monitor professors to find the most effective strategies. Early research on PDM/PLM (Product Lifecycle Management) was conducted through literature reviews, online searches, thesis reviews, and video resources.
In order to gain a comprehensive understanding of PDM systems, the thesis used a combination of group discussions and literature reviews. The emphasis was on the practical application, which included the customization of configurations.
Im Automobilbau bietet der Einsatz der Multimaterialbauweise ein signifikantes Potenzial zur Gewichtsreduktion. Zugleich erfordert diese Bauweise eine große Anzahl von Fügeverfahren für die Verbindung der unterschiedlichen Werkstoffe und Werkstoffklassen. Dabei muss eine Vielzahl an konstruktiven und materialseitigen Anforderungen berücksichtigt werden. Um in diesem Auswahlprozess den Aspekt des Leichtbaus beim Fügeverfahren selbst systematisch zu integrieren, wurde eine Methodik entwickelt, welche die Fügeverfahren im Hinblick auf ihr jeweiliges Leichtbaupotenzial bewertet.
In Zeiten großer Veränderungen haben genossenschaftlich organisierte KMU die Möglichkeit, auf komplexe Herausforderungen mit kooperativen Lösungsansätzen zu reagieren, vor allem wenn dabei die Kraft und Kreativität der Gemeinschaft genutzt wird. Getreu dem Motto „Was einer alleine nicht schafft, das schaffen viele“ des Genossenschaftsvorreiters Friedrich Wilhelm Raiffeisen ist gemeinschaftliches unternehmerisches Handeln identitätsstiftend und motivierend, woraus wiederum eine sich selbst verstärkende Eigendynamik entstehen kann. Wie Mittelstand, Politik und Gesellschaft davon profitieren, stellen Prof. Dr. Tobias Popovic und Prof. Dr. Thomas Baumgärtler in diesem Beitrag dar.
Die Erfindung betrifft eine Vorrichtung zur biologischen Methanisierung von CO und/oder CO2mittels methanogener Mikroorganismen durch Umsetzung von H2und CO und/oder CO2, die eine Begasungskolonne und eine Entgasungskolonne, jeweils mit einer Bodenseite und einer der Bodenseite gegenüberliegenden oberen Seite, ein in der Begasungskolonne und der Entgasungskolonne bereitgestelltes Medium mit methanogenen Mikroorganismen, eine Zuführeinrichtung zum Zuführen eines H2enthaltenden Gases in das Medium der Begasungskolonne, eine Abführeinrichtung zum Abführen eines CH4enthaltenden Gases aus der Entgasungskolonne, eine Verbindungsleitung zwischen Begasungskolonne und Entgasungskolonne im Bereich der Bodenseiten, eine Pumpe zum Überführen von Medium über die Verbindungsleitung von der Begasungskolonne in die Entgasungskolonne, und eine Rückführleitung zwischen der Begasungskolonne und der Entgasungskolonne im Bereich der oberen Seiten zum Rückführen von Medium aus der Entgasungskolonne in die Begasungskolonne aufweist. Die Erfindung betrifft auch ein Verfahren zur biologischen Methanisierung von CO und/oder CO2in einer Vorrichtung mittels methanogener Mikroorganismen als Teil eines in der Vorrichtung bereitgestellten Mediums, wobei das Medium in einem Kreislauf über eine Begasungskolonne und eine Entgasungskolonne geführt wird, wobei die Kolonnen jeweils über eine Verbindungsleitung im Bereich ihrer Bodenseiten und über eine Rückführleitung im Bereich der den Bodenseiten gegenüberliegenden oberen Seiten miteinander verbunden sind, worin das Medium sich in der Begasungskolonne absteigend und in der Entgasungskolonne aufsteigend bewegt, worin dem Medium in der Begasungskolonne ein H2enthaltendes Gas zugeführt wird.
Die Erfindung betrifft eine Vorrichtung zur biologischen Methanisierung von CO und/oder CO2 mittels methanogener Mikroorganismen durch Umsetzung von H2 und CO und/oder CO2, die eine Begasungskolonne und eine Entgasungskolonne, jeweils mit
einer Bodenseite und einer der Bodenseite gegenüberliegenden oberen Seite, ein in der Begasungskolonne und der Entgasungskolonne bereitgestelltes Medium mit methanogenen Mikroorganismen, eine Zuführeinrichtung zum Zuführen eines H2 enthaltenden Gases in das Medium der Begasungskolonne, wobei die Zuführeinrichtung im Bereich der Bodenseite der Begasungskolonne angeordnet ist, eine Abführeinrichtung zum Abführen eines CH4 enthaltenden Gases aus der Entgasungskolonne, eine Verbindungsleitung zwischen Begasungskolonne und Entgasungskolonne im Bereich der Bodenseiten, eine Pumpe zum Überführen von Medium über die Verbindungsleitung von der Begasungskolonne in die Entgasungskolonne, und eine Rückführleitung zwischen der Begasungskolonne und der Entgasungskolonne im Bereich der oberen Seiten zum Rückführen von Medium
aus der Entgasungskolonne in die Begasungskolonne aufweist. Die Erfindung betrifft auch ein Verfahren zur biologischen Methanisierung von CO und/oder CO2 in einer Vorrichtung mittels methanogener Mikroorganismen als Teil eines in der Vorrichtung bereitgestellten Mediums, wobei das Medium in einem Kreislauf über eine Begasungskolonne und eine Entgasungskolonne geführt wird, wobei die Kolonnen jeweils über eine Verbindungsleitung im Bereich ihrer Bodenseiten und über eine Rückführleitung im Bereich der den Bodenseiten gegenüberliegenden oberen Seiten miteinander verbunden sind, worin das Medium sich in der Begasungskolonne absteigend und in der Entgasungskolonne aufsteigend bewegt, worin dem Medium im Bereich der Bodenseite der Begasungskolonne ein H2 enthaltendes Gas zugeführt wird.
Die vorliegende Masterthesis analysiert die Anwendungsbereiche und Einsatzmöglichkeiten von ChatGPT im Social-Media-Marketing sowie die Vorteile, aber auch die möglichen Herausforderungen, die sich aus dem Einsatz von ChatGPT in diesem Bereich ergeben. In einer Ära, in der Künstliche Intelligenz, kurz KI, zunehmend die Marketinglandschaft prägt, wird die Integration von ChatGPT in Social-Media-Strategien immer bedeutsamer. Der Fokus liegt dabei auf der Identifizierung von vielfältigen Einsatzmöglichkeiten von ChatGPT in folgenden potenziellen Bereichen: Content Marketing, Kundenkommunikation, Influencer Marketing und Community Management.
Die Zielsetzung besteht darin, die Auswirkungen und Potenziale von ChatGPT auf die Effizienz, Relevanz und Qualität von Social-Media-Marketing zu bewerten. Die Forschungsmethodik basiert auf einer umfassenden Literaturrecherche und Experteninterviews, um Erkenntnisse über Best Practices und Herausforderungen beim Einsatz von ChatGPT zu gewinnen.
Die Ergebnisse dieser Arbeit bieten wertvolle Einblicke für Marketingexperten und Unternehmen, die die Integration von ChatGPT in ihre Social-Media-Strategien in Betracht ziehen. Diese Kurzfassung liefert einen Überblick über die wichtigsten Aspekte dieser Forschung und die erzielten Erkenntnisse, die die Zukunft des Social-Media-Marketing maßgeblich beeinflussen können. Die Erkenntnisse aus der Literaturrecherche, der Auswertung der Experteninterviews sowie die Gegenüberstellung der Ergebnisse dieser beiden Forschungsmethoden zeigen, dass der Einsatz von ChatGPT im Kontext von Social-Media-Marketing vor allem bei der Arbeit mit textlichen Inhalten sinnvoll, effizient und ressourcensparend sein kann, z.B. bei der Ideengenerierung, Korrektur, Übersetzung, Zusammenfassung oder der Erstellung erster Textvorlagen. In allen anderen Bereichen fungiert ChatGPT vor allem als Rat- und Ideengeber sowie als Informationsquelle, deren Wahrheitsgehalt jedoch stets überprüft werden sollte.
Aufgrund der Dynamik und der stetigen Weiterentwicklung des Feldes der KI sollte in Zukunft weitere Forschung in diesem Bereich betrieben werden.
Ziel dieser Arbeit war die Konzeption und Gestaltung einer Unboxing Experience für ein E-Commerce Startup im Bereich der gehobenen Convenience Food Branche unter Berücksichtigung der zu erreichenden Unternehmensziele und der fokussierten Zielgruppe des Unternehmens. Hierfür wurde zunächst der Begriff Unboxing im Kontext von Marketing und Onlinehandel sowie die Bedeutung verwandter Trends wie des Unboxing-Videos erörtert. Anschließend wurden das Unternehmen und die relevante Zielgruppe in Form von Personas vorgestellt. Durch die konkrete Definition der vorgegebenen Unternehmensziele konnte auch die spätere Gestaltung hierauf aufbauen. Schließlich wurden bereits vorhandene Best Practices recherchiert und analysiert, um Ideen und Anhaltspunkte zu schaffen. Die Konzeption ist in die einzelnen Gestaltungsgegenstände und deren schrittweise Ausarbeitung unterteilt. Das Ergebnis soll eine ästhetisch ansprechende und das Unternehmen widerspiegelnde Unboxing Experience sein, bestehend aus einem bedruckten Versandkarton, einer Produktbroschüre und einer Dankes- bzw. Grußkarte in zwei verschiedenen Ausführungen. Jede Komponente erfüllt hierbei einen Zweck im Unternehmenskontext. Insgesamt konnte aus den drei Einzelkomponenten eine in der Gesamtkomposition ansprechende Unboxing Experience geschaffen werden, die die Hochwertigkeit der Produkte unterstreicht und das Auspacken zu einem Erlebnis macht.
Wirtschaftlichkeitsbetrachtung eines smarten Energiekonzepts für ein Bestandsquartier in Karlsruhe
(2023)
Die Transformation der Energieversorgung in Bestandsgebäuden ist für die Erreichung der Klimaziele im Gebäudesektor entscheidend. In einem modellhaften Quartiersprojekt in Karlsruhe-Durlach wird ein ‚smartes Energiekonzept‘, bestehend aus Wärmepumpen, Blockheizkraftwerk und PV-Anlagen mit lokalem Strom- und Wärmenetz umgesetzt und messtechnisch begleitet. Ziel ist dabei eine CO2-effiziente und wirtschaftliche Bereitstellung von Wärme und Strom.
In dem Artikel wird eine Wirtschaftlichkeitsbetrachtung für das Wärme- und Stromcontracting auf Basis der realen Investitionskosten sowie der gemessenen und berechneten Energieflüsse durchgeführt. Die Wärmegestehungskosten hängen neben den Investitionskosten von den energiewirtschaftlichen Rahmenbedingungen ab. Mit ansteigender CO2-Steuer werden mittelfristig Wärmegestehungskosten erreicht, die unter denen konventioneller Energiesysteme liegen. Dadurch bietet das integrierte Energiekonzept ein breites Anwendungspotenzial für städtische Bestandsquartiere außerhalb von Fernwärme-Gebieten.
IT-Governance
(2023)
Die Dynamik der technologischen Entwicklungen übt einen großen Druck auf die Leitungs- und Überwachungsorgane eines Unternehmens aus. Die Hyperkonnektivität impliziert, dass die interne IT und OT Anknüpfungspunkte an den externen Kontext besitzen, wodurch die Komplexität aufgrund eines Nebeneinanders einer Vielzahl von Hard- und Software exponentiell steigt. Die gesetzlichen Notwendigkeiten zusammen mit den geschäftspolitischen Anforderungen sollten zur Überlegung führen, eine IT-Governance im Unternehmen zu etablieren. Das System der Wahl und die Dichte der Regulierung ist den Verantwortlichen unter Berücksichtigung des Unternehmensinteresses überlassen, lautete das Fazit des ersten Teils des Beitrags (ZCG 4/23). Im zweiten Teil werden nun konkret die ISO Standards 38500 et al. als eine Möglichkeit zur Umsetzung näher betrachtet. Dabei geht es um die einzelnen Komponenten in Form der zehn zur Verfügung stehenden Standards und deren integrative Top-Down-Gestaltung. Es zeigt sich, dass Themen wie die Daten-Governance und die KI-Governance ausreichend Berücksichtigung finden.
IT-Governance (Teil 1)
(2023)
Unabhängig von den gelieferten Ergebnissen hat ChatGPT die KI-Anwendungen auf ein neues Level gehoben. Aber auch digitalwirtschaftliche Geschäftsmodelle wie Ökosystem-Plattformen verändern die Art und Weise des Wirtschaftens. Eine Rahmung mittels einer IT-Governance wird dadurch nicht nur erforderlich, sondern bietet eine große Chance, die exponentiellen Entwicklungen strukturiert angehen und begleiten zu können. Ausgehend vom Deutschen Corporate Governance Kodex (DCGK) beleuchtet der erste Teil den Bezug dazu.
Sofern ein Rahmenwerk für den risikoorientierten Umgang mit Ransomware-Angriffen existiert, sollten die Verantwortlichen in Unternehmen darauf zurückgreifen und in die unternehmensweite Systematik einbetten. Das ermöglicht die Steuerung und das Management von Risiken, die zuvor von hoher Unsicherheit geprägt waren und Organisationen unerwartet treffen. Ferner ist zu berücksichtigen, dass das Social Engineering eine bedeutende Rolle bei der Lieferung von schadhafter Software spielt und frühzeitig in den Analyseprozess einzubeziehen ist.
Die moderne Erpressung von Unternehmen nach erfolgreichen Ransomware-Attacken ist sowohl ein monetäres als auch nicht-monetäres Problem. Angreifende erhalten über einen initialen, häufig menschlichen Endpunkt Zugang zur Organisation und können die Schadsoftware platzieren. Die beiden Angriffsvektoren Social Engineering und Ransomware nutzen die organisatorischen und technischen Schwachstellen, um auf diverse Vermögensgegenstände zuzugreifen. In diesem ersten Beitrag der zweiteiligen Serie wird das Verständnis für dieses Vorgehen entwickelt.
Ausreißer in Datenreihen geben einen Hinweis auf mögliche Risiken. Die empirischen Daten bestimmen weitestgehend die anzuwendenden Methoden. Dabei helfen Klassifikationssysteme, um zielorientiert zu einer Auswahl gelangen zu können. Die einfachste Form bilden univariate Datenreihen, deren Ausreißer mittels Häufigkeitsverteilungen, Konfidenzintervalle um den Mittelwert und Boxplots bestimmt werden.
Im Rahmen dieser Studie sollen Struktur und der Ablauf internationaler Carve-Out-Transaktionen dargestellt werden. Der Fokus liegt hierbei auf den rechtlichen Aspekten solcher Transaktionen. Nichtsdestotrotz, da internationale Carve-Out-Transaktionen gerade eine sehr enge und komplexe Verflechtung rechtlicher, organisatorischer und strategischer Aspekte ausmacht, soll die internationale Carve-Out-Transaktion als Ganzes beleuchtet werden.
Ziel dieser Studie ist es, den Markt von FinTech Unternehmen in Deutschland unter Berücksichtigung der beteiligten Marktkräfte darzustellen. Hierfür sollen die theoretischen Grundlagen einer Marktanalyse dargelegt und darauf aufbauend eine Marktanalyse durchgeführt werden. Betrachtet werden sollen in diesem Zusammenhang auch die rechtlichen Rahmenbedingungen, die für FinTech Unternehmen in Deutschland einschlägig sind, da auch diese Einfluss auf das Marktgeschehen haben. Ziel ist es, bestehende Rechtsgrundlagen sowie Entwürfe von künftigen Rechtsvorschriften mittels Recherche zu identifizieren und zu analysieren. Betrachtet werden sollen dabei das deutsche Recht sowie das für Deutschland als Mitgliedstaat der EU geltende EU-Recht.
Um den Prozess der Direktreduktion von Eisenerz computergestützt zu simulieren, werden mathematische Modelle, zur Beschreibung von Gas-Feststoff-Reaktionen, in Python implementiert. In der vorliegenden Arbeit wird ein einzelnes Pellet aus Eisenerz, welches sich in einem Gasstrom aus reinem Wasserstoff befindet, betrachtet. Es werden mehrere Modellansätze aus der Literatur miteinander verglichen und davon geeignete zur recheneffizienten Implementierung ausgewählt. Die entwickelte Simulationssoftware besitzt eine grafische Oberfläche und bietet die Auswahl aus drei Modellen mit unterschiedlichem Detaillierungsgrad. Diese sind vollständig parametriert und die meisten Parameter werden temperaturabhängig bestimmt oder sind frei wählbar. Die Durchführung von Parameterstudien ist über die lineare Variierung eines beliebigen Parameters möglich. Die Ergebnisse der Simulation können dann in Abhängigkeit der Zeit dargestellt oder im CSV-Format exportiert werden. Die Rechenmodelle sind in einem separaten Python-Modul zusammengefasst und können einfach in eine übergeordnete Modellierung eingebaut werden. Zur Validierung erfolgt ein Abgleich mit experimentellen Literaturdaten. Abschließend werden die Stärken und Schwächen der implementierten Modelle gegenübergestellt und bewertet.
Rückenschmerzen sind ein weit verbreitetes Problem in der deutschen Gesellschaft. In der Mehrzahl der Fälle von Schmerzen im unteren Rücken ist es schwierig, eine spezifische nozizeptive Ursache zu finden. Aus vorherigen Studien ist bekannt, dass manuelles Heben eine Belastung für die Wirbelsäule darstellen kann. Die Geschwindigkeit der Hebebewegung spielt eine Rolle, ebenso wie Gewicht und Stabilität der Gelenke und Gliedmaßen.
Ziel dieser Arbeit ist die Analyse der Veränderungen in der Kinematik der Lendenwirbelsäule, der Hüfte und des Knies beim Heben von Lasten mit unterschiedlichen Geschwindigkeiten und Gewichten. Für diese Arbeit wurden die kinematischen Daten von insgesamt 79 Personen ausgewertet. Die Stichprobe bestand aus 20 asymptomatischen Frauen, 22 asymptomatischen Männern, 19 Frauen mit chronischen Rückenschmerzen und 18 Männern mit chronischen Rückenschmerzen. Die Daten wurden mit einem 3D-Bewegungsanalysesystem in Verbindung mit einem Set passiver Marker aufgenommen.
Es wurde kein signifikanter Effekt auf die mittleren maximalen Gelenkwinkel durch den Vergleich der geschlechtlich gemischten Gruppe mit Rückenschmerzen mit asymptomatischen Personen festgestellt, im Vergleich des Verhältnisses zwischen lumbaler Bewegung zu Beckenbewegungen (L/P-ratio) konnten signifikante Unterschiede ermittelt werden. Der Vergleich der Geschlechter zeigte signifikante Unterschiede für den lumbopelvinen Rhythmus. Für die Parameter Gewicht und Geschwindigkeit wurde kein signifikanter Effekt erfasst.
Das automatisierte Erkennen von Schwachstellen wird immer wichtiger. Gerade bei der Softwareentwicklung werden immer häufiger Schwachstellenscanner eingesetzt. Das Ziel der vorliegenden Arbeit ist es einen Überblick zu erhalten, welche Schwachstellenscanner für Webanwendungen existieren und wie sinnvoll deren Einsatz ist. Um diese Frage zu beantworten, werden vier auf dem Markt verfügbare Schwachstellenscanner getestet. Aus der bisherigen Infrastruktur von M und M Software werden Anforderungen und Selektionskriterien abgeleitet. In zwei Testphasen werden verschiedene Schwachstellenscanner analysiert und bewertet wie gut sie die Kriterien erfüllen. Am Ende wird bewertet, ob der Einsatz eines Schwachstellenscanners in der Infrastruktur sinnvoll ist. Neben dieser Analyse wird außerdem untersucht welche Chancen die AI-Technologie für Schwachstellenscanner bietet.
Als Fortsetzung des FHOP-Projektes wurde an der Fachhochschule Offenburg auf Basis des bestehenden Mikroprozessorkerns im Rahmen einer Diplomarbeit ein Mikrocontroller in ES2-0.7 μm-Technologie entworfen. Der Controller wurde modular aufgebaut mit den Komponenten: FHOP-Mikroprozessor, Buscontroller, Waitstate-Chipselect-Einheit, 16x16 Bit Multiplizierer, 2KB ROM, 256 Byte RAM, Watchdog, PIO mit 16 konfigurierbaren Ports, SIO, 2 Timer und ein Interruptcontroller für 8 Interrputquellen.
Der Chip benötigt bei einer Komplexität von ca. 65400 Transistoren eine Siliziumfläche von etwa 27 mm². Er wurde im September 1996 zur Fertigung gegeben und mittlerweile erfolgreich getestet. Das interne ROM des Mikrocontrollers enthält das BIOS sowie ein Testprogramm. Zur Erstellung der Software steht eine komplette Entwicklungsumgebung zur Verfügung. Sämtliche Komponenten stehen im FHOP-Design-Kit in Kürze zur Verfügung.
Nach dem Nachweis der Funktionalität des an der Fachhochschule Offenburg entwickelten Mikroprozessorkernels FHOP (First Homemade Operational Processor), wird eine Anwendung des Kernels in einem Applikationschip beschrieben.
Der Thermologger-ASIC soll mit Hilfe eines Temperatursensors die Umgebungstemperatur bei technischen Prozessen in regelmäßigen Zeitabständen erfassen und abspeichern. Die Meßwerte werden bei Bedarf ber eine serielle Schnittstelle des Thermologger-ASICs an einen PC übertragen und ausgewertet. Zur Verringerung der Leistungsaufnahme wird zwischen zwei Temperaturmessungen in einen Power-Down-Mode geschaltet.
Der ASIC soll später in einer Chipkarte integriert werden.
Im Frühjahr 1995 entstand die Idee, einen Lottozahlengenerator als Demonstrations- und Studienobjekt, für die Anwendung komplexer digitaler Entwurfsmethoden, zu entwerfen. Mit Hilfe der Schaltung ist es möglich, 6 verschiedene Zahlen zufällig aus 49 Zahlen zu ermitteln. Bei der Ziehung der einzelnen Zahlen werden verschiedene Töne und Melodien erzeugt. Die Schaltung ist so konzipiert, daß eine einfache Bedienung möglich ist. Der Chip wurde als Standardzellen-Entwurf mit einer Fläche von ca. 7 um² geroutet.
An der Fachhochschule Offenburg wurde im Sept. 93 das Projekt eines implantierbaren 16 Bit Mikroprozessor-Kernels FHOP ins Leben gerufen. Ausgehend von dem in einem Testchip erfolgreich erprobten umstrukturierten Entwurf wurde durch gezielten Einsatz von strukturiertem Routen unter Nutzung der Fähigkeiten zum hierarchischen Arbeiten in der MENTOR-IC-Station eine erheblich verkleinerte und flächenmäßig optimierte Struktur abgeleitet, die sich mit 4 Quadratmilimetern Fläche durchaus mit kommerziellen Mikroprozessor-Kerneln vergleichen läßt.
FHOP-Mikroprozessor-Kernel
(1995)
Für die Implementation in ASIC's wurde ein kompakter Mikroprozessor-Kernel als Standardzellen-Makro entworfen. Durch konsequenten Einsatz von Hochsprachen und CAE-Werkzeugen (VHDL, Synthese) konnte ein vollständiges Design in nur vier Monaten durchgeführt werden. Der Prozessor wird in einem Testchip erprobt.
Erstellen von Hardmakros und Aufbau einer Zellbibliothek unter Verwendung des ES2-Library-Kits
(1993)
Es wird eine Anleitung zur Erstellung von Hardmakros mit der Mentor-Graphics-Software gegeben. Die Hardmakros werden mit Standardzellen aus der ES2-Bibliothek der Firma EUROCHIP aufgebaut. Die Hardmakros werden in eine eigenständige Bibliothek abgelegt und können in neuen Chip-Designs verwendet werden.
Mit zunehmend komplexer werdenden Schaltungen wachsen auch die Anforderungen an die Entwicklung einer entsprechenden Leiterplatte. Mit der BOARD-Station von MENTOR-Graphics können professionelle Leiterplatten entwickelt werden.
Im Rahmen dreier Entwicklungsprojekte an der Fachhochschule Offenburg wurden mehrere aufwendige Layoutentwürfe mit der BOARD-Station in verschiedenen Diplomarbeiten durchgeführt. Im Folgenden wird über die dabei gewonnenen Erfahrungen berichtet.
Digitaler Phasenreglerkreis mit numerisch gesteuertem Oszillator als LCA-Microcontroller Kombination
(1992)
Am Beispiel einer Schrittmotor-Indexerschaltung wird der effektive Einsatz von konfigurierbaren Logic Cell Arrays in Zusammenwirkung mit einem Mikrokontroller demonstriert, wobei die hohe Arbeitsgeschwindigkeit des LCAs den Bereich der Schaltung übernimmt und im Regelkreis die arithmetrische Berechnung durchführt. Die Konfiguration des LCA aus dem EPROM des Controllers führt zu einer ungewöhnlichen Flexibilität des Entwurfs und ermöglicht zahlreiche andere Anwendungen mit dieser Architektur.
Die Fachhochschule Offenburg bietet den Studenten des Fachbereichs Nachrichtentechnik seit Ende 1990 das Wahlfach "Entwicklung integrierter Anwenderschaltkreise (ASIC)" an. Ziel des Wahlfachs ist es, den Studenten Grundkenntnisse im Entwurf eines ASIC's zu vermitteln, und wie im folgenden Beitrag aufgezeigt, die Möglichkeit zu bieten, den gesamten Entwurfszyklus von der Schaltungsentwicklung bis hin zur Fertigungsmaske zu durchlaufen.
Die Fachhochschule Offenburg bietet seit dem Wintersemester 1990/91 den Studenten des Fachbereichs Nachrichtentechnik das Wahlpflichtfach ASIC-Design an. Schon kurz nach der Errichtung des ASIC-Design-Centers im Frühjahr 1990 ermöglicht sie damit künftigen Ingenieuren eine Ausbildung in einem Bereich, der in der modernen Schaltungsentwicklung nicht mehr wegzudenken ist.
Im Rahmen eines GPS-Projektes ist an der Fachhochschule Offenburg ein Konzept für einen experimentellen Navigationsempfänger entstanden. Hierfür wurde der digitale Teil entwickelt und aufgebaut. Für die Realisierung der Schaltung sollten benutzerprogrammierbare Gate Arrays von Xilinx (LCAs) verwendet werden, die sich schon bei einer anderen Arbeit an der Fachhochschule bewährt hatten.
Nachfolgend möchte ich dem Leser einen Überblick über das GPS-System und die Entwicklung der LCAs geben.
An der FH Offenburg arbeiten seit Ende 1989 in einem Team die Professoren Dr. Jansen, Dr. Schüssele, die wissenschaftlichen Mitarbeiter Bernd Reinke, Martin Jörger und die Diplomanden Hans Fiesel, Otmar Feißt an dem Entwurf eines Nachrichtenempfängers. Im Rahmen dieses Projekts, genannt GPS-Projekt (GPS = Global Positioning System), wurde im Herbst 1990 ein experimenteller Empfänger in Betrieb genommen. Nachdem die Testergebnisse gezeigt hatten,daß das Konzept der Anlage stimmte, ging es nun um die Miniaturisieriung, Integration und Optimierung der Schaltung. Außerdem sollte der bisher verwendete PC durch einen auf der Platine befindlichen Mikroprozessor ersetzt werden. Im Zusammenhang mit dem GPS-Projekt wurden bisher im Offenburger ASIC-Labor eine Analogschaltung auf einem B500, drei LCA Designs und diverse GAL's entwickelt.
Zur Zeit arbeiten mehrere Diplomanden an der zweiten Generation des Empfängers. Meine Aufgabe besteht darin, die dort noch in drei LCA's untergebrachte digitale Logik sowie einen Teil des bisherigen PC-Interface in einem IMS Gate Forrest zu integrieren. Außerdem muß die Logik von 8 Bit auf einen 16 Bit breiten Datenbus umgestellt und an die neue Peripherie des Mikroprozessors angepasst werden. Damit soll die jetzige Digital-Platine noch weiter verkleinert werden. Wesentlich ist dabei die Umsetzung der zahlreichen Zähler- und Registerstrukturen in einem Gate Forrest. Als Arbeitsmittel stehen Apollo Workstations mit Mentor Software zur Verfügung.
Die Elektronikindustrie bietet für die Realisierung digitaler Logik eine Vielzahl integrierter Bausteine an, die ein Höchstmaß an Zuverlässigkeit als auch Integrationsdichte ermöglichen.
Je nach Integrationsdichte unterscheidet man hierbei zwischen Standardlogik (TTL,CMOS,DTL...), programmierbarer Logik (PLA, GAL...), Gate Arrays und ASIC-Bausteinen. Mit steigender Integrationsdichte werden Systemeigenschaften verbessert, wie Leistungsverbrauch, Platzbedarf, und Zuverlässigkeit.
Jedoch steht ihr auch ein stark erhöhter Kosten- und Entwicklungsaufwand gegenüber, der den Einsatz hochintegrierter Bausteine in Einzelfertigung bzw. Kleinserien verhindert.
Xilinx bietet nun mit seiner LCA-Produktreihe (logic cell array) eine Alternative zu bestehender hochintegrierbarer Logik an, mit der es möglich sein soll, Vorteile der genannten Einzelproduktgruppen zu übernehmen, und deren Nachteile zu beseitigen.
Im Rahmen einer Diplomarbeit wurde ein solcher LCA-Baustein (XC3020) eingesetzt. Anhand der gegebenen konkreten Anwendung konnte hierbei untersuch twerden, wie schnell sich ein solcher Baustein in bestehende Hardware eingliedern läßt, und welche Integrationsdichte er ermöglicht.
Im Folgenden sollen nun als Schwerpunkte das Einsatzgebiet, die Entwicklung und die Simulation des LCA bei vorliegender Aufgabenstellung aufgezeigt werden.
Seit einiger Zeit wird an der Fachhochschule in Offenburg ein Entwicklungsprojekt verfolgt, an dessen Ende ein GPS Empfänger stehen soll. Dabei handelt es sich um einen Satellitenempfänger, mit dem weltweit eine genaue dreidimensionale Standortbestimmung durchgeführt werden kann. Für diesen Empfänger sollte ein Großteil der Analogschaltung, bestehend aus ZF Verstärker, Costas Loop Synchrondemodulator und Pegeldetektor, in das Transistorarray B500a von AEG intgriert werden. Das Chipdesign wurde im Labor für ASIC Design an der FH Offenburg während des Wintersemesters 1990/91 erstellt. Gefertigt wurde der Chip von der Firma AEG in Ulm, wobei die Fertigungszeit des ASIC 6 Wochen betragen hat.
Bewegungsanalysesysteme in der Forschung und für niedergelassene Orthopädinnen und Orthopäden
(2023)
Hintergrund
Komplexe biomechanische Bewegungsanalysen können für eine Vielzahl orthopädischer Fragestellungen wichtige Informationen liefern. Bei der Beschaffung von Bewegungsanalysesystemen sind neben den klassischen Messgütekriterien (Validität, Reliabilität, Objektivität) auch räumliche und zeitliche Rahmenbedingungen sowie Anforderungen an die Qualifikation des Messpersonals zu berücksichtigen.
Anwendung
In der komplexen Bewegungsanalyse werden Systeme zur Bestimmung der Kinematik, der Kinetik und der Muskelaktivität (Elektromyographie) eingesetzt. Der vorliegende Artikel gibt einen Überblick über Methoden der komplexen biomechanischen Bewegungsanalyse für den Einsatz in der orthopädischen Forschung oder in der individuellen Patientenversorgung. Neben dem Einsatz zur reinen Bewegungsanalyse wird auch der Einsatz von Bewegungsanalyseverfahren im Bereich des Biofeedbacktrainings diskutiert.
Beschaffung
Für die konkrete Anschaffung von Bewegungsanalysesystemen empfiehlt sich die Kontaktaufnahme mit Fachgesellschaften (z. B. Deutsche Gesellschaft für Biomechanik), Hochschulen und Universitäten mit vorhandenen Bewegungsanalyseeinrichtungen oder Vertriebsfirmen im Bereich der Biomechanik.
Selbsttests in Lernmanagementsystemen (LMS) ermöglichen es Studierenden, den eigenen Lernfortschritt einzuschätzen. Im Gegensatz zur Einreichung und Korrektur vollständig ausformulierter Aufgabenlösungen nutzen LMS überwiegend die Eingabe der Lösung im Antwort-Auswahl-Verfahren (Single-Choice). Nach didaktischen Ansatz „Physik durch Informatik“ geben die Lernenden stattdessen ihre Aufgabenlösungen in einer Programmiersprache ins LMS ein, was eine automatisierte Rückmeldung erleichtert und das Erreichen einer höheren Kompetenzstufe fördert. Es wurden zehn LMS-Selbsttests erstellt, bei denen die Lösungen zu einer Lehrbuch-Aufgabenstellung jeweils durch Eingabe in einer Programmiersprache und von einer Kontrollgruppe im Antwort-Auswahl-Verfahren abgefragt wurden. Ergebnisse aus dem ersten Einsatz dieser Selbsttests für die Lehrveranstaltung Physik im Studiengang Biotechnologie werden vorgestellt.
Der prozentuale Energieaufwand für die Warmwasserbereitung ist umso höher, je geringer der Bedarf an Raumwärme – erreicht durch besser gedämmte Gebäudehüllen – ist. Gleichzeitig kann dieser Aufwand für Warmwasser aufgrund der normativ geforderten Systemtemperaturen von 60/55 °C bei zentraler Warmwasserbereitung über Wärmepumpen nur vergleichsweise energieaufwendig abgedeckt werden. Eine Studie des Fraunhofer ISE zeigt, wie groß dieser Temperatur-Effekt im Vergleich unterschiedlicher Trinkwasser-Erwärmungssysteme ist.
Design Thinking wird im Wesentlichen als Methode zur Lösung komplexer Probleme und Entwicklung neuer Ideen verstanden.
Doch das mit dem Design Thinking einhergehende Mindset kann für breite und vielfältige Fragestellungen nutzbar sein und geht weit über die Methodik zur Lösung komplexer Probleme und Entwicklung neuer Ideen hinaus. Es besteht aus den Komponenten Empathie, non-lineare und lineare Denkweise, Experimentierfreude und Offenheit.
Die wissenschaftliche Auseinandersetzung mit praktischen Anwendungsbeispielen zeigt, wie durch das Design Thinking Mindset der Denkhorizont in Richtung Zukunft erweitert wird. Der Herausgeber Robert Gücker und fünf Autorinnen geben einen fundierten Einblick in das “Design Thinking Mindset”. In einem breiten Spektrum umfassen die Themen des vorliegenden Sammelbandes den Zusammenhang von Design Thinking und Unternehmenskultur, Arbeitszufriedenheit der Mitarbeitenden und Resilienz, die Möglichkeiten der Erreichung des Design Thinking Mindsets durch Workshops und gezielte Führungsentwicklungsmaßnahmen bis hin zur Betrachtung des Herausgebers, der die Metapher der qualitativen Forschung für Design Thinking vorschlägt.
Die wissenschaftliche Auseinandersetzung der fünf Autorinnen mit der Thematik erfolgt auf Grundlage von umfangreichen Literaturrecherchen und Expertenbefragungen, deren Erkenntnisse auf den Praxiseinsatz übertragen werden. Im Sammelband finden Sie damit in kompakten Beiträgen einen fundierten Überblick an Möglichkeiten und Chancen, wie Unternehmen anhand der Anwendung von Design Thinking bei ihren Mitarbeitenden und Führungskräften einen Mindshift in Richtung Zukunft schaffen und welche Rahmenbedingungen nötig sind, um zu einer resilienten Organisation mit zufriedenen Mitarbeitenden zu werden.
Die Ergebnisse der Beiträge bestätigen eine positive Wirkung in Richtung Zukunftskompetenzen, die sich aus einer Haltung ergeben, welches dem Design Thinking Mindset entspricht.
Mit praktischen Anwendungsbeispielen bietet das Buch nicht nur Personalverantwortlichen sowie Organisationsentwicklern wissenschaftlich fundiert und praxisnah neue Ansätze.
Klausur-Coach Statistik
(2016)
Der "Klausur-Coach Statistik" ist das richtige Buch für alle Bachelor-Studenten, die sich auf eine Klausur im Fach Statistik vorbereiten möchten und besonders gut durch das Lösen vieler anwendungsorientierter Aufgaben lernen. Die Fragestellungen orientieren sich primär – aber nicht ausschließlich – an Themen aus dem Bereich der BWL und VWL sowie verwandter Fächer. Im ersten Teil finden sich thematisch geordnete Übungsaufgaben, welche am besten parallel zum Studium gelöst werden sollten. Der zweite Teil enthält Klausuren, wie sie in Prüfungen im Bachelor-Studium typischerweise vorkommen; hier gibt es immer eine Mischung aus Aufgaben zu allen Themengebieten der Statistik im Grundstudium. Ausführliche Lösungen zu allen Aufgaben im dritten Teil des Buches runden das Coaching ab … und Panik vor der Statistikklausur sollte damit der Vergangenheit angehören!
Mathematik lässt sich in vielen Objekten finden. Sei es die lineare Steigung eines Handlaufs zum Schulgebäude oder die nahezu zylindrische Form einer Litfaßsäule in der Innenstadt. Das Bestreben, Schüler*innen diese Zusammenhänge entdecken zu lassen, steht im Zentrum des MathCityMap Projekts (Ludwig et al., 2013). Auf sogenannten mathematischen Wanderpfaden (bzw. Mathtrails) werden Schüler*innen durch eine App zu Mathematikaufgaben an realen Objekten bzw. in realen Situationen ihrer Umwelt geleitet. Um die Aufgaben zu lösen, werden Daten erhoben, z. B. durch Messungen oder Zählen. Entscheidend ist, dass die Aufgaben so gestellt sind, dass der Schritt der Datenbeschaffung nur vor Ort stattfinden kann und somit direkt mit dem Objekt bzw. der Situation verknüpft wird.
Voice User Experience
(2023)
Sprachassistenten wie Alexa, Google Assistant, Siri, Cortana, Magenta und Bixby erfreuen sich dank ihrer intuitiven, schnellen und bequemen Interaktionsmöglichkeiten zunehmender Beliebtheit und bieten deshalb spannende Möglichkeiten für die Weiterentwicklung des digitalen Kundendialogs. Doch ob die Technologie wirklich breite Akzeptanz finden wird, hängt nicht nur mit ihrer technischen Qualität oder Usability zusammen. Auch die User Experience, die neben den Reaktionen der Nutzer*innen während der Anwendung auch ihre Erwartungen und Wahrnehmungen vor und nach der Anwendung umfasst, spielt eine zentrale Rolle. Die Messung der Qualität der Voice User Experience (Voice UX) ist daher von großem Interesse für die Bewertung und Optimierung von Sprachapplikationen. Die Frage, wie die Voice UX von sprachgesteuerten Systemen gemessen werden kann, ist jedoch noch offen. Aktuelle Methoden stützen sich häufig auf UX-Forschung zu grafischen Benutzeroberflächen, obwohl die sprachbasierten Interaktionsformen in der Regel weder visuell noch haptisch greifbar sind. In unserem Beitrag möchten wir den aktuellen Status quo der deutschen Voice User Experience untersuchen. Folgende Fragen stehen dabei im Mittelpunkt: Wie können Sprachanwendungen zu einem erfolgreichen Kundendialog beitragen? Welche Nutzerirritationen treten aktuell bei der Anwendung von Sprachassistenten auf? Mit welchen Methoden lässt sich die Voice User Experience messen?
Wissenschaftler treten als Berater auf und nehmen nicht nur Einfluss auf wirtschaftliche, sondern auch auf politische Entscheidungen. Welche Anforderungen sind an diese Art der Entscheidungsunterstützung zu stellen? Lassen sich für Wissenschaftler zulässige und unzulässige Einflussmöglichkeiten identifizieren? Der Beitrag beantwortet diese Frage unter Rückgriff auf Erkenntnisse aus Soziologie und Entscheidungslehre.
Staatliche Exportkreditagenturen und Export-Import-Banken finanzieren, versichern und garantieren jährlich fast 1 Bio. US-Dollar – mehr als 3 % der globalen Güterexporte. Ihre Interventionen sind an internationale Rahmenbedingungen gebunden, insbesondere an das WTO-Subventionsübereinkommen (ASCM) und den OECD-Konsensus. Das komplexe Zusammenspiel beider Rechtsrahmen sorgt seit langem für Herausforderungen, vor allem hinsichtlich des Anwendungsbereichs des “safe haven” des ASCM und des “Matching”-Mechanismus der OECD. In den vergangenen Jahren hinzugekommen ist die Problematik neuer Instrumente der Exportvor- sowie der Klimafinanzierung. Der folgende Beitrag erörtert Herausforderungen und Lösungsansätze. Er zeigt auf, dass der neue OECD-Konsensus trotz zahlreicher Verbesserungen zentrale rechtliche Probleme nicht behebt.
Für die flächendeckende Einführung von IP-basierter Infrastruktur benötigt der WDR Werkzeuge zur Bewertung von Qualitätskriterien komplexer Mediennetzwerke. Zu diesem Zweck wurde die Web-Applikation "Netztest" entwickelt.
Die Applikation besitzt eine intuitive Benutzeroberfläche und ermöglicht eine Bedienung ohne Netzwerk-technisches Hintergrundwissen. Sie greift über die Programmierschnittstelle auf die Messfunktionen der Software "Fusion" von VIAVI Solutions zu. "Fusion" bietet umfassende Konfigurationsmöglichkeiten und ist für ein Nutzende ohne technisches Hintergrundwissen schwer einsetzbar. Die Applikation "Netztest" vereinfacht die Schnittstelle zum Nutzenden und begrenzt die Funktionsvielfalt auf für den Anwendungsfall passende Testkonfigurationen.
Zu Beginn dieser Arbeit werden mit Hilfe einer Anforderungsanalyse Optimierungsmöglichkeiten der Applikation aufgezeigt. Anschließend wird die Implementierung eines UDP-basierten Teststandards vorgenommen, da "Netztest" bisher nur einen TCP-basierten Test bot. Das verbindungslose Transportprotokoll UDP eignet sich insbesondere für die Übertragung von Audio- und Videodaten. Für den WDR als Produktionsunternehmen solcher Medien ist ein Durchsatztest, der auf UDP basiert daher unabdingbar.
Der Code der Anwendung wird so angepasst, dass beide Tests weitestgehend dieselben Funktionen verwenden und in Zukunft problemlos weitere Tests implementiert werden könnten. Nach dem Durchlaufen eines Tests werden die Ergebnisdaten graphisch dargestellt. Das Piktogramm einer Ampel zeigt dem oder der Nutzenden an, ob die gemessene Verbindung einsatzbereit, ausreichend oder nicht ausreichend ist.
Die Implementierung des Y.1564-Tests und damit das Ziel dieser Arbeit konnte erreicht werden, doch es gibt noch Schwachstellen und Verbesserungsmöglichkeiten, die vor einer Inbetriebnahme der Anwendung "Netztest" beseitigt werden müssten.
Das Ziel der vorliegenden Arbeit ist die Beantwortung der Frage, wie sich eine individuelle Fußbettung auf die Druckverteilung im Fuß und das körperliche Wohlbefinden im Allgemeinen auswirkt. Zu Anfang stehen die Nullhypothesen, dass durch eine solche Einlage keine Veränderungen in der Druckverteilung zu erwarten sind.
Um die Forschungsfrage zu beantworten, wurde eine experimentelle interventionelle Pilotstudie mit einer Kohorte von neun Probanden ohne orthopädische Probleme durchgeführt, die alle eine individuelle Schuheinlage erhielten. Die plantare Druckverteilung im Schuh wurde einmal ohne und einmal mit der Einlage sowohl statisch als auch dynamisch erfasst. Die Ergebnisse wurden anschließend verglichen. Die dynamische Datenerfassung beinhaltete die folgenden Konditionen: geradeaus Gehen, Gehen im Kreis (links- und rechtsherum), Stehen und der Transfer einer Kiste mit sich drehendem Oberkörper. Gleichzeitig wurde das Wohlbefinden der Probanden mit verschiedenen Fragebögen erfasst.
Die Anwendung einer individuellen Einlage zeigte im Bereich des medialen Mittelfußes einen Druckanstieg von über 100%, der Rückfuß wurde während des Stehens und Gehens entlastet. Der Vorfuß wurde während des Stehens teilweise mehr belastet. Diese Veränderungen können unter Umständen auf das Einführen der Längsgewölbestütze in der Einlage zurückgeführt werden. Die Auswertung der Fragebögen zu dieser Studie ergab, dass sich speziell für die Füße das Wohlbefinden leicht zum Schlechteren änderte, andere Bereiche, welche in den Fragebögen eruiert wurden, zeigten keine nennenswerten Veränderungen auf.
Daraus wird geschlossen, dass eine Schuheinlage die Druckverteilung in der Fußsohle stark verändern kann. Weiterführende Studien könnten den Einfluss der Einlage im Allgemeinen und der Wirkungsweise einer Längsgewölbestütze im Besonderen mit kinematischen Daten weiter belegen. Längerfristige Studien könnten die Langzeitwirkung von Einlagen auf das Wohlbefinden genauer erforschen.
Der Bedarf an fortschrittlichen Bildungstechnologien wächst: Learning Experience Plattformen (LXP) erlangen angesichts der rasanten technologischen Entwicklungen und der daraus resultierenden Veränderungen des Lernverhaltens immer größere Relevanz. Diese Masterarbeit befasst sich mit der Konzeption und Konfiguration eines User-Interfaces für eine Learning Experience Plattform, speziell für die Moodle-Plattform der Hochschule Offenburg. Rahmengebend ist das KompiLe-Projekt, das durch das Bund-Länder- Programm Künstliche Intelligenz in der Hochschulbildung gefördert wird.
Als zentrales Ergebnis wurde ein spezifisches User-Interface für eine Learning Experience Plattform entworfen. Hierbei lag der Fokus insbesondere auf den Bereichen Dashboard, Meine Kurse und einen exemplarischen Kurs, die die wesentlichen Eigenschaften einer LXP repräsentieren sollten.
In einer Umfrage äußerten 55 Studierende und Lehrende ihre Vorstellungen und Präferenzen hinsichtlich der Elemente für das User-Interface. Unter Berücksichtigung dieser Erkenntnisse, kombiniert mit vorherigen Recherchen und einem Prototyp, wurde die finale Konfiguration entwickelt.
Im Vergleich zum vorherigen Design, das lediglich eine Zeitleiste zeigte, bietet das aktualisierte Dashboard erweiterte Möglichkeiten: Eine integrierte Kursübersicht ermöglicht es den Lernenden, direkt vom Dashboard aus auf Kurse zuzugreifen. Nutzer*innen haben die Möglichkeit, in der Kursübersicht zu filtern und durch die Auswahl von Favoriten ihre bevorzugten Kurse zu markieren. In einer Umfrage befürworteten fast 90% diese Funktion. Es wurde ein Interessen-Tag auf dem Dashboard hinzugefügt, der später zu dem Profil verlinken soll. Das Dashboard und die Kursseite wurden durch die Einführung einer linken Spalte aufgewertet, was zu einer erhöhten Symmetrie führte. Zudem wurden auf der Kursseite die ersten personalisierten Elemente wie Top bewertete Aktivitäten und Am häufigsten abgeschlossene Objekte hinzugefügt. Gamification- Elemente erfreuten sich großer Beliebtheit mit einer Zustimmung von 80%. Das Einbinden eines neuen modernen Gamification-Elements in Moodle erschien im Vergleich zu bereits verwendeten Elementen recht aufwändig und deshalb wurde sich zunächst dagegen entschieden. Im Kontext des sozialen Austauschs und der Interaktion war es auffällig, dass die Mehrheit der Studierenden es vorzog, ihre Online-Präsenz zu verbergen und das Moodle-Forum gegenüber anderen Interaktionsmöglichkeiten bevorzugte. Weniger signifikante Veränderungen fanden im Bereich Meine Kurse statt.
Diese Bachelorthesis behandelt die Entwicklung eines Prototyps zur Identifizierung und Verhinderung von Angriffen mithilfe von KI- und ML-Modellen. Untersucht werden die Leistungsfähigkeit verschiedener theoretischer Modelle im Kontext der Intrusion Detection, wobei Machine-Learning-Modelle wie Entscheidungsbäume, Random Forests und Naive Bayes analysiert werden. Die Arbeit betont die Relevanz der Datensatzauswahl, die Vorbereitung der Daten und bietet einen Ausblick auf zukünftige Entwicklungen in der Angriffserkennung.
Durch den demografischen Wandel und dem daraus resultierenden Fachkräftemangel brauchen Unternehmen eine Strategie, um in Zukunft genügend Fachkräfte zu gewinnen und die aktuellen Mitarbeitenden halten zu können. Dabei können mit dem Employer Branding Maßnahmen zur Stärkung der Arbeitgebermarke erarbeitet werden.
Ziel dieser Arbeit ist eine vergleichende Analyse von Selbst- und Fremdbild zwei großer Arbeitgebermarken. Dabei sollen zwei Unternehmen aus der Region Offenburg/Ortenau in Hinblick auf ihr Employer Branding und ihre Kommunikation auf der unternehmenseigenen Karriere-Webseite untersucht werden. Dafür wurden die beiden Arbeitgebermarken „Hubert Burda Media“ und „Hansgrohe Group“ ausgewählt. Durch den Einsatz von qualitativen Experteninterviews wird das Selbstbild der Unternehmen ermittelt. Für die externe Beurteilung wurde die Zielgruppe „Studierende der Generation Z“ ausgewählt. Diese können mithilfe eines Fragebogens das Fremdbild beider Unternehmen beschreiben und die Karriere-Webseiten beurteilen.
Das Ergebnis der Forschung war unter anderem die Beschreibung des Arbeitgeber-images. Durch die Annäherung von Fremd- und Selbstbild nach Ansicht der Karriere-Webseite konnte die Kommunikation bewertet werden. Dabei konnten Optimierungs-ansätze für beide Unternehmen identifiziert werden. Die erarbeiteten Erkenntnisse wurden zusammengefasst und es wurden jeweils Handlungsempfehlungen für die Kommunikation und das Employer Branding formuliert.
Durch die Auswertungen der qualitativen Forschungen konnte die Wichtigkeit der Karriere-Webseite für die junge Generation bestätigt werden. Dabei fiel bei beiden Unternehmen auf, dass die Authentizität und die Kommunikation der eigenen Arbeitgebermarke in einigen Punkten optimiert werden sollten.
Bilder und Filme sind aus dem modernen Leben nicht mehr wegzudenken. Besonders die Präsenz im Internet – die Webseite der Firma, der persönliche Blog oder der Auftritt in sozialen Medien – kommt nicht mehr ohne die richtige Visualisierung aus. Wer entsprechende Fähigkeiten und Ausrüstung besitzt, erstellt sich seine benötigten Inhalte selbst. Wer diese Möglichkeit nicht hat, muss auf Werke anderer zurückgreifen. Einfach aus dem Internet herunterladen und benutzen darf man diese allerdings nicht, denn sie sind in den meisten Fällen urheberrechtlich geschützt. Große Firmen und Personen mit entsprechendem Budget buchen für diese Zwecke deshalb extra Fotografen oder kaufen ihre gewünschten Inhalte auf beliebten Stock-Plattformen wie Shutterstock oder Getty Images. Diese Abschlussarbeit richtet sich an diejenigen, die das nicht können: (Werk-)Studenten im Bereich Medien, Gestaltung oder Onlinemarketing sowie kleinere Firmen und Einzelpersonen, welche Bilder und Filme für private, schulische, redaktionelle oder kommerzielle Zwecke benötigen.
Ziel dieser Arbeit ist das Vorstellen der zahlreichen Möglichkeiten, im Internet Bilder und Filme für die kostenlose und rechtssichere Nutzung zu recherchieren. Dabei werden verschiedene Arten der kommerziellen und nichtkommerziellen Nutzung berücksichtigt, sodass möglichst viele Leser einen Nutzen aus dieser Abschlussarbeit ziehen können. Hierzu wird zunächst die Rechtslage in Deutschland geklärt und anschließend 7 Plattformen sowie 2 Suchmaschinen für Bilder und 7 Plattformen für Filme untersucht und miteinander verglichen. Für jede Plattform werden ihre typischen Features vorgestellt und ihre Bedeutung für die Recherche aufgezeigt. Dies soll als Hilfestellung für einen effizienten Recherche-Arbeitsablauf auf der jeweiligen Plattform dienen. Anschließend wird die jeweilige Bild- und Videoauswahl anhand beispielhafter Suchbegriffe dargestellt.
Chitin ist nach Cellulose, das am zweit häufigsten vorkommende Biopolymer auf der Erde und erlangt durch die positiven Eigenschaften seiner Oligomere immer mehr an Aufmerksamkeit in der Industrie. Derzeit werden Chitin-Oligomere rein chemisch mittels starker Säurebehandlung gewonnen. Alternativ können Endo- und Exochitinasen für eine umweltfreundlichere Hydrolyse eingesetzt werden. In dieser Arbeit wurden drei fungale Endochitinasen aus den Ursprungsorganismen Trichoderma harzianum (Chit33-TH), Trichoderma asperellum (Chit36-TA) und Myceliophthora thermophila (Chit46-MT) in Pichia pastoris rekombinant exprimiert, mittels Ni-NTA-Affinitätschromatographie und Dialyse aufgereinigt und biochemisch charakterisiert. Dabei zeigten die Chitinasen maximale spezifische Umsatzgeschwindigkeiten von 16 (Chit33-TH), 50 (Chit36-TA) und 98 nkat/mg (Chit46-MT). Die Endochitinasen hatten nach der Deglykosylierung ein molekulares Gewicht von 33 (Chit33-TH), 36 (Chit36-TA) und 46 kDa (Chit46-MT). Die pH-Optima und Temperaturmaxima lagen für alle drei Enzyme bei einem pH-Wert von 4,5 und 50 °C, zudem waren sie bei 45 bis 50 °C für 15 Minuten temperaturstabil. Detergenzien und Kationen wie Cu2+, Mn2+, Co2+ und Zn2+ hatten einen inhibierenden Effekt ab 1 mM. Höhere Ca2+-Konzentrationen ab 10 mM reduzierten die Enzymaktivität um bis zu 30 %. Eine Produktinhibition mit N-Acetylglucosamin konnte nicht festgestellt werden. Bei allen rekombinanten Enzymen konnte mittels DNS-Assay die Freisetzung von reduzierenden Zuckerenden und somit geeignete Eigenschaften kolloidales Chitin zu wasserlösliche ChitinOligomere umzuwandeln, nachgewiesen werden. Insbesondere Chit46-MT erreichte nach 24 h einen Hydrolysegrad bis zu 96 % und bewies, dass eine enzymatische Hydrolyse für die industrielle Chitin-Oligomerproduktion nutzbar ist.
In dieser Bachelorthesis werden On-Premise und Cloud Lösungen miteinander verglichen und eine bereits bestehende On-Premise Reklamationsverwaltung, die Teil eines ganzen ERP-Systems ist, wird mithilfe des Reengineerings, als cloudbasierte App neu implementiert.
Im ersten Abschnitt wird der Vergleich durchgeführt. Dabei werden die Hauptmerkmale beider Lösungen und ihre Vor- und Nachteile herausgearbeitet. Zum Schluss wird überprüft, welche der beiden Lösungen besser zu den Anforderungen passen. Da die neue Reklamationsverwaltung als App umgesetzt werden soll, wurde sich für die Cloud Lösung entschieden. Diese ist deutlich flexibler und für kleinere Kunden kostengünstiger.
Im zweiten Abschnitt wird ein Reengineering der alten On-Premise Lösungen als cloudbasierte App durchgeführt. Dabei werden alle Anforderungen und Kriterien an die App aufgezeigt. Danach werden alle Schritte des Reengineerings, wie beispielsweise die Analyse der Datenstruktur und Erstellung von Aktivitätsdiagrammen, genauer beschrieben und für die App angewendet. Mithilfe des Reengineerings konnte die Datenstruktur angepasst werden. Auch wurden viele überflüssige Funktionen aus der alten Lösung entfernt und nur die wichtigsten Funktionen sind geblieben.
Um als Unternehmen heutzutage aus der Masse hervorzustechen und sich von der Konkur- renz abzuheben, bedarf es mehr als nur eines guten Produkts oder einer guten Dienstleis- tung. Kunden möchten wissen, welches Unternehmen dahintersteckt und ob sie sich damit identifizieren können. Um diese Werte und ein einheitliches Erscheinungsbild vermitteln zu können, ist eine ganzheitliche Corporate Identity erforderlich, die sowohl innen als auch außen wirkt. Das bietet die Möglichkeit, ein Markenimage aufzubauen, das langfristig Kun- den bindet und Vertrauen schafft.
Die Entwicklung einer neuen Corporate Identity erfordert zunächst eine entschlossene Ent- scheidung der Unternehmensführung. Sie muss sicherstellen, dass das gesamte Unterneh- men für ein solches Vorhaben bereit ist. Erst dann kann mit der Bildung eines CI-Teams begonnen werden, das mit der Entwicklung und Durchführung des Corporate Identity-Pro- zesses beauftragt wird. Dabei wird nach der AMC-Strategie vorgegangen, die mit einer aus- führlichen Ist- und Sollanalyse beginnt. Hierbei wird ermittelt, welche Fähigkeiten das Un- ternehmen besitzt und welches Image bei den unterschiedlichen Interessensgruppen vor- herrscht. Auch die internen und externen Auswirkungen einer CI sollten bedacht werden und dass die Angestellten einen maßgeblich Teil zur externen Wirkung beitragen. Die ge- sammelten Informationen dienen als Grundlage für die einzelnen Bestandteile der Corpo- rate Identity.
Basierend auf dem theoretischen Teil wurde für Dialogpunkt eine neue Corporate Identity entwickelt, wodurch verdeutlicht wurde, wie die theoretischen Grundlagen in die Praxis umgesetzt werden können. Durch eine gründliche Marktanalyse wurde ein neues Leitbild (Corporate Philosophy) für Dialogpunkt erstellt. Dieses Leitbild und die gewonnenen Er- kenntnisse dienten wiederum als Grundlage für die Entwicklung des Corporate Behaviors, der Corporate Communication und des Corporate Designs.
Scheinselbständigkeit
(2023)
Im Rahmen dieser Untersuchung sollen Maßnahmen zur Reduzierung des Risikos von Scheinselbständigkeit für Unternehmen identifiziert und analysiert werden. Der Schwerpunkt liegt dabei auf der Erstellung einer zweiteiligen Checkliste für Unternehmen, die als Hilfsmittel bei der Beauftragung externer Drittdienstleister herangezogen werden kann.
Viralität auf TikTok
(2023)
Die Social Media Plattform TikTok erfreut sich spätestens seit der Corona-Pandemie einer immer größer werdenden Gemeinschaft. Mittlerweile verfügt die App über mehr als 20 Millionen Nutzer:innen - alleine in Deutschland. Virale Videos sprießen förmlich aus dem Boden. Diese Masterarbeit beschäftig sich mit der Frage, welche Faktoren der Viralität zu Grunde liegen und ob man die Viralität maßgeblich beeinflussen kann. Dies erfolgt mittels theoretischer Grundlagen, einer quantitativen Nutzerumfrage und Experteninterivews mit erfolgreichen deutschen Creatorn. Abschließend werden Videos für TikTok konzipiert und analysiert.
In dieser Bachelorarbeit wurde eine Studie zum Dehnungsverhalten von Schuhen mit elastischem Obermaterial beim Gehen und Laufen bei verschiedenen Geschwindigkeiten durchgeführt. Aktuell gibt es auf diesem Gebiet keine belastbaren Daten. Hierfür wurde von 33 Probandinnen und Probanden mit vier verschiedenen Schuhgrößen die Dehnung des Schuhobermaterials durch markerbasiertes Motion Capturing aufgenommen. Hierzu wurde eine Markerkette von insgesamt 6 Markern über dem Mittelfußbereich angebracht. Auf einem Laufband wurden im Gehen drei Geschwindigkeiten zwischen 1,0 m/s und 1,5 m/s und im Laufen sieben Geschwindigkeiten zwischen 1,5 m/s und 4,5 m/s aufgenommen. Die Datenauswertung erfolgte zum Großteil mittels von Matlab. Die Ergebnisse zeigen für die maximale Dehnung des Obermaterials im Gehen signifikante Unterschiede von p < 0,001. Auch das Laufen zeigt diese Signifikanz jedoch ausschließlich in den Vergleichen der niedrigen Laufgeschwindigkeiten. Die Dehnungsgeschwindigkeit zeigt im Gehen und in den meisten Bereichen des Laufens eine Signifikanz von p < 0,001. Die Ergebnisse der Dehnungsbeschleunigung weisen ebenfalls eine Signifikanz von p < 0,001 auf. Die Betrachtung der Teilbereiche der Markerkette zeigt in der Dehnung und der Dehnungsgeschwindigkeit Signifikanzen von p < 0,001. Die größte Dehnung entstand im mittleren Markerbereich, wohingegen die Randbereiche signifikant weniger gedehnt wurden. Die Dehnungsgeschwindigkeit zeigt jedoch eine signifikant höhere Geschwindigkeit in den Randbereichen im Vergleich zu dem mittleren Bereich. Im direkten Vergleich zwischen Gehen und Laufen zeigt sich keine Signifikanz. Nicht signifikant sind außerdem die verschiedenen Schuhgrößen im Vergleich zueinander. Die Ergebnisse zeigen, dass die Laufgeschwindigkeit einen Einfluss auf das Dehnungsverhalten bezüglich Dehnung, Dehnungsgeschwindigkeit und Dehnungsbeschleunigung hat.
Hintergrund:
Die Versorgung von Patienten mit Cochleaimplantaten erfordert im Rahmen der Rehabilitation nicht nur Hörtrainings, sondern auch regelmäßige Erfassungen des Hörvermögens. Diese Tests konzentrieren sich hierbei meist auf das Vertehen von Sprache. Hierbei müssen Patienten Wörter oder Zahlen unter Vorhandensein von Störgeräuschen verstehen. Diese Störgeräusche sind in der Regel künstlicher Natur wie Rauschen. Das Ziel dieser Arbeit ist es, diese künstlichen Störgeräusche durch realistischere zu ersetzen und zusätzlich einen Raumklang sowohl für die Störgeräusche als auch für die zu verstehenden Wörter oder Zahlen zu implementieren. Um die Erfassung der multimodalen Sprachwahrnehmung zu verbessern, wird nicht nur eine virtuelle auditive Umgebung geschaffen, sondern auch eine visuelle Komponente integriert, die auf einem Head-Mounted Display (HMD) wiedergegeben werden kann. Das Ziel ist es, eine audiovisuelle virtuelle Realität zu schaffen, die alltagsrelevante Kommunikationssituationen widerspiegelt und somit die Validität und Relevanz von Hörtests erhöht.
Umsetzung:
Für die Umsetzung wurden Werkzeuge zur Simulation von Raumakustik und eine hochwertige visuelle Darstellung auf einem HMD benötigt. An der Technischen Universität München wurde das Tool "real-time Simulated Open Field Environment" (rtSOFE) entwickelt, das durch die Berechnung von Raumimpulsantworten Raumakustik simuliert und die direkte Wiedergabe von Schallquellen in virtuellen Klangfeldern ermöglicht. Für die visuelle Umgebung wurde die Unreal Engine 5 gewählt, die sehr realistische Darstellungen virtueller Räume ermöglicht und hauptsächlich in der Videospielindustrie verwendet wird.
Ergebnisse:
Mit den Tools rtSOFE und Unreal Engine wurden drei realistische Umgebungen geschaffen: Ein Pub, ein Wohnzimmer und eine U-Bahn-Station. Diese Umgebungen enthalten realitätsnahe Störgeräusche, die zur jeweiligen Umgebung passen. Probanden können sich dank des HMD in diesen Umgebungen frei bewegen. Zudem wurde ein Testsetup unter Verwendung von Sätzen aus dem Oldenburger Satztest innerhalb dieser audiovisuellen Umgebung umgesetzt.
Fazit:
Das entwickelte Testsetup in der audiovisuellen Umgebung ermöglicht eine realistischere und alltagsnähere Erfassung des Hörvermögens im Vergleich zu herkömmlichen Hörtests. Die visuelle Komponente trägt zur Steigerung der Realitätsnähe bei. Allerdings fehlt im aktuellen Setup die Synchronisation zwischen der auditiven und visuellen Umgebung, insbesondere in Form von Lippenbewegungen (Lip Syncing), um eine umfassende Erfassung der multimodalen Sprachwahrnehmung zu ermöglichen.
Bildung für nachhaltige Entwicklung (BNE) hat einen festen Platz im deutschen Bildungssystem gefunden. BNE setzt sich die Ziele, Lernende zu informierten und verantwortungsbewussten Konsumenten zu befähigen sowie sie darauf vorzubereiten und das eigene Verhalten sowie das Verhalten anderer kritisch zu reflektieren. Der Nachhaltigkeitsbegriff von BNE orientiert sich hierbei an den drei Perspektiven, Soziales, Ökonomisches und Ökologisches, und an deren Wechselwirkungen untereinander.
Um Lernenden Nachhaltigkeitsthemen nach der Definition von BNE zu vermitteln, bieten sich Photovoltaik-Systeme (PV), vor allem in Off-Grid-Ausführungen, an, da sie aufgrund ihrer Eigenschaften als erneuerbare Energieerzeuger einen rücksichtsvolleren Umgang mit den vorhandenen Ressourcen fordern, Reflexion des eigenen Verhaltens anregen und sich in verschiedenen Situationen unter den drei Perspektiven der Nachhaltigkeit betrachten lassen.
Für eine Projektarbeit an allgemeinbildenden sowie beruflichen Schulen wurde außerhalb dieser Arbeit ein Off-Grid-PV-System entworfen, anhand dessen Lernende Fragestellungen der elektrischen Energieerzeugung aus Sonneneinstrahlung sowie allgemeine Nachhaltigkeitsthemen erforschen. Das didaktische Konzept zur Begleitung des PV-Systems wurde anhand von den Anforderungen der BNE entwickelt und gliedert sich in die Bereiche einleitende Workshops, Lern- und Arbeitsmaterial, weiterführendes Material sowie einen abschließenden Workshop zur Reflexion des erlernten. Die getroffenen Entscheidungen im Bereich der Technik sowie des Lehr-Lern-Materials werden jeweils didaktisch begründet.
Zur ergonomischen Unterstützung von Industriearbeitern werden zunehmend Exoskelette eingesetzt. Studien über die Wirkung und den Einfluss von Exoskeletten auf den Körper sind jedoch rar. Diese Arbeit beschäftigt sich daher mit der Wirkung des Rückenexoskeletts BionicBack des deutschen Exoskelett Herstellers hTRIUS auf die Wirbelsäulenkrümmung bei industriellen Hebearbeiten. Im Speziellen wird die Wirbelsäulenkrümmung beim Umpalettieren aus drei verschiedenen Hebehöhen (91 cm, 59 cm, 15 cm) mit Hilfe eines markerbasierten 3D Motion Capture Systems untersucht. Um den Versuchsaufbau alltagsnah und realistisch zu gestalten, wurde diese Pilotstudie in Kooperation mit der Firma Zehnder am Standort Lahr durchgeführt, die sowohl die Probanden als auch den Versuchsaufbau zur Verfügung stellte. Vier gesunde männliche Probanden mit einem durchschnittlichen Alter von 39,5 Jahren (SD = 6,5), einem durchschnittlichen Körpergewicht von 72,75 kg (SD = 7,1) und einer durchschnittlichen Körpergröße von 175 cm (SD = 2,6) wurden in zwei Schichten eingeteilt. Mit den Probanden wurden vor und nach der Schicht sowie an zwei aufeinander folgenden Tagen Messungen durchgeführt, wobei an einem Tag das BionicBack während der Arbeit und der Messung getragen wurde und am an-deren Tag nicht. Während einer Messung nahmen die Testpersonen ein Paket mit einem Gewicht von 21,1 kg dreimal von jeder Hebehöhe von einer Palette auf und legten es auf einer anderen ab. Anschließend wurde die Krümmung der Wirbelsäule am tiefsten Punkt der Hebebewegung untersucht, wobei die Gesamtkrümmung in dieser Position durch die Addition von drei repräsentativen Segmentwinkeln dargestellt wird. Die Abweichung dieser Gesamtkrümmungen in der tiefsten Beugeposition von der individuellen neutralen Wirbelsäulenstellung der Probanden im Stehen ergeben die Werte, die zwischen den einzelnen Versuchsbedingungen verglichen werden. Die Ergebnisse zeigen, dass das BionicBack den Abstand zur Neutralstellung bzw. die Gesamtkrümmung des Rückens im Vergleich zu ohne BionicBack bis zu -11,5° (Median: -11,5° (SD = 5,2); Mittelwert: -8,4° (SD = 6,4)) entsprechend -30% vor der Schicht und bis zu -5,6° (Median: -5,6° (SD = 3,5); Mittelwert: -4,1° (SD = 5,4)) ent-sprechend -17% nach der Schicht reduzieren kann. Die Betrachtung der einzelnen Segmentwinkel zeigt, dass die Reduzierung des Abstandes von der Neutralstellung hauptsächlich im Lendenwirbelbereich stattfindet. Der Vergleich der Wirbelsäulen-krümmung vor und nach der Schicht ohne BionicBack zeigt, dass die Wirbelsäulen-krümmung nach der Schicht, mit Ausnahme der tiefsten Hebehöhe, eine größere Abweichung von der Neutralstellung aufweist als vor der Schicht. Der Vergleich mit BionicBack zeigt, dass die Wirbelsäulenkrümmung nach der Schicht mit Ausnahme der niedrigsten Hubhöhe nicht bzw. weniger von der Neutralstellung abweicht als vor der Schicht. Aufgrund der Ergebnisse wird vermutet, dass das BionicBack durch die Unterstützung einer neutraleren Rückenhaltung das Verletzungsrisiko reduzieren kann. Des Weiteren wird vermutet, dass die Muskelermüdung während einer Arbeitsschicht einen Einfluss auf die Wirbelsäulenkrümmung beim Heben hat. Es wird angenommen, dass dieser Einfluss durch das BionicBack reduziert werden kann. Allerdings dürfen die Grenzen dieser Pilotstudie nicht außer Acht gelassen werden. Sei es die Anzahl der Versuchspersonen, die keine Aussage über die Allgemeingültigkeit zu-lässt und keine effektive statistische Analyse erlaubt, oder systematische Fehler, die aufgrund der Modellvereinfachung und der Methodik auftreten können. Weitere Untersuchungen sind erforderlich, um die Ergebnisse zu validieren. Diese Arbeit soll die Grundlage für weitere Studien mit einer weiterentwickelten Methodik und einer größeren Anzahl von Probanden bilden.
Künstliche Intelligenz (KI) durchdringt unser Leben immer stärker. Studierende werden im Alltag und an Hochschulen zunehmend mit KI-Anwendungen konfrontiert. An der Hochschule Offenburg werden deshalb KI-bezogene Lehrangebote curricular verankert, um Studierende im Erwerb von KI-Kompetenz zu unterstützen.
Der Beitrag stellt ein Konzept für die Entwicklung von Lehrveranstaltungen nach der Idee des pädagogischen Makings zur Förderung von KI-Kompetenz in der Hochschullehre vor. Konkretisiert wird das Konzept anhand eines Moduls zum Thema Chatbots, dessen Lehrinhalte interdisziplinär aus verschiedenen Perspektiven ausgearbeitet werden.
Das Ziel dieser Arbeit ist es, eine Schnittstelle zu erstellen, die es erlaubt, dem vom Unternehmen produzierten modulbasierten ERP-System Module zu integrieren, die
mit der aktuellen Version der Programmiersprache Delphi erstellt wurden.
Die Schwierigkeit hierbei ist, dass die momentane Implementation des Systems auf
einer Jahrzehnte alten Version der Sprache basiert, die in mehreren Bereichen keine
Kompatibilität mit der neuen Version besitzt.
Um dieses Ziel zu erreichen wurden zunächst die konkreten Anforderungen an die
Lösung formuliert und daraufhin verschiedene Lösungsansätze für eine Schnittstelle
konzipiert.
Durch Testen an einer prototypisch vereinfachten Version des ERP-Systems konnte
festgestellt werden, dass eine Lösung über eine auf Datenbanktransaktionen basierende Schnittstelle für das Projekt am ehesten geeignet war.
Nach weiterer Planung des exakten Aufbaus wurden die nötigen Funktionalitäten dann
umgesetzt, wobei zuerst in groben Zügen die essentiellen Aspekte realisiert wurden,
welche dann in weiteren Durchläufen auf die exakten Spezifikationen verfeinert und
auf Fehler geprüft wurden.
Nachdem dieser Lösungsansatz einen ausreichenden Vervollständigungsgrad erreicht
hatte, wurde das Projekt zu Testzwecken in firmeninternem Umfeld in Betrieb genommen.
Durch anschließendes weiteres Beheben von noch ausstehenden Fehlern wurde das
Projekt dann in einen Zustand gebracht, in dem es allgemein in Verwendung genommen werden kann und somit die gewünschten Vorgaben erfüllt.
In dieser Arbeit wird die Entwicklung einer Methode zur Messung von Bodenreaktionskräften bei menschlicher Lokomotion auf variablen Untergründen behandelt. Das Ziel dieser Arbeit ist es, unter realistischen Bedingungen eine Ganganalyse in einem Biomechaniklabor durchführen zu können.
Bisher ist es nicht möglich in einem Biomechaniklabor verschiedene Untergründe nach einer bestimmten Methode auszutauschen, womit Szenarien im Alltag besser simuliert werden können.
Um dieses Ziel zu erreichen wurde ein geeignetes Konzept für die Fertigung der benötigten Bodenplatten und Bodenbeläge erstellt. Darauffolgend wurden die Komponenten angefertigt oder schon vorhandene modelliert. Die Anwendung der entwickelten Methode wurde unter realen Bedingungen einer Ganganalyse erfolgreich untersucht. Hierbei konnten exemplarisch die durchschnittlichen Bodenreaktionskräfte in z-Richtung für die Untergründe Kunstrasen, Kunststoffbahn (Tartanboden) und Steinboden untersucht werden. Das größte Optimierungspotential bei diesem Funktionstest zeigte sich bei der Anpassung der geeigneten An- und Ablaufstrecken mit den jeweiligen Untergründen.
Mit dieser entwickelten Methode können in einem Biomechaniklabor besser die Bedingungen die alltäglich benötigten Ganganpassungen an verschiedene Untergründe simuliert werden. In Kombination mit weiteren Messmethoden, wie die Messung der Muskelaktivität (EMG) und der Gangkinematik, kann so ein tieferes Verständnis des menschlichen Gangbildes gewonnen werden.
Das Ziel dieser Arbeit ist es, zwei unterschiedliche Bewegungserfassungssysteme zu vergleichen. Dabei wird die neue Technologie der markerlosen Bewegungserfassung mit der gängigen markerbasierten Methode verglichen. Es sollen Aspekte wie Aufbau, Vorbereitung, Durchführung, Nachbearbeitung und Messergebnisse analysiert und gegenübergestellt werden.
Im Rahmen einer Querschnittsstudie wurden insgesamt 27 Probanden bei Richtungswechsel mit unterschiedlichen Winkeln in drei verschiedenen Geschwindigkeiten gemessen. Dabei nahmen beide Systeme gleichzeitig in Verbindung mit zwei Kraftmessplatten die Bewegung auf. Von jeder Geschwindigkeit wurden drei gültige Durchläufe aufgezeichnet und anschließend das Knieabduktionsmoment betrachtet. Über das maximale und minimale Knieabduktionsmoment hat für jeden Winkel und Geschwindigkeit ein Vergleich der beiden Systeme stattgefunden.
Aufbau, Vorbereitung und Durchführung des markerlosen Systems erwiesen sich als deutlich einfacher und reibungsloser. Bei dem markerbasierten System ging viel Zeit für die Systemkalibrierung, das Aufkleben von Markern oder das Wiederholen der Messung durch abfallende Marker verloren. Auch die Datennachbearbeitung ist bei dem markerbasierten System deutlich zeitaufwendiger. Die markerlosen Daten werden allerdings fix ausgegeben und können bei auftretenden Fehlern nicht bearbeitet werden.
Die beiden Systeme wurden zum Schluss anhand des gemessenen Maximums und Minimums des Knieabduktionsmoments verglichen. Insgesamt messen die beiden Systeme durchschnittlich ein unterschiedliches Maximum von 0,2 +- 0,33, bei dem Minimum lag die gesamte durchschnittliche Differenz der beiden Systeme bei -0,34 +- 0,65. Das markerlose System zeigte durchschnittlich höhere Maxima und niedrigere Minima als das markerbasierte System auf. Durch die teilweise starken Messunterschiede und auftretenden Messfehler des markerlosen Systems, sollten die Messergebnisse des Knieabduktionsmoments zur Beurteilung von Rupturen des vorderen Kreuzbandes kritisch hinterfragt werden.
Vergleich eines iOS-basierten zu einem markerbasierten System zur dreidimensionalen Bewegungsanalyse
(2023)
Die iOS-basierte Methode zur dreidimensionalen Bewegungsanalyse wird mithilfe von OpenCap durchgeführt. OpenCap ist eine Open-Source-Software, die laut Hersteller eine gute Alternative zu herkömmlichen Methoden der Bewegungsanalyse sein soll. Durch eine verständliche Menüführung, geringe Anschaffungskosten und ohne Notwendigkeit von Fachpersonal, soll hiermit eine großflächigere Anwendung von dreidimensionalen Bewegungsanalyse gegeben werden. (Uhlrich et al., 2022) Um diese Hypothese zu belegen wurde im Rahmen dieser Bachelorthesis eine kleine Studie mit 12 Probanden durchgeführt. Diese waren hauptsächlich Freiwillige der Hochschule Offenburg und sowohl männlich (7/12 Probanden) als auch weiblich (5/12 Probanden). Das Alter lag bei 25,76 ±5,08 Jahre, die Größe betrug 1,73 ±0,08 Meter und das Gewicht 69,38 ±7,12 Kilogramm. Die Probanden wurden zum Vergleich mit zwei verschiedenen Methoden zur dreidimensionalen Bewegungsanalyse (OpenCap und markerbasierter) und bei zwei verschiedenen Sprungformen, aufgenommen.
Anschließend wurden die Ergebnisse der Gelenkwinkel für Hüfte und Knie der rechten Körperhälfte der Probanden betrachtet. Dabei fiel auf, dass die gemessenen Werte von OpenCap, für Hüfte und Knie verschieden stark von den markerbasierten Werten abwichen. Die Differenz der Hüftflexionswinkel, zwischen den beiden Messmethoden, war um einiges größer als die ermittelte Differenz der Knieflexionswinkel. Diese lag beim Counter Movement Jump (CMJ) für die Hüfte bei 8,01° ±10,89° und für das Knie bei -0,9° ±3,22°. Beim Drop Jump (DJ) ergaben die Differenzen für die Hüfte 15,91° ±12,35° und für das Knie 3,03° ±2,59°. Außerdem wichen die Ergebnisse auch von der Studie der OpenCap Erfinder ab, die mit einem mittleren absoluten Fehler von 4,5°, die App anpriesen. (Uhlrich et al., 2022)
Der Vergleich zeigte somit das OpenCap eine gute Alternative zur Messung offensichtlicher Körpersegmente oder Bewegungen, wie beispielsweise dem Knie, sein kann. Für Messungen der Hüftpartie eignet es sich derzeitig, aufgrund seiner Ungenauigkeit, weniger.