Refine
Year of publication
Document Type
- Article (reviewed) (128) (remove)
Language
- German (128) (remove)
Keywords
- Management (4)
- Biomechanik (3)
- Corporate Governance (3)
- Götz von Berlichingen (3)
- Handprothese (3)
- Hochschuldidaktik (3)
- Johann Sebastian Bach (3)
- Regelungstechnik (3)
- Simulation (3)
- Steuerbarkeit (3)
Institute
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (33)
- Fakultät Wirtschaft (W) (30)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (29)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (29)
- POIM - Peter Osypka Institute of Medical Engineering (16)
- INES - Institut für nachhaltige Energiesysteme (11)
- Fakultät Medien (M) (ab 22.04.2021) (8)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (2)
- CRT - Campus Research & Transfer (1)
- IBMS - Institute for Advanced Biomechanics and Motion Studies (ab 16.11.2022) (1)
Open Access
- Closed Access (61)
- Open Access (26)
- Closed (24)
- Diamond (5)
- Hybrid (4)
- Gold (1)
- Grün (1)
Die Hersteller von Cochlea-Implantat (CI)-Systemen sehen für klinische Audiologen die Möglichkeit vor, die Mikrofonleistung der meisten aktuellen CI-Sprachprozessoren mittels anschließbarer Monitorkopfhörer zu prüfen. Nähere Angaben dazu, nach welchem Prozedere diese Prüfung stattfinden soll, z. B. welche Stimuli mit welchen Pegeln verwendet werden sollen, sind nach Wissen der Autoren seitens der CI-Hersteller nicht verfügbar. Auf der Basis dieser subjektiven Prüfung entscheidet dann der Audiologe, ob der betreffende Sprachprozessor an den Hersteller eingeschickt wird oder nicht. Wir haben eine Messbox entwickelt, mit der die Mikrofonleistung aller abhörbaren CI-Sprachprozessoren der Hersteller Advanced Bionics, Cochlear und MED-EL objektiv geprüft werden kann. Die Box wurde im 3-D-Druckverfahren hergestellt. Der zu prüfende Sprachprozessor wird in die Messbox eingehängt und über einen verbauten Lautsprecher mit definierten Prüfsignalen (Sinustönen unterschiedlicher Frequenz) beschallt. Das Signal des Mikronfons bzw. der Mikrofone wird über das in der Audio-/Abhörbuchse des Prozessors eingesteckte Kabel der Monitorkopfhörer herausgeführt und mit einer Shifting and Scaling-Schaltung in einen Spannungsbereich transformiert, der für die A/D-Wandlung mit einem Mikrokontroller (ATmega1280 verbaut auf einem Arduino Mega) geeignet ist. Derselbe Mikrokontroller übernimmt über einen eigens gebauten D/AWandler die Ausgabe der Prüfsignale über den Lautsprecher. Signalaufnahme und –wiedergabe erfolgt jeweils mit einer Samplingrate von 38,5 kHz. Der frequenzspezifische Effektivwert des abgegriffenen Mikrofonsignals wird mit einem Referenzwert verglichen. Die (frequenzspezifischen) Referenzwerte wurden mit einem neuwertigen Sprachprozessor gleichen Typs ermittelt und im Speicher des Mikrokontrollers abgelegt. Das Ergebnis wird nach Abschluss der Messung grafisch auf einem Touchscreen ausgegeben. Derzeit läuft eine erste Datenerhebung mit in der Klinik subjektiv auffällig gewordenen CI-Sprachprozessoren, die anschließend in der Messbox untersucht werden. Längerfristiges Ziel ist es, die hit und false alarm Raten der subjektiven Prüfung zu ermitteln.
Unterschiedliche Stimulationszeitpunkte bei bimodaler Versorgung mit Hörgerät und Cochleaimplantat
(2023)
Die bimodale Versorgung von Patienten mit Hörgerät (HG) ipsilateral und Cochleaimplantat (CI) kontralateral bei asymmetrischem Hörverlust ist aufgrund vieler inhärenter Variablen die komplizierteste Versorgungsart im Kontext der Versorgung mit CI. Im vorliegenden Übersichtsartikel werden alle systematischen interauralen Unterschiede zwischen elektrischer und akustischer Stimulation dargestellt, die bei dieser Versorgungsart auftreten können. Darüber hinaus werden Methoden zur Quantifizierung des interauralen Latenzoffsets, also des Zeitunterschieds zwischen der akustischen und elektrischen Stimulation des Hörnervs, mittels Registrierung auditorisch evozierter Potenziale – erzeugt durch akustische bzw. elektrische Stimulation – und Messungen an den Sprachprozessoren und Hörgeräten vorgestellt. Die technische Kompensation des interauralen Latenzoffsets und ihre positive Auswirkung auf die Schalllokalisationsfähigkeit bimodal mit CI und HG versorgter Patienten wird ebenfalls beschrieben. Zuletzt werden neueste Erkenntnisse diskutiert, die Gründe dafür aufzeigen, warum die Kompensation des interauralen Latenzoffsets das Sprachverstehen im Störgeräusch bei bimodal versorgten CI-/HG-Trägern nicht verbessert.
Serendipities in der Medizin
(2016)
Zufälle begleiten unser Leben. Auch bei wichtigen Entdeckungen und Entwicklungen in der Medizin spielt der „Zufall“ (engl. „serendipity“) eine Rolle. Hierzu gehören u. a. die Mendelschen Gesetze, die Ermittlung der menschlichen Chromosomenzahl, die Entdeckung der DNS durch Watson und Crick, der PAP-Test oder die Entdeckung der Röntgenstrahlung und der Radioaktivität. Aber auch und gerade in der Pharmakologie gibt es viele Beispiele für Serendipitäten. Einige gehen eng mit Zufällen bei der Entdeckung der Bakteriologie einher.
Bewegungsanalysesysteme in der Forschung und für niedergelassene Orthopädinnen und Orthopäden
(2023)
Hintergrund
Komplexe biomechanische Bewegungsanalysen können für eine Vielzahl orthopädischer Fragestellungen wichtige Informationen liefern. Bei der Beschaffung von Bewegungsanalysesystemen sind neben den klassischen Messgütekriterien (Validität, Reliabilität, Objektivität) auch räumliche und zeitliche Rahmenbedingungen sowie Anforderungen an die Qualifikation des Messpersonals zu berücksichtigen.
Anwendung
In der komplexen Bewegungsanalyse werden Systeme zur Bestimmung der Kinematik, der Kinetik und der Muskelaktivität (Elektromyographie) eingesetzt. Der vorliegende Artikel gibt einen Überblick über Methoden der komplexen biomechanischen Bewegungsanalyse für den Einsatz in der orthopädischen Forschung oder in der individuellen Patientenversorgung. Neben dem Einsatz zur reinen Bewegungsanalyse wird auch der Einsatz von Bewegungsanalyseverfahren im Bereich des Biofeedbacktrainings diskutiert.
Beschaffung
Für die konkrete Anschaffung von Bewegungsanalysesystemen empfiehlt sich die Kontaktaufnahme mit Fachgesellschaften (z. B. Deutsche Gesellschaft für Biomechanik), Hochschulen und Universitäten mit vorhandenen Bewegungsanalyseeinrichtungen oder Vertriebsfirmen im Bereich der Biomechanik.
Im Rahmen der Cochleaimplantat (CI)-Versorgung werden sowohl intraoperativ als auch postoperativ verschiedene elektrische und elektrophysiologische Diagnostikverfahren eingesetzt, bei denen elektrische Messgrößen vom CI erfasst und elektrophysiologische Messungen bei CI-Patienten durchgeführt werden. Zu den elektrophysiologischen Diagnostikverfahren zählen die Messung der elektrisch evozierten Summenaktionspotenziale des Hörnervs, die Registrierung der elektrisch evozierten auditorischen Hirnstammpotenziale und die Erfassung der elektrisch evozierten auditorischen kortikalen Potenziale. Diese Potenziale widerspiegeln die Erregung des Hörnervs und die Reizverarbeitung in verschiedenen Stationen der aufsteigenden Hörbahn bei intracochleärer elektrischer Stimulation mittels eines CI. Bei den aktuellen CI sind die Beurteilung der Elektrodenlage sowie die Prüfung der Ankopplung des Implantats an den Hörnerv wichtige Anwendungsgebiete der elektrophysiologischen Diagnostikverfahren. Ein weiteres bedeutendes Einsatzfeld stellt die Prüfung der Reizverarbeitung in der Hörbahn dar. Das Hauptanwendungsgebiet dieser Verfahren bildet jedoch die Unterstützung der Anpassung der CI-Sprachprozessoren bei Säuglingen und Kleinkindern auf der Basis elektrophysiologischer Schwellen.
Im Jahr 1504 verlor der deutsche Ritter Gottfried („Götz“) von Berlichingen seine
rechte Hand. Schon während seiner Genesung dachte er daran, die Hand zu ersetzen,
und beauftragte bald darauf die erste Handprothese, die sogenannte „Eiserne Hand“.
Jahre später wurde die aufwändigere zweite „Eiserne Hand“ gebaut. Wir haben die erste
Prothese auf der Basis früherer Literaturdaten von
Quasigroch (1982) mit Hilfe von 3-D
Computer-Aided Design (CAD) rekonstruiert. Dazu mussten einige Abmessungen angepasst
und ein paar Annahmen für das CAD-Modell gemacht werden. Die historische passive
Prothese des Götz von Berlichingen ist für die moderne Neuroprothetik interessant, da sie
eine Alternative zu komplexen invasiven Brain-Machine-Interface-Konzepten darstellen
könnte, wo diese Konzepte nicht notwendig, möglich oder vom Patienten gewünscht sind.
Auf Grundlage der Computer-Aided-Design (CAD)-rekonstruierten ersten „Eisernen Hand“ des Götz von Berlichingen wird ein umgebautes, controllergesteuertes sensomotorisches Fingersystem auf seine Funktionalität beim Greifen von unterschiedlichen Gegenständen beschrieben und geprüft. Die elektronischen Finger, die den „Pinzettengriff“ nachahmen und automatisch bei dem zuvor eingestellten Anpressdruck abschalten, bewiesen eine bemerkenswerte Alltagstauglichkeit. Das vorgestellte Grundkonzept könnte eine Alternative bei der Entwicklung einfacher und kostengünstiger, aber dennoch gut einsatzfähiger bionischer Hände sein und zeigt einmal mehr, wie historische Ideen in die Gegenwart transferiert werden können.
Der Einbau von Smart Metern und deren intelligente Vernetzung in Richtung eines Smart Grid wird Stromverbrauchsmuster bis in die Haushalte hinein verändern. Über die technisch geprägte Diskussion um die Komponenten dafür darf deshalb keinesfalls die Einbeziehung der Gesellschaft in den anstehenden Wandel vergessen werden. Transparenz bei den Kosten, die Förderung von Vertrauen insbesondere in die Datenschutzstandards und eine verständliche Aufklärungsarbeit sind Schlüssel für den notwendigen Dialog zwischen Energieversorgern, Politik und Bürgern.
Im Eurocode 3 wird im Gegensatz zu DIN 18800 die Bemessung von Verbindungen nicht in der Grundnorm DIN EN 1993‐1‐1, sondern in anderen Normenteilen geregelt. Dieser Beitrag behandelt die Bemessung geschweißter Verbindungen nach DIN EN 1993‐1‐8, die auch Hohlprofile, aber weder dünnwandige Bauteile noch Stähle höherer Festigkeit als S460 einschließt, vergleicht diese Bemessung mit der nach DIN 18800‐1, erläutert sie an Beispielen und hebt die wesentlichen Änderungen hervor. Da diese Änderungen auch die im Vergleich zu DIN 18800 viel stärkere Verknüpfung der in der Tragwerksplanung ansetzbaren Beanspruchbarkeiten mit dem Aufwand der Prüfung und Qualitätsüberwachung bei der Herstellung betreffen, werden abschließend wichtige Regelungen der DIN EN 1090‐2 zur Ausführung und Prüfung von Schweißnähten beschrieben, die auch der Tragwerksplaner kennen muss.
Seit den ersten Projekten der 90er Jahre arbeiten Hochschulen daran, geeignete Servicestrukturen für E-Learning zu etablieren, die die erforderliche technische, didaktische und organisatorische Unterstützung hochschulweit zur Verfügung stellen. Ging es zunächst darum, Services überhaupt dauerhaft zu sichern, steht heute die Frage des „wie“ im Vordergrund. Dabei wird am Bereich E-Learning ein eigentlich viel allgemeineres Problem deutlich: Die bisher überwiegende Organisation der Hochschule nach funktionellen Einheiten stößt an ihre Grenzen. Wir schlagen eine stärker prozessorientierte Sichtweise vor, analog zu Entwicklungen bei der Organisation von Unternehmen.
Hintergrund
In diesem Artikel wird ein Überblick und Vergleich der am häufigsten verwendeten zementierten Hüftschäfte, gruppiert in die verschiedenen Schafttypen und Zementmanteldicken, gegeben, um zu sehen, welche Kombination gut abschneidet.
Methodik
Aus dem Endoprothesenregister Deutschland wurden die Revisionsraten zementierter Schaftarten kategorisiert und die Revisionsraten von 3 und 5 Jahren erfasst und analysiert. Für die Recherche lag die Konzentration auf den Schäften Exeter, C‑Stem, MS-30, Excia, Bicontact, Charnley, Müller Geradschaft, Twinsys, Corail, Avenir, Quadra und dem Lubinus SP II. Ein wichtiger Aspekt lag darin, welcher Schaft favorisiert implantiert wird und welche Zementiertechnik in Hinblick auf die geplante Zementmanteldicke angewendet wird. Um einen Trend in der zementierten Hüftendoprothetik herauszufinden, wurden zusätzlich die Daten des dänischen, schwedischen, norwegischen, schweizerischen, neuseeländischen, englischen und australischen Endoprothesenregister verglichen.
Ergebnisse und Schlussfolgerung
Die meisten Länder nutzen zementierte Prothesen nach dem Kraftschlussprinzip (Exeter, MS30, C‑Stem etc.) oder dem Formschlussprinzip (Charnley, Excia, Bicontact), welche mit einer Zementmanteldicke von 2–4 mm implantiert werden. Jedoch hat sich in Deutschland und der Schweiz ein Trend zur Line-to-Line-Technik, mit einer geplanten Zementmanteldicke von 1 mm (Twinsys, Corail, Avenir, Quadra) aufgezeigt, dem Prinzip der Müller-Geradschaft-Prothese und der Kerboul-Charnley-Prothese folgend, auch wenn diese an sich als „french paradoxon“ postuliert werden. In den EPRD-5-Jahres-Ergebnissen scheinen die neueren Line-to-Line-Prothesen etwas schlechter abzuschneiden. Die besten Ergebnisse erzielt der „MS 30“ in Deutschland und der „Exeter“ in England. Hierbei handelt es sich um polierte Geradschäfte mit Zentraliser und Subsidence-Raum an der Spitze mit einem 2–4 mm Zementmantel in guter Zementiertechnik.
Umgang mit Lebenskrisen
(2015)
Die Kommunikationstechnik für die Zählerfernauslesung (Smart Metering) und für die Energieerzeugungs- und -verteilnetze (Smart Grid) hat das Potenzial, zu einer der ersten hoch skalierten M2M-Anwendungen zu werden. In den vergangenen Jahren konnten zwei vielversprechende Entwicklungen im Umfeld der drahtlosen Kommunikation für die Smart-Grid-Kommunikation vorbereitet werden, die das Marktgeschehen über Deutschland und über die Versorgungstechnik hinaus beeinflussen könnten. Neben der Spezifikation der OMS-Gruppe ist die Erarbeitung eines Schutzprofils (Protection Profile, PP) sowie einer Technischen Richtlinie (TR) für die Kommunikationseinheit eines intelligenten Messsystems (Smart Meter Gateway) durch das Bundesamt für Sicherheit in der Informationstechnik (BSI) zu nennen. Diese greifen, wie der Beitrag beschreibt, den Stand der Technik auf und geben praxisorientierte Umsetzungen vor.
Mit zunehmender Datenverfügbarkeit wird der Einsatz Maschinellen Lernens zur Steuerung und Optimierung von Supply Chains attraktiver, da die Qualität der Datenauswertung erhöht und gleichzeitig der Aufwand gesenkt werden kann. Anhand des SCOR-Modells werden exemplarische Ansätze als Orientierungshilfe eingeordnet und dazu passende Verfahren des Maschinellen Lernens vorgestellt.
Ansatzpunkte zur Verknüpfung von Wertmanagement und Wertemanagement aus Sicht der Führungspraxis
(2014)
Der Beitrag beschreibt wichtige Eckdaten und Ergebnisse der Kraftschlußregelung, die in der Lokomotive 12X auf internationalen Strecken erprobt wurde, und mit der auch zukünftige Projekte ausgestattet werden. Diese werden nicht nur von weiteren technischen Verbesserungen profitieren, sondern auch von geringerem Aufwand für die Inbetriebsetzung.
Eine Regelung zur optimalen Kraftschlußausnutzung von Lokomotiven setzt das Erreichen folgender Ziele voraus: Frühzeitiges Erkennen der Schleudergrenze zur Vermeidung von Gleitvorgängen; Fahren eines optimalen Kraftschlusses vom Fahr- und Bremsbetrieb ohne Überschreitung des Kraftschlußmaximums und schnelle Anpassung an wechselnde Arbeitspunkte, zum Beispiel an wechselnde Schienenzustände. Die vorgestellte optimale Regelung der Kraftschlußausnutzung erfaßt Schleuder- und Gleitzustände, die mit bisher eingesetzten Verfahren nicht erkannt werden können und ist Basis für ein Konzept, das ein quasi permanentes Fahren in der Nähe des Kraftschlußmaximums ermöglicht.
Digitale Lernszenarien in der Hochschullehre. Bedeutung und Funktion aus Sicht von Studierenden
(2021)
Bedingt durch die Coronapandemie wurde in den Informatikkursen Software Engineering und Computernetze an der Hochschule Offenburg ein Lernsetting entwickelt, das mehrere digitale Lernszenarien (Online-Sessions, Lernvideos, Wikis, Quiz, Foren und die selbst entwickelte Lernplattform MILearning) integriert. Im Wintersemester 2020/2021 fand eine Evaluierung statt, um den Einsatz der unterschiedlichen digitalen Lernszenarien in der aktuellen Situation zu bewerten und um zu entscheiden, welche Lernszenarien sinnvoll für einen Einsatz nach der Pandemie sind. Aus dem Blickwinkel des Didaktischen Designs spielen dabei die Eignung der Szenarien für die Wissensvermittlung, die Aktivierung der Studierenden und die Betreuung bei Fragen und Problemen eine wichtige Rolle. Die Ergebnisse zeigen, dass Studierende das Lernsetting intensiv nutzen und die angebotenen digitalen Lernszenarien lernförderlich kombinieren.
Gamification wird in vielen Bereichen, die auch den Bildungssektor einschließen, zur Motivations- und Leistungssteigerung eingesetzt. Dieser Beitrag beschreibt das Design, die Umsetzung und Evaluierung eines Gamification-Konzeptes für die Vorlesung „Software Engineering" an der Hochschule Offenburg. Gamification soll nach Intention der Lehrenden eine kontinuierliche und tiefergehende Auseinandersetzung mit den Themen der Vorlesung forcieren sowie einen positiven Einfluss auf die Motivation der Studierenden haben, um den Lernprozess zu unterstützen. Zentral für das Gamification-Design sind dabei eine freiwillige Teilnahme, die Wahrnehmung der Bedeutung der Lerninhalte und ein zielorientierter Einsatz von Gamification-Elementen. Das entwickelte Konzept wurde in der Lernplattform Moodle realisiert, über drei Semester eingesetzt und parallel evaluiert. Die Ergebnisse dieser Evaluierungen zeigen, dass die Studierenden den gamifizierten Kurs intensiv und oft über das gesamte Semester nutzten und aus eigenem Antrieb eine Vielzahl von Übungen absolvierten.
Künstliche Intelligenz (KI) durchdringt unser Leben immer stärker. Studierende werden im Alltag und an Hochschulen zunehmend mit KI-Anwendungen konfrontiert. An der Hochschule Offenburg werden deshalb KI-bezogene Lehrangebote curricular verankert, um Studierende im Erwerb von KI-Kompetenz zu unterstützen.
Der Beitrag stellt ein Konzept für die Entwicklung von Lehrveranstaltungen nach der Idee des pädagogischen Makings zur Förderung von KI-Kompetenz in der Hochschullehre vor. Konkretisiert wird das Konzept anhand eines Moduls zum Thema Chatbots, dessen Lehrinhalte interdisziplinär aus verschiedenen Perspektiven ausgearbeitet werden.
Die Corona-Semester erforderten die Übertragung der Brückenkurse Mathematik in ein digitales Lehr-format. Gerade beim Studieneinstieg spielen persönliche Unterstützung und soziale Eingebundenheit für Studierende eine besonders wichtige Rolle. Deshalb lag die besondere Herausforderung bei der Übertragung in ein digitales Format darin, die wegfallenden üblichen Kennenlern- und Kommunika-tionsmöglichkeiten, die sich in Präsenzformaten beispielsweise in den Pausen oder im Gespräch mit den Sitznachbarn ergeben, zu kompensieren. Vorliegender Beitrag stellt vor, inwieweit der Transfer in ein digitales Format gelungen ist. Das digitale Brückenkurskonzept wurde in ein didaktisches Entwurfsmuster übertragen, um durch die strukturierte und nachvollziehbare Darstellung den Transfer und die Vergleichbarkeit der Ergebnisse zu erleichtern.
Der digitale Zwilling dringt immer weiter in den Fokus von Produktionsunternehmen vor und wurde von Gartner als wichtige Schlüsseltechnologie identifiziert. Volkswagen setzt die Technologie in der Cloud ein, um zukünftig die Produktion an allen Standorten digital zu planen, zu steuern und zu optimieren. Dennoch ist diese Technologie im Mittelstand bisher kaum vertreten. Dieser Beitrag beschreibt ein flexibles Referenzmodell für die Planung und Optimierung der Produktion durch den digitalen Zwilling. Der Fokus liegt zum einen auf der Optimierung statischer Layouts und Materialflüsse und zum anderen auf der Optimierung der dynamischen Materialflüsse und der zeitlichen Organisation von Prozessen.
Die Optimierung der Auftragsterminierung und Einsteuerungsreihenfolge hat großen Einfluss auf die Produktivität von Fertigungssystemen. Genetische Algorithmen und Simulation sind verbreitete Werkzeuge zur Optimierung. Dieser Beitrag beschreibt einen neuen Ansatz zur Optimierung durch einen genetischen Algorithmus und der Simulation in dynamischen Modellen. Eine illustrative Fallstudie validiert den Ansatz und zeigt das Potenzial zur ganzheitlichen Verbesserung von Fertigungssystemen auf.
Am 1. Juli 2022 trafen sich im Rahmen des Abschlusskolloquiums des Projekts ACA-Modes rund 60 Teilnehmende aus Forschung, Lehre und Industrie zu einer internationalen Konferenz an der Hochschule Offenburg. Hier wurden die Projektergebnisse rund um die erfolgreiche Implementierung modellprädiktiver Regelstrategien vorgestellt, aktuelle Fragestellungen diskutiert und Entwicklungspfade hin zu einem netzdienlichen Betrieb von Energieverbundsystemen skizziert.
Der Endkundenvertrieb ist für die Bewahrung und Weiterentwicklung des Kundenstamms eines Energieversorgers essenziell. Doch um knappe Mittel im Vertrieb möglichst wirkungsvoll einsetzen zu können, wird Wissen darüber benötigt, wie sich die durchschnittlich erzielbaren Strompreise und die zu erwartende Kundenbindungsdauer zwischen verschiedenen Vertriebskanälen unterscheiden. Leitet man anhand dieser Informationen den Wert eines Kunden je Vertriebskanal ab, lässt sich treffsicherer über einzusetzende Marketing-Budgets entscheiden.
Turbinen aus der Tragetasche
(2014)
Am Karlsruher Institut für Technologie wurde der Prototyp eines Kleinwindkraftwerks zur autarken Stromversorgung entwickelt. Das "Energypack" genannte System besteht aus einem 1,10 m langen PVC-Gehäuse mit dreieckigem Querschnitt, Generator, Seilen sowie Funkgerät und kostet ab 50 Euro. Mit dem Energypack kann ein Dynamo mit 2,5 W angetrieben werden. An der Dualen Hochschule BW Heidenheim wurde das System "Anemotec" entworfen, das anstelle von Windflügeln über ein schraubenähnliches Gewinde verfügt. Der Rotor und die Windführung bestehen aus glasfaserverstärkten Werkstoffen. Die erzeugte Leistung liegt bei 365 W, die Stromgestehungskosten liegen bei 23 Cent pro kWh. Die von der Hochschule Offenburg entwickelte Windturbine "Windzip" arbeitet mit einem H-Rotor und besteht aus neun leicht gekrümmten Blechen, die wie Planeten in unterschiedlichem Abstand und in unterschiedlicher Höhe um einen vertikalen Stab kreisen. Bei einer Windgeschwindigkeit von 10 Meter pro Sekunde wurde damit eine Leistung von 40 W erzeugt.
The article investigates the development of a manufacturing route for highly porous titanium foams suitable for craniofacial surgery applications, particularly in cranioplasties. The study focuses on the polyurethane replication method for foam production and emphasizes reducing residual gas content, as it significantly affects the mechanical properties and suitability for approval of the foams. Various factors such as starting materials, solvent debinding, heating schedules, and hydrogen atmosphere are analyzed for their impact on residual gas content. It is shown that significant reductions in residual gas content can only be achieved by reworking each step of the process. A combination of initial solvent debinding of the PU template with dimethyl sulphoxide, reduction of suspension additives, use of coarser Gd. 1 powders, and an integrated debinding and sintering process under partial hydrogen atmosphere achieves a significant reduction in residual gas content. This way, the potential for producing titanium foams that comply with relevant standards for craniofacial implants is demonstrated.
Thermisch angetriebene (Adsorptions-)Kältemaschinen können mit einem verhältnismäßig geringen elektrischen Energieaufwand bzw. mit einer hohen elektrischen Leistungszahl Kälte bereitstel-len. Wird die zum Antrieb erforderliche Wärme aus industrieller Abwärme bereitgestellt, ist diese Kältebereitstellung energetisch effizienter als die Kältebereitstellung über eine Kompressionskäl-temaschine. Wird die Wärme jedoch in Kraft-Wärme-Kopplung bereitgestellt, ist die primärenergetische Bewertung sowohl von mehreren Teilwirkungsgraden als auch den Primärenergiefaktoren für den eingesetzten Brennstoff und die erzeugte bzw. bezogene elektrische Energie abhängig. Eine umfangreiche Messkampagne im Sommer 2018 liefert unter realitätsnahen Randbedingungen in einer Labor umgebung detaillierte Energiekennzahlen für einen typischen Tagesgang des Kältebedarfs. Damit gelingt es, Teilenergiekennwerte für die Planungspraxis abzuleiten und das Gesamtsystem energetisch mit einer konventionellen Kompressionskältemaschine zu vergleichen.
Unter dem europäischen Programm Intelligent Energy for Europe (IEE) fanden sich acht europäische Partner zusammen, um im Rahmen des Projektes ThermCo Lüftungs‐ und Kühlenergiekonzepte für Nichtwohngebäude mit niedrigem Energieeinsatz im Hinblick auf die Energieeffizienz und den thermischen Raumkomfort zu bewerten (siehe Teil 1 dieser Veröffentlichung in Bauphysik 34 (2012), Heft 6. Mit Hilfe einer Simulationsstudie für ein typisches Bürogebäude wird das Potenzial unterschiedlicher Lüftungs‐ und Kühlstrategien unter Berücksichtigung von Energieeffizienz und Raumkomfort für verschiedene europäische Klimazonen bewertet. Die Ergebnisse weisen eine hohe Wirksamkeit von Nachtlüftungskonzepten im nord‐europäischen Sommerklima mit verhältnismäßig niedrigen Außentemperaturen nach. Im mitteleuropäischen Sommerklima bietet das Erdreich ein ausreichend niedriges Temperaturniveau für den effizienten Einsatz von wassergeführten Flächentemperiersystemen. Im südeuropäischen Sommerklima kann eine aktive Kühlung über Luft die hohen und schnell fluktuierenden Kühllasten effizient abführen.
Mit der Messung des Wärme- und Kälteverbrauchs im Labor gelingt es, sowohl thermisch träge als auch agile Flächentemperiersysteme unter praxisnahen, dynamischen Bedingungen messtechnisch zu bewerten. Werden Nutzwärme- und Nutzkältebedarf berechnet und ins Verhältnis zu den gemessenen Verbräuchen gesetzt, können die Aufwandzahlen für die Nutzenübergabe ece für verschiedene Flächentemperiersysteme und in Kombinationen mit anderen Übergabesystemen unter verschiedenen Nutzungsbedingungen und für unterschiedliche Betriebsführungsstrategien bestimmt werden. Damit stehen Aufwandszahlen auf Basis kalorischer Messungen zur Verfügung, die je nach Aufgabenstellung entweder produkt- oder objektbezogen in der Planung komplexer Energiekonzepte verwendet werden können und die tatsächlichen Aufwandszahlen eh, ce für den Heizfall bzw. ec, ce für den Kühlfall genauer als Literaturwerte bzw. projektbezogen beschreiben
In der Planungs- und Betriebspraxis herrscht im Bereich der Betriebsführung von thermisch aktivierten Bauteilsystemen und insbesondere der thermisch trägen Bauteilaktivierung noch große Unsicherheit. Trotz einer weiten Verbreitung dieser Systeme im Neubau von Nichtwohngebäuden hat sich bis heute keine einheitliche Betriebsführungsstrategie durchgesetzt. Vielmehr kritisieren Bauherren und Nutzer regelmäßig zu hohe bzw. niedrige Raumtemperaturen in den Übergangsjahreszeiten und bei Wetterwechsel sowie generell eine mangelhafte Regelbarkeit. Demgegenüber weisen Monitoringprojekte immer wieder einen hohen thermischen Komfort in diesen Gebäuden nach. Offensichtlich unterscheiden sich hier subjektiv empfundene Behaglichkeit und objektiv gemessener Komfort. Gleichzeitig sind Heiz- und Kühlkonzepte mit Flächentemperierung dann besonders energieeffizient, wenn das Regelkonzept auf deren thermische Trägheit angepasst ist. Eine gute Regelung gewährleistet also einen hohen thermischen Komfort und sorgt für einen möglichst niedrigen Energieeinsatz. Das Rechenverfahren mit Anlagenaufwandszahlen (in Anlehnung an DIN V 18599) bietet eine gute Möglichkeit, Anlagenkonzepte inklusive deren Betriebsführungsstrategie zu bewerten. Damit ist es möglich, eine auf das Gebäude angepasste Betriebsführungsstrategie für die Bauteilaktivierung zu finden und einheitlich zu bewerten.
In this study, we tested the function of a replica of the over 500-year-old original of the
famous Franconian Imperial Knight Götz von Berlichingen’s first “iron hand”, which we
reconstructed by computer-aided design (CAD) and recently printed using a multi-material
3D printer. In different everyday tasks, the artificial hand prosthesis proved to be remarkably
helpful. Thus, the hand could hold a wine glass, some grapes, or a smartphone. With a
suitable pencil, even writing was possible without any problem. Although for all these
functions the healthy other hand was necessary to assist at the beginning, the artificial hand
is an astonishing mechanical aid with many possibilities. Therefore, in certain cases, the
non-invasive approach of a passive mechanical hand replacement, which is an individual,
quick and cheap solution due to modern 3D printing, may always be worth considering
also for today’s requirements.
The famous violin virtuoso Nicolò Paganini (born on 27 October 1782 in Genoa, died on 27 May 1840 in Nice) left us with many puzzles. An interesting aspect is his hair: In the 19th century, hair given away as a token of friendship or romantic love became very popular, and Paganini also seems to have made use of this fad. In 2009, a lock of hair, purportedly that of Paganini, kept in a locked presentation box together with a bilingual autograph inscription saying: "Alla Signora Chatterton avec les compliments de Nicolò Paganini" was bought at an auction. From this hair lock a sample was taken and was investigated morphologically by using digital light microscopy (digital microscope VHX-100, Keyence) in reflected and transmitted light with and without polarization at different magnifications up to 1:5,000. The sample was then compared with a hair sample from the possession of the Paganini family, which had been microscopically examined in 2012 by the co-author of this paper yielding numerous figures with measurement results that had been stored and could be retrieved for direct comparison. The hair sample consisted of ten strands of hair or hair fragments and was investigated with great effort for the following parameters: exogenous hair damage, especially feeding traces caused by parasites, modeling and angulation of hairs, hair thickness, medulla and pigmentation, curling and mercury load on the trace material. After evaluation of all findings not only a non-exclusion of identity can be determined, but due to the broad match of also rare findings there is no reasonable doubt about their identity. In addition, the findings suggest that the studied hair samples are in fact from Paganini's head. The present case of Nicolò Paganini's hair lock is also an excellent starting point for reflections on the probative value of trace hair investigations. This point is also critically discussed in the paper. Finally, this study shows that said lock of hair had probably really been dedicated and given to Eliza Davenport Latham (born on 25 November 1806, died on 9 January 1877), the future wife of the, at that time, best-known and most famous English harpist John Balsir Chatterton (born on 25 November 1804, died on 9 April 1871). Paganini must have met her on his concert tour 1831/32, where he had travelled to Paris, London, the rest of England, Scotland and Ireland.
In der vorliegenden Arbeit werden fotografische Aufnahmen zweier verschiedener Abgüsse von Paganinis rechter Hand vorgestellt und näher beschrieben. Es handelt sich um einen mutmaßlich originalen Bronzeabguss, der vermutlich kurz nach Paganinis Tod auf dessen Totenbett abgenommen wurde, und eine in heutiger Zeit angefertigte Kopie aus Fiberplastik mit goldfarbenem Anstrich. Die Hand ist im proximalen Handgelenk stark abgewinkelt, was dafür spricht, dass die Hand des Toten auf einem Kissen gelegen haben könnte, um den Abguss vorzunehmen. Überdies zeigt sich eine verkrampfte Stellung der Finger und Hand, am ehesten infolge Totenstarre. Man findet zudem arthrotische Veränderungen sowie hervortretende Sehnen und atrophierte Muskulatur. Beim Bronzeabguss sind die beschriebenen Auffälligkeiten deutlicher zu erkennen. Ein 3D-Scan des Bronzeabgusses der rechten Hand Paganinis mit einem Strukturlichtscanner würde die Möglichkeit eröffnen, Messdaten der Hand zu erhalten.
In der vorliegenden Arbeit wurde die von Wilhelm His Sr. angefertigte und im Jahr 1895 publizierte Fotografie des mutmaßlichen Skeletts von Johann Sebastian Bach auf ihre Abbildungsqualität untersucht. Dies erfolgte durch direkte Messungen an einem digitalen Scan der Fotografie. Dabei wurde der von His der Fotografie beigelegte Lineal-Maßstab in mehrere 10-cm-Stücke unterteilt und die Länge dieser Abschnitte im Digitalisat mit dem Messinstrument von Adobe Acrobat ausgemessen. Darüber hinaus wurden die Längen der Femora ermittelt und mit den Maßen verglichen, die 1895 an den tatsächlichen (realen) Knochen ermittelt wurden. In dem Digitalisat entsprachen 190 cm im Lineal 244,48 mm. Der Mittelwert der 19 bestimmten 10-cm-Abschnitte betrug 100,49 mm (Median 100,49 mm, Standardabweichung 0,49 mm). Die historische Femurlänge links betrug 443,5 mm, rechts 451,0 mm. Die im Digitalisat ermittelte Femurlänge betrug links 443,8 mm, rechts 451,1 mm. Zusätzlich wurden die projizierten Centrum-Collum-Diaphysen-Winkel bestimmt. Die Daten lassen den Schluss zu, dass die Oben/unten-Verzerrung sowie die Rechts/links-Verzerrung nicht nennenswert sind und das von His angefertigte Foto mit einer hohen Genauigkeit der Abbildungsqualität und des Linsenapparats der Kamera angefertigt wurde, die es ermöglicht, bestimmte Skelettanteile aussagekräftig zu beurteilen und auszumessen.
This paper presents new measurements of a bronze cast from the right hand of the famous Italian violin virtuoso Nicolò Paganini (1782-1840). These are compared to anthropometric standard values. In addition, detailed dorsal and palmar views of the cast are shown. With a middle finger length of 75 mm, the palm width is 60 mm and the hand length 152 mm, which is significantly below the 5% percentile of today's standard values. Also the finger length index (0.55), the ratio of finger length to palm length (0.98) and the ratio of finger length to palm width (1.25) are significantly above normal limits. Hence, Paganini had abnormal hand measurements with a very small palm and relatively "long" fingers. This remarkable constellation, among others, could have been advantageous for his amazing skills as a violinist.
Fünf Jahre vor seinem Tod, im Jahr 1932, wurde der berühmte französische Komponist Maurice Ravel (1875–1937), der an einer frontotemporalen Demenz (M. Pick) mit primär progressiver Aphasie litt, bei einem Unfall verletzt, als er in einem Pariser Taxi saß. In diesem Fallbericht wird der Unfallmechanismus unter bestimmten Annahmen dargestellt und diskutiert. Ausgehend von diesen Überlegungen ist ein Unfall bei geringer Kollisionsgeschwindigkeit wahrscheinlich. Trotz eines Unfalls mit nur geringer Geschwindigkeit ist nicht von der Hand zu weisen, dass dieser Unfall zumindest zu einer deutlichen Verschlimmerung der Krankheitssymptome geführt haben könnte, da Ravel seit diesem Taxiunfall bis zu seinem Tod keine weiteren Kompositionen mehr vollendet hat.
In dieser Arbeit wird ein historischer Fallbericht des bis heute weit über seine Landesgrenzen bekannten italienischen Kriminalanthropologen Cesare Lombroso (1835–1909) vorgestellt. In diesem Fallbericht wird der berüchtigte und psychisch auffällige Dieb Pietro Bersone mit Hilfe eines sog. Hydrosphygmographen überführt, einem zur damaligen Zeit neuartigen technischen Gerät, das den Puls nicht-invasiv aufzeichnen konnte. Lombroso ist vermutlich einer der ersten, wenn nicht sogar der erste, der durch den Einsatz eines solchen Geräts die Idee zum „Lügendetektor“ vorweggenommen hat. Die vorgestellte Textstelle aus Lombrosos Buch „Neue Fortschritte in den Verbrecherstudien“ ist daher ein besonderes Fundstück auch für die Geschichte der Polygraphie.
Streustrahlung in der Ultraschall-Computertomographie zur Verifizierung der Echtheit von Perlen
(2017)
This paper describes a new analysis method developed to distinguish real from fake
pearls using non-ionizing, non-destructive ultrasound computed tomography (USCT): In the USCT Shepp-Logan-filtered time-of-flight image, a fake pearl shows irregular, asymmetric
scattering of ultrasound, whereas the pattern in a natural pearl is regular and symmetric.
We strongly assume that pattern recognition of the scattering of ultrasound cannot only
play an important role in verifying pearls, but also in testing other materials and tissues in
(bio-)medical engineering. Furthermore, and most importantly, this new approach could
be helpful for a variety of clinical diagnoses using high-resolution 3D-USCT, such as the
detection of X-ray-negative micro-calcifications in early breast cancer. Moreover looking
at scattering patterns in dedicated positron emission tomography systems may promote
new developments in nuclear medicine diagnostics.
Bach, Gas, Strom und Wasser
(2022)
Die Namen Cormack und Hounsfield sind für den Radiologen zu einem wichtigen Synonym für die Computertomographie (CT) geworden. Der mathematische Wegbereiter für die CT, Johann Radon, kommt in der radiologischen Diskussion und den historischen Rückblicken hingegen oft zu Unrecht zu kurz. Die folgende Kurzübersicht möchte daher dem interessierten Leser die wichtigsten historischen Eckdaten zu dem in vielerlei Hinsicht bewegenden Leben und Wirken dieses großen Mathematikers näherbringen.
Memento mori!
(2022)
Das plötzliche Ende des romantischen Komponisten Felix Mendelssohn Bartholdy (1809–1847) gibt uns auch heute noch Rätsel auf. Einiges deutet auf ein rupturiertes zerebrales Aneurysma mit konsekutiver Subarachnoidalblutung hin. Das Quellenmaterial zu den Symptomen seiner Todeskrankheit wird in dieser Arbeit ausführlich vorgestellt und diskutiert. Eine mögliche familiäre Disposition im Sinne eines Ehlers-Danlos-Syndroms Typ IV wird erörtert.
Im Beitrag wird gezeigt, wie sich die Ackermann’sche Formel zur Polvorgabe bei zeitkontinuierlichen
Ein- und Mehrgrößenzustandsregelungen in einfacher
Weise auf nicht vollständig steuerbare Regelstrecken
erweitern lässt. Das vorgestellte Verfahren basiert
auf einer teilsystemorientierten Zustandstransformation
in Verbindung mit der Einführung zusätzlicher fiktiver Stellgrößen, über die nichtsteuerbare Streckeneigenwerte
formal beeinflusst werden könnten, aber durch Nullsetzen
dieser Stellgrößen nicht beeinflusst werden. Dem
Reglerentwurf vorausgehende Maßnahmen zur Elimination
von nicht steuerbaren Anteilen aus dem Streckenmodell
sind daher nicht erforderlich. Im Vergleich zum Fall
einer vollständig steuerbaren Regelstrecke erfordert die
Anwendung des vorgestellten Verfahrens kaum Mehraufwand,
was am Beispiel eines Eingrößen- und eines Mehrgrößensystems
illustriert wird.
Nachweise für die Stabilität von Regelkreisen, deren Stellgrößen an ihre Begrenzungen gelangen können und bei denen die Regler Integratoren oder andere dynamische Glieder sowie Anti-Windup-Maßnahmen enthalten, sind gewöhnlich sehr aufwändig zu führen. Bei PI-Zustandsreglern, die mittels der in [1] vorgestellten Methode in einem mehrstufigen Verfahren für Regelstrecken entworfen wurden, die bis auf die Stellgrößenbegrenzungen linear sind, lassen sich jedoch äußerst hilfreiche allgemeine Stabilitätsaussagen treffen, die den konkreten Stabilitätsnachweis für das Gesamtsystem– selbst unter Einbeziehung von Beobachtern – erheblich vereinfachen. Im vorliegenden Beitrag werden die diesbezüglichen, auf Steuerbarkeitsbetrachtungen beruhenden, Zusammenhänge für zeitdiskrete Regelkreise aufgezeigt sowie daraus exemplarisch mittels Ljapunow-Funktionen eine einfache Reglerformel für Zustandsregler abgeleitet, die auch im Begrenzungsfall stabil arbeiten. Ein Beispielaus der elektrischen Antriebstechnik illustriert die Anwendbarkeit der vorgestellten Methode.
Im vorliegenden Beitrag wird beschrieben, wie bereits entworfene Zustandsregler für proportional geregelte Systeme ohne Rechentotzeit auf einfache Art und Weise für Systeme mit Reglerintegratoren bzw. mit Rechentotzeit erweitert werden können. Das Ziel ist hierbei, den Aufwand zur Ermittlung der Reglermatrix zu reduzieren. Hierbei soll die bereits vorhandene, optimierte Regelkreisdynamik so wenig wie möglich verändert werden, wodurch bei Mehrgrößensystemen hinzukommende Freiheitsgrade sinnvoll festgelegt werden. Die Betrachtungen erfolgen für lineare zeitdiskrete Systeme und werden anhand eines Beispiels aus der elektrischen Antriebstechnik veranschaulicht.
Im Beitrag wird ein zweistufiges Verfahren für den Entwurf eines Störgrößenbeobachters für lineare, zeitinvariante Systeme vorgestellt. Hierbei wird davon ausgegangen, dass die Beobachterrückführung für den Beobachter ohne Störmodell bereits vorliegt. Es wird dargestellt, wie darauf basierend mit einfachen formelmäßigen Zusammenhängen die Rückführkoeffizienten für den Störgrößenbeobachter ermittelt werden können. Die beschriebene Methode erhöht die Übersichtlichkeit hinsichtlich des Einflusses des Störmodells auf die Beobachterrückführkoeffizienten und ist außerdem für Modelle mit geringer Systemordnung rechenzeitsparender.
Im Beitrag wird für lineare, zeitinvariante, zeitdiskrete und stabile Regelstrecken beschrieben, wie zwei bekannte Zustandsraumverfahren zur Windup-Vermeidung so miteinander kombiniert werden können, dass dadurch für sämtliche PI-Zustandsregler Strecken- und Regler-Windup verhindert wird, sofern diese Regler im unbegrenzten Fall stabil sind. Zurückgegriffen wird hierbei auf das „Additional Dynamic Element“ (ADE) von Hippe zur Vermeidung von Strecken-Windup [Hippe, P.: Windup in control – Its effects and their prevention, 2006; at – Automatisierungstechnik, 2007], dessen Übertragung auf zeitdiskrete Systeme im Beitrag kurz skizziert wird, sowie auf das Verfahren der Führungsgrößenkorrektur [Nuß, U.: at – Automatisierungstechnik, 2017] zur Vermeidung von Regler-Windup. Das vorgestellte Kombinationsverfahren setzt für die jeweilige Regelstrecke lediglich die Einbeziehung eines bereits existierenden P-Zustandsreglers voraus, der Strecken-Windup vermeidet. Die Bereitstellung eines möglichst einfachen und dennoch nicht allzu einschränkenden Kriteriums zur Überprüfung, ob ein P-Zustandsregler diese Eigenschaft besitzt, ist ebenfalls ein Anliegen des Beitrags. Diesbezüglich wird auf der Basis einer geeigneten Ljapunow-Funktion ein hinreichendes Kriterium angegeben, das umfassender ist als das in [Nuß, U.: at – Automatisierungstechnik, 2017] verwendete. Ein Beispiel aus der elektrischen Antriebstechnik demonstriert die Leistungsfähigkeit der vorgestellten Methode.
Bei der Auslegung von geschraubten Stirnplattenstößen mit elastomerer Trennschicht dürfen gemäß Eurocode 3 lediglich die Flansche für eine Übertragung der Schnittgrößen berücksichtigt werden. Unsere Untersuchungen zeigen, dass auch die Stege für eine Bemessung herangezogen werden sollten. Sie tragen zu einer gleichmäßigeren Spannungsverteilung im Elastomerlager bei und erlauben somit höhere Belastungen bei gleichbleibenden Abmessungen.
Basis der FE-Analysen sind ein- und zweiachsige Zug- und Druckversuche, die das komplexe Materialverhalten der elastomeren Trennschicht erfassen. Die Übereinstimmung von Messung und Simulation ist sehr gut, was insbesondere auf das verwendete Materialgesetz zurückzuführen ist: ein nicht-linear viskoelastischer Ansatz in Kombination mit dem hyperelastischen Marlow-Modell.
Es hat sich herausgestellt, dass der Reibungskoeffizient und die Querkontraktionszahl des Elastomerlagers maßgeblich das Tragverhalten der geschraubten Stirnplattenstöße beeinflussen.
Der Beitrag behandelt ausgewählte Themenkomplexe im Zusammenhang mit der Vorspannung von Schraubenverbindungen im Stahlbau. Es werden verschiedene Anwendungen und damit verbundene Aspekte beleuchtet und diskutiert, zum Beispiel die Schraubensicherung durch Vorspannung oder die Steifigkeit der Verbindung. Dem vorangestellt ist eine kurze Einführung in die mechanische Wirkung der Vorspannung in der Verbindung sowie eine Vorstellung der Vorspannverfahren.
In dem abgeschlossenen Vorhaben „Entwicklung von Rechenmodellen zur Lebensdauervorhersage von Motorbauteilen unter thermisch-mechanischer Ermüdungsbeanspruchung“ der Forschungsvereinigung Verbrennungskraftmaschinen e. V. (FVV) wurde am Fraunhofer Institut für Werkstoffmechanik IWM in Freiburg ein Materialmodell zur Lebensdauervorhersage thermomechanisch belasteter Komponenten entwickelt. Das Modell basiert auf einem viskoplastischen Verformungsmodell für Eisengusswerkstoffe und einem mechanismenbasierten Modell für Mikrorisswachstum zur Lebensdauervorhersage.
Die vorliegende Arbeit gibt einen Überblick über das Verhältnis zwischen Nutzen und Einschränkungen eines frühneuzeitlichen Riefelharnisches auf die Biomechanik des Menschen. Zu den zentralen Ergebnissen gehört, dass die Rüstung eine gewisse Einschränkung der Beweglichkeit bringt, jedoch durch verschiedene mechanische Konzepte versucht wurde, diese größtmöglich zu minimieren. Besonders das sogenannte Geschübe stellt hierbei einen Kompromiss zwischen Beweglichkeit und Schutzfunktion dar und findet vor allem im Bereich der Gelenke Anwendung. Steife Strukturen werden an Stellen eingesetzt, die kaum Bewegungsfreiheit fordern. Zu diesen Bereichen gehören beispielsweise der Brustkorb oder obere Teile des Rückens. Der Vorteil der steiferen Teile der Rüstung ist ihre erhöhte Schutzfunktion, die ein geringeres Verletzungsrisiko mit sich bringt.
In den letzten Jahren sind verstärkt große Batteriespeichersysteme in der Mittel- und Hochspannungsebene in Deutschland installiert worden. Neben dem Einsatz für lokale Anwendungszwecke wie Eigenverbrauchsmaximierung oder Lastspitzenkappung sind seit 2016 etwa 250 MW aus Batteriespeichern für die Teilnahme am Markt für Primärregelleistung (PRL) präqualifiziert worden. Damit können bereits 40 % des aktuellen Bedarfs der deutschen Übertragungsnetzbetreiber (ÜNB) gedeckt werden. Für einen zuverlässigen Betrieb von Batteriespeichern sind intelligente Betriebsstrategien erforderlich, die im Rahmen dieser Analyse vorgestellt werden.
In der Geschichte »Die Schule« (Originaltitel: ,,The fun they had“) von 1954 beschreibt der russisch-amerikanische Wissenschaftler und Science fiction Autor Isaac Asimov, wie die Schule der Zukunft im Jahr 2157 aussieht – oder genauer: dass es gar keine Schulen mehr gibt. Jedes Kind hat neben seinem Kinderzimmer im Elternhaus einen kleinen Schulraum, in dem es von einem mechanischen Lehrer (einer Maschine mit Bildschirm und einem Schlitz zum Einwerfen der Hausaufgaben) unterrichtet wird. Diese Lehrmaschine ist perfekt auf die Fähigkeiten des einzelnen Kindes eingestellt und kann es optimal beschulen. Nur: Maschinen können kaputt gehen. Die elfjährige Margie wird von ihrem mechanischen Lehrer wieder und wieder in Geographie abgefragt, aber jedes Mal schlechter benotet. Das sieht die Mutter und ruft den Schulinspektor, um den mechanischen Lehrer zu reparieren.
Die Digitalisierung aller Lebensbereiche ist kein Technik-, sondern ein Systemwechsel. Alles, was wir im Netz tun, wird verdatet; idealiter prenatal bis postmortal. Dieser Datenpool wird mit immer ausgefeilteren Algorithmen des Big Data Mining analysiert und mit Methoden der Empirie, Statistik und Mustererkennung ausgewertet. Der Mensch wird zum Datensatz. Je früher Menschen psychometrisch vermessen werden können, desto exaktere Persönlichkeits-, Lern- und Leistungsprofile entstehen – und umso leichter ist die Einflussnahme. Das ist der Grund für die Forderung nach Digitaltechnik in KiTas und Grundschulen. Menschen werden daran gewöhnt zu tun, was Maschinen ihnen sagen. Das ist Gegenaufklärung aus dem Silicon Valley per App und Web. Wie Alternativen aussehen können, zeigt dieser Beitrag.
In diesem Beitrag werden die Bereitstellungskosten flexibler Systemkomponenten im deutschen Stromsystem analysiert, zu deren Quantifizierung eine einheitliche Methodik entwickelt wird. Dabei ist das Ziel des Beitrags, zeitlich differenzierte Kostenpotenzialkurven für die Jahre 2015 und 2030 zu erarbeiten, anhand derer die energiespezifischen Kosten der markt- und systemdienlichen Flexibilitätsbereitstellung verglichen und die einzelnen Flexibilitätsoptionen in einen Gesamtkontext eingeordnet werden können.
Der Einsatz flexibler Systemkomponenten wird hierzu in die drei Hauptphasen (1) Vorhaltung, (2) Abruf und (3) Einsatzfolgen unterteilt, woraus sich drei kongruente Kostengruppen ableiten lassen, nach denen die einzelnen Kostenbestandteile identifiziert und als Ergebnis die Bereitstellungskosten quantifiziert werden. Neben fossil-thermischen Kraftwerken werden dabei bspw. die Kraft-Wärme-Kopplung, Biogasanlagen, Pumpspeicher- und Laufwasserkraftwerke sowie steuerbare Lasten untersucht.
Zur anschließenden Abbildung der teils negativen Bereitstellungskosten wird die herkömmliche Darstellungsform der Merit Order entlang der Ordinate um die Abbildung negative Werte erweitert und die Abszisse für die Abbildung negativer Flexibilität in umgekehrter Reihenfolge angeordnet. Das Ergebnis sind zwei zusammenhängende Graphen, mittels derer sich die Bereitstellungskosten verschiedener Flexibilitätsoptionen gegenüberstellen und anschaulich vergleichen lassen.
Durch die Festlegung eines Rahmenszenarios zur Entwicklung des deutschen Stromsystems bis zum Jahr 2030 wird anschließend auch die zukünftige Perspektive der Flexibilitätsbereitstellung in Deutschland analysiert. Aus den Ergebnissen lässt sich ableiten, dass der deutsche Kraftwerkspark mit einem fortschreitenden Rückbau der Kohlekraftwerke nur dann zunehmend flexibler wird und auf höhere Schwankungen im Stromnetz reagieren kann, wenn von einem gleichzeitigen Zubau moderner erdgasbetriebener Kraftwerke ausgegangen wird. In diesem Fall steigen die Bereitstellungskosten positiver Flexibilität, was sich beispielsweise durch zukünftig steigende Brennstoffpreise bergründen lässt. Jedoch kann bspw. durch die Transformation der Kraft-Wärme-Kopplung hin zu einer grundsätzlich stromgeführten Fahrweise zukünftig eine vergleichsweise kostengünstige Flexibilitätsbereitstellung erschlossen und somit auch ein gleichbleibendes oder oftmals sogar höheres Flexibilitätsniveau am Markt erreicht werden.
In dem ersten Teil dieses Beitrags, welcher in der Industrie 4.0 Management Ausgabe 5/2021 erschienen ist, wurde das Referenzmodell bereits in seinen wesentlichen Grundzügen erläutert [1]. Im zweiten Teil soll die Weiterentwicklung zu einem flexiblen Referenzmodell aufgezeigt werden. Der Fokus liegt auf die Implementierung von weiteren Planungstools, und die Implementierung von KI-Tools zur Erreichung eines dynamischen Produktionsengineerings in Form einer ganzheitlichen und integrierten Fabrikplanung.
The age of globalisation is characterised by increased competition. An opportunity to succeed in the face of increasing competition lies in the digitisation of production companies. This article is dedicated to the design of a three-stage model platform of Industry 4.0, which focuses on the consistency of processes from the customer to the supplier at all company levels. The model platform is followed by an overview of the transformation steps for evaluating and shaping progress on the way to become a digitised production company.
Der prozentuale Energieaufwand für die Warmwasserbereitung ist umso höher, je geringer der Bedarf an Raumwärme – erreicht durch besser gedämmte Gebäudehüllen – ist. Gleichzeitig kann dieser Aufwand für Warmwasser aufgrund der normativ geforderten Systemtemperaturen von 60/55 °C bei zentraler Warmwasserbereitung über Wärmepumpen nur vergleichsweise energieaufwendig abgedeckt werden. Eine Studie des Fraunhofer ISE zeigt, wie groß dieser Temperatur-Effekt im Vergleich unterschiedlicher Trinkwasser-Erwärmungssysteme ist.
Das Ingenieurbüro Evomotiv GmbH und die University of Applied Sciences Offenburg entwickeln seit Ende 2008 ein Antriebskonzept für leichte Stadtfahrzeuge. Ziel des Elektroantriebs ist die Serientauglichkeit der hochintegrierten, getriebelosen und eisenfreien Radnabenmotoren. Das Bundesministerium für Wirtschaft und Technologie (BMWi) unterstützt das Projekt. Das Konzept des Radnabenmotors erhielt 2006 den Bosch—Innovationspreis und gewann 2008 den Shell-Eco-Marathon. Im Jahr 2011 wird Evomotiv mit seinen Partnern erste Prototypen auf der Straße testen.
Nach einer Darstellung des thermodynamischen Verhaltens von Thermoelementen und dem Vergleich mit realen Thermo-elementen der DIN-Reihe 43710 wird der prinzipielle Aufbau von Meßsystemen mit Thermoelementen und Meßverstärkern behandelt. Ein Verfahren zur Linearisierung der Ausgangskennlinie mit einem mehrstufigen Summenverstärker wird beschrieben. Der Einfluß des Linearisierungsverfahrens auf das Meßergebnis wird allgemein untersucht und anhand eines praxisnahen Beispiels für eine Fe-CuNi-Thermoelement quantitativ berechnet.
Anhand der formelmäßigen Beschreibung des Linearisierungsverfahrens wird der Einfluß der Vergleichsstellen-Temperatur auf das Meßergebnis quantitativ untersucht und an Beispielen erläutert. Daraus werden die Randbedingungen für die Vergleichsstellen-Temperatur hergeleitet und schaltungstechnische Realisierungen für die Kompensation der Temperaturdrift von Vergleichsstellen beschrieben.
In 35 deutschen und 7 europäischen Büro- und Verwaltungsgebäuden wurden auf Basis von Monitoringkampagnen über mehrere Betriebsjahre Raum- und Außentemperaturwerte in zeitlich hoher Auflösung erfasst und der thermische Raumkomfort im Sommer standardisiert nach der Komfortnorm DIN EN 15251:2007-08 detailliert ausgewertet. Ergänzt wird die Auswertung um Kurzzeitmesskampagnen über zwei sehr warme Wochen im Sommer in unsanierten bzw. teilsanierten Bürogebäuden, errichtet im Zeitraum von 1960 bis 1975. Die untersuchten Gebäude mit ihrem jeweiligen Kühlkonzept lassen sich in sechs Kategorien einteilen: ohne Kühlung, passive, luftgeführte und wassergeführte Kühlung sowie Mixed-mode-Kühlung und Vollklimatisierung. Im Quervergleich aller Gebäude werden die Kühlkonzepte gleichermaßen nach dem thermischen Raumkomfort und thermischen Kühlenergiebezug bewertet. Detaillierte Komfortuntersuchungen nach der Europäischen Komfortnorm DIN EN 15251:2007-08 geben Hinweise auf die Wirksamkeit der eingesetzten Kühltechnologien in den jeweiligen Klimazonen. Daraus lassen sich Handlungsempfehlungen für die Planungspraxis und den Gebäudebetrieb ableiten.
Mit längerfristigen Nutzerbefragungen in zwei unmittelbar benachbarten Bürogebäuden in Freiburg wurden das Temperaturempfinden der Nutzer und deren Zufriedenheit mit dem thermischen Raumkomfort zweimal täglich erfasst. Ein Bürogebäude wird im Sommer mit einem maschinellen Nachtlüftungskonzept konditioniert und das zweite verfügt über eine Betonkerntemperierung und eine Zu‐ und Abluftanlage. Auf Basis der vorhandenen Daten aus der Erhebung wurde mit Hilfe von Regressionsanalysen ein Modell zur Vorhersage der Komforttemperatur berechnet und mit den Modellen in DIN EN 15251 verglichen.
Neurostimulation durch Musik
(2020)
Was ist die Musik und wie wirkt sie sich auf den menschlichen Körper aus? Historisch betrachtet wird die Musik als etwas Göttliches aufgefasst, da sie eine äußerst große Wirkung auf die Emotionen des Menschen besitzt. Dieser Effekt wirkt sich auch psychosomatisch aus und kann das Denken und Handeln des Zuhörers beeinflussen und steuern. So lässt sich beispielsweise das Kaufverhalten allein durch die musikalische Begleitung deutlich manipulieren. Selbst die Motivation lässt sich mit passender Vertonung entweder steigern oder reduzieren. In der heutigen Zivilisation begleitet die Musik den Menschen alltäglich und wird zu vielen verschiedenen Zwecken verwendet. Somit ist die musikalische Stimulation als eine Art Psychotherapie zu werten, die häufig gezielt angewendet wird, aber im Beeinflussten unterbewusst stattfindet. Da natürlich immer noch offene Fragen bezüglich der genauen Wirkung von Musik auf das Gehirn bestehen, werden derzeit im Bereich der Neurowissenschaften viele Studien durchgeführt, um dieses Phänomen nachvollziehen zu können.
Warmumformwerkzeuge unterliegen während des Betriebes komplexen thermischen und mechanischen Beanspruchungen. In kritischen Bereichen können dadurch lokal Spannungen entstehen, die die Fließgrenze überschreiten. Bei der Serienproduktion führt dies zu zyklischen plastischen Verformungen und zur thermomechanischen Ermüdung, welche die Lebensdauer der Warmumformwerkzeuge maßgeblich bestimmen kann. Zur Bewertung der thermomechanischen Ermüdung der Warmumformwerkzeuge gibt es jedoch heute keine etablierten Konzepte, da dieser Aspekt erst durch die Notwendigkeit einer höheren Ressourcen- und Energieeffizienz und optimierter Produktionsprozesse (beispielsweise im Rahmen von Industrie 4.0) eine höhere Aufmerksamkeit erreicht. In dieser Arbeit wird zum einen die aktuell industriell angewandte Vorgehensweise zur Auslegung von Warmumformwerkzeugen hinsichtlich der Lebensdauer erläutert. Des Weiteren wird ein Überblick über existierende Plastizitätsmodelle und Lebensdauermodelle gegeben. Dabei wird zwischen rein phänomenologischen und mechanismenbasierten Modellen unterschieden. Aus der betriebenen Recherche wird ersichtlich, dass weiterer Forschungsbedarf auf diesem Gebiet notwendig ist.
Wirtschaftlichkeitsbetrachtung eines smarten Energiekonzepts für ein Bestandsquartier in Karlsruhe
(2023)
Die Transformation der Energieversorgung in Bestandsgebäuden ist für die Erreichung der Klimaziele im Gebäudesektor entscheidend. In einem modellhaften Quartiersprojekt in Karlsruhe-Durlach wird ein ‚smartes Energiekonzept‘, bestehend aus Wärmepumpen, Blockheizkraftwerk und PV-Anlagen mit lokalem Strom- und Wärmenetz umgesetzt und messtechnisch begleitet. Ziel ist dabei eine CO2-effiziente und wirtschaftliche Bereitstellung von Wärme und Strom.
In dem Artikel wird eine Wirtschaftlichkeitsbetrachtung für das Wärme- und Stromcontracting auf Basis der realen Investitionskosten sowie der gemessenen und berechneten Energieflüsse durchgeführt. Die Wärmegestehungskosten hängen neben den Investitionskosten von den energiewirtschaftlichen Rahmenbedingungen ab. Mit ansteigender CO2-Steuer werden mittelfristig Wärmegestehungskosten erreicht, die unter denen konventioneller Energiesysteme liegen. Dadurch bietet das integrierte Energiekonzept ein breites Anwendungspotenzial für städtische Bestandsquartiere außerhalb von Fernwärme-Gebieten.
Virtual-Reality-Anwendungen ermöglichen es Anbietern von Erfahrungsgütern durch innovative Produktpräsentationen die inhärenten Informationsasymmetrien zu reduzieren. Dadurch kann den potenziellen Kunden eine effiziente Leistungsbeurteilung ermöglicht und das Risiko einer informationsbedingten Fehlentscheidung minimiert werden. Die vorliegende Studie fokussiert sich auf die Identifikation wichtiger Determinanten, die die Nutzungsintention von Virtual-Reality-Anwendungen zur Leistungsbeurteilung von Erfahrungsgütern beeinflussen. Um das Akzeptanzverhalten von Nutzern gegenüber dieser neuartigen Technologie zu erforschen, wurde ein erweitertes Technologieakzeptanzmodell eingesetzt. Als Untersuchungsobjekt wurde eigens für die Studie eine Virtual-Reality-Anwendung entwickelt, die es den Nutzern ermöglichte, eigenständig ein virtuelles Erfahrungsgut zu erkunden. Insgesamt nahmen 569 Probanden an der Datenerhebung teil. Für die Berechnung des Strukturgleichungsmodells und die Hypothesenüberprüfung wurde eine Partial-Least-Squares-Analyse eingesetzt. Wie die Studienergebnisse verdeutlichen, führt das immersive Produkterlebnis zu einer effizienteren Informationsbeschaffung. Speziell der wahrgenommene Nutzen einer Virtual-Reality-Anwendung ist ein zentraler Prädiktor, der sowohl auf die Nutzungseinstellung als auch auf die Nutzungsintention einen starken positiven Einfluss ausübt.
Die Zuverlässigkeit und Betriebssicherheit von Feldgeräten ist für den sicheren und wirtschaftlichen Betrieb prozesstechnischer Anlagen unerlässlich. Ein entscheidender Faktor ist die Widerstandskraft der Geräte gegen die herrschenden Umgebungsbedingungen. Durch Korrosionsschäden hervorgerufene Anlagenstillstände zeigen, dass diesem Thema nicht immer die notwendige Aufmerksamkeit gewidmet wird, obwohl die korrosionsbedingten wirtschaftlichen Schäden immens sind. Wie man mit dem Thema Korrosionsschutz ernsthaft umgehen kann, zeigt dieser Beitrag am Beispiel elektrischer Stellantriebe.
Im Automobilbau bietet der Einsatz der Multimaterialbauweise ein signifikantes Potenzial zur Gewichtsreduktion. Zugleich erfordert diese Bauweise eine große Anzahl von Fügeverfahren für die Verbindung der unterschiedlichen Werkstoffe und Werkstoffklassen. Dabei muss eine Vielzahl an konstruktiven und materialseitigen Anforderungen berücksichtigt werden. Um in diesem Auswahlprozess den Aspekt des Leichtbaus beim Fügeverfahren selbst systematisch zu integrieren, wurde eine Methodik entwickelt, welche die Fügeverfahren im Hinblick auf ihr jeweiliges Leichtbaupotenzial bewertet.
Die Rolle des Aufsichtsrats wird zunehmend als eine strategische charakterisiert, ohne dies jedoch näher zu erläutern. Die aktuelle Diskussion zeigt, dass daraus Unschärfen in der Abgrenzung zur Rolle des Vorstands resultieren. In dem Beitrag wird die Rolle des Aufsichtsrats im Rahmen strategischer Entscheidungen präzisiert.
Zielvereinbarungen sollen SMART formuliert werden, um die Leistungsbereitschaft von Mitarbeitern optimal zu fördern - so wird es zumindest in der praxisorientierten betriebswirtschaftlichen Literatur propagiert. Ob Zielvereinbarungen, die spezifisch, messbar, erreichbar, relevant für das Unternehmen und zeitlich terminiert sind, wirklich eine höhere Leistungsbereitschaft zur Folge haben, wird im Folgenden auf Basis einer empirischen Untersuchung überprüft.
Synergieprognosen spielen bei der Begründung von Unternehmensübernahmen regelmäßig eine wichtige Rolle. Da diese Prognosen unsicher sind, bedürfen sie einer fundierten Beurteilung, was wiederum eine offene Diskussion innerhalb von Vorstand und Aufsichtsrat voraussetzt. Solche Diskussionen sind jedoch keine Selbstverständlichkeit, da Gruppen dazu neigen, problematische Entscheidungsaspekte nicht angemessen zu würdigen. Mit dem Tornado-Diagramm wird ein Instrument vorgestellt, das diesem Effekt entgegenwirkt und die Entscheider dazu motiviert, auch ungünstige Synergieprognosen zu diskutieren. Auf diese Weise kann die Übernahmeentscheidung auf eine bessere Informationsgrundlage gestellt werden.
Diese Arbeit beschäftigt sich mit der Biomechanik der Halswirbelsäule (HWS) beim Umgang mit dem Smartphone. Die Kräfte, die auf Wirbelkörper, Wirbelgelenke, Bandscheiben, Muskeln und Bänder wirken, werden mit steigendem Flexionswinkel der HWS größer. Die Beschwerden hingegen, welche der Smartphone-Nacken hervorruft, sind meist akut und mit regelmäßiger Bewegung und der Stärkung der Nackenmuskulatur gut zu behandeln. Eine Therapie ist somit auch zur Vorbeugung geeignet. Doch die Langzeitauswirkungen sind nicht außer Acht zu lassen, denn durch die steigenden Nutzungsmöglichkeiten der Smartphones steigt auch der durchschnittliche tägliche Gebrauch stärker an. So wird vor allem die tägliche Bildschirmzeit bei Jugendlichen immer länger. Das aktuell noch akute Krankheitsbild des Smartphone-Nackens, das nur selten einen chronischen Verlauf nimmt und Langzeitschäden verursacht, könnte sich durch fehlende oder zu späte Maßnahmen zu einem größeren chronischen Krankheitsbild entwickeln.
Bislang gibt es keine Güterstraßenbahnsysteme, die im urbanen Warentransport im Realbetrieb eingesetzt werden. Bestehende Konzepte sind auf einzelne Branchen, ausgewählte Transportgüter oder einzelne Verlader ausgerichtet. Untersuchungen zu Güterstraßenbahnprojekten konzentrieren sich auf individuelle Kunden (zum Beispiel "CarGo Tram" Dresden). Für die Realisierung einer Güterstraßenbahn im urbanen Raum wäre zu klären, welche Anforderungen potenzielle Nutzer haben und wie diese Anforderungen in ein logistisches Konzept integriert werden können. In einer multiplen Fallstudie werden drei Unternehmen aus verschiedenen Branchen analysiert. Aufgrund heterogener Anforderungen wird ein modulares Logistikkonzept vorgeschlagen. Der Beitrag entstand im Rahmen des Projektes "LogIKTram: Logistikkonzept und IKT-Plattform für stadtbahnbasierten Gütertransport".