Refine
Year of publication
Document Type
- Article (reviewed) (128) (remove)
Language
- German (128) (remove)
Keywords
- Management (4)
- Biomechanik (3)
- Corporate Governance (3)
- Götz von Berlichingen (3)
- Handprothese (3)
- Hochschuldidaktik (3)
- Johann Sebastian Bach (3)
- Regelungstechnik (3)
- Simulation (3)
- Steuerbarkeit (3)
Institute
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (33)
- Fakultät Wirtschaft (W) (30)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (29)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (29)
- POIM - Peter Osypka Institute of Medical Engineering (16)
- INES - Institut für nachhaltige Energiesysteme (11)
- Fakultät Medien (M) (ab 22.04.2021) (8)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (2)
- CRT - Campus Research & Transfer (1)
- IBMS - Institute for Advanced Biomechanics and Motion Studies (ab 16.11.2022) (1)
Open Access
- Closed Access (61)
- Open Access (26)
- Closed (24)
- Diamond (5)
- Hybrid (4)
- Gold (1)
- Grün (1)
Im Jahr 1504 verlor der deutsche Ritter Gottfried („Götz“) von Berlichingen seine
rechte Hand. Schon während seiner Genesung dachte er daran, die Hand zu ersetzen,
und beauftragte bald darauf die erste Handprothese, die sogenannte „Eiserne Hand“.
Jahre später wurde die aufwändigere zweite „Eiserne Hand“ gebaut. Wir haben die erste
Prothese auf der Basis früherer Literaturdaten von
Quasigroch (1982) mit Hilfe von 3-D
Computer-Aided Design (CAD) rekonstruiert. Dazu mussten einige Abmessungen angepasst
und ein paar Annahmen für das CAD-Modell gemacht werden. Die historische passive
Prothese des Götz von Berlichingen ist für die moderne Neuroprothetik interessant, da sie
eine Alternative zu komplexen invasiven Brain-Machine-Interface-Konzepten darstellen
könnte, wo diese Konzepte nicht notwendig, möglich oder vom Patienten gewünscht sind.
In this study, we tested the function of a replica of the over 500-year-old original of the
famous Franconian Imperial Knight Götz von Berlichingen’s first “iron hand”, which we
reconstructed by computer-aided design (CAD) and recently printed using a multi-material
3D printer. In different everyday tasks, the artificial hand prosthesis proved to be remarkably
helpful. Thus, the hand could hold a wine glass, some grapes, or a smartphone. With a
suitable pencil, even writing was possible without any problem. Although for all these
functions the healthy other hand was necessary to assist at the beginning, the artificial hand
is an astonishing mechanical aid with many possibilities. Therefore, in certain cases, the
non-invasive approach of a passive mechanical hand replacement, which is an individual,
quick and cheap solution due to modern 3D printing, may always be worth considering
also for today’s requirements.
Auf Grundlage der Computer-Aided-Design (CAD)-rekonstruierten ersten „Eisernen Hand“ des Götz von Berlichingen wird ein umgebautes, controllergesteuertes sensomotorisches Fingersystem auf seine Funktionalität beim Greifen von unterschiedlichen Gegenständen beschrieben und geprüft. Die elektronischen Finger, die den „Pinzettengriff“ nachahmen und automatisch bei dem zuvor eingestellten Anpressdruck abschalten, bewiesen eine bemerkenswerte Alltagstauglichkeit. Das vorgestellte Grundkonzept könnte eine Alternative bei der Entwicklung einfacher und kostengünstiger, aber dennoch gut einsatzfähiger bionischer Hände sein und zeigt einmal mehr, wie historische Ideen in die Gegenwart transferiert werden können.
Am 1. Juli 2022 trafen sich im Rahmen des Abschlusskolloquiums des Projekts ACA-Modes rund 60 Teilnehmende aus Forschung, Lehre und Industrie zu einer internationalen Konferenz an der Hochschule Offenburg. Hier wurden die Projektergebnisse rund um die erfolgreiche Implementierung modellprädiktiver Regelstrategien vorgestellt, aktuelle Fragestellungen diskutiert und Entwicklungspfade hin zu einem netzdienlichen Betrieb von Energieverbundsystemen skizziert.
Hintergrund
In diesem Artikel wird ein Überblick und Vergleich der am häufigsten verwendeten zementierten Hüftschäfte, gruppiert in die verschiedenen Schafttypen und Zementmanteldicken, gegeben, um zu sehen, welche Kombination gut abschneidet.
Methodik
Aus dem Endoprothesenregister Deutschland wurden die Revisionsraten zementierter Schaftarten kategorisiert und die Revisionsraten von 3 und 5 Jahren erfasst und analysiert. Für die Recherche lag die Konzentration auf den Schäften Exeter, C‑Stem, MS-30, Excia, Bicontact, Charnley, Müller Geradschaft, Twinsys, Corail, Avenir, Quadra und dem Lubinus SP II. Ein wichtiger Aspekt lag darin, welcher Schaft favorisiert implantiert wird und welche Zementiertechnik in Hinblick auf die geplante Zementmanteldicke angewendet wird. Um einen Trend in der zementierten Hüftendoprothetik herauszufinden, wurden zusätzlich die Daten des dänischen, schwedischen, norwegischen, schweizerischen, neuseeländischen, englischen und australischen Endoprothesenregister verglichen.
Ergebnisse und Schlussfolgerung
Die meisten Länder nutzen zementierte Prothesen nach dem Kraftschlussprinzip (Exeter, MS30, C‑Stem etc.) oder dem Formschlussprinzip (Charnley, Excia, Bicontact), welche mit einer Zementmanteldicke von 2–4 mm implantiert werden. Jedoch hat sich in Deutschland und der Schweiz ein Trend zur Line-to-Line-Technik, mit einer geplanten Zementmanteldicke von 1 mm (Twinsys, Corail, Avenir, Quadra) aufgezeigt, dem Prinzip der Müller-Geradschaft-Prothese und der Kerboul-Charnley-Prothese folgend, auch wenn diese an sich als „french paradoxon“ postuliert werden. In den EPRD-5-Jahres-Ergebnissen scheinen die neueren Line-to-Line-Prothesen etwas schlechter abzuschneiden. Die besten Ergebnisse erzielt der „MS 30“ in Deutschland und der „Exeter“ in England. Hierbei handelt es sich um polierte Geradschäfte mit Zentraliser und Subsidence-Raum an der Spitze mit einem 2–4 mm Zementmantel in guter Zementiertechnik.
Synergieprognosen spielen bei der Begründung von Unternehmensübernahmen regelmäßig eine wichtige Rolle. Da diese Prognosen unsicher sind, bedürfen sie einer fundierten Beurteilung, was wiederum eine offene Diskussion innerhalb von Vorstand und Aufsichtsrat voraussetzt. Solche Diskussionen sind jedoch keine Selbstverständlichkeit, da Gruppen dazu neigen, problematische Entscheidungsaspekte nicht angemessen zu würdigen. Mit dem Tornado-Diagramm wird ein Instrument vorgestellt, das diesem Effekt entgegenwirkt und die Entscheider dazu motiviert, auch ungünstige Synergieprognosen zu diskutieren. Auf diese Weise kann die Übernahmeentscheidung auf eine bessere Informationsgrundlage gestellt werden.
In der Planungs- und Betriebspraxis herrscht im Bereich der Betriebsführung von thermisch aktivierten Bauteilsystemen und insbesondere der thermisch trägen Bauteilaktivierung noch große Unsicherheit. Trotz einer weiten Verbreitung dieser Systeme im Neubau von Nichtwohngebäuden hat sich bis heute keine einheitliche Betriebsführungsstrategie durchgesetzt. Vielmehr kritisieren Bauherren und Nutzer regelmäßig zu hohe bzw. niedrige Raumtemperaturen in den Übergangsjahreszeiten und bei Wetterwechsel sowie generell eine mangelhafte Regelbarkeit. Demgegenüber weisen Monitoringprojekte immer wieder einen hohen thermischen Komfort in diesen Gebäuden nach. Offensichtlich unterscheiden sich hier subjektiv empfundene Behaglichkeit und objektiv gemessener Komfort. Gleichzeitig sind Heiz- und Kühlkonzepte mit Flächentemperierung dann besonders energieeffizient, wenn das Regelkonzept auf deren thermische Trägheit angepasst ist. Eine gute Regelung gewährleistet also einen hohen thermischen Komfort und sorgt für einen möglichst niedrigen Energieeinsatz. Das Rechenverfahren mit Anlagenaufwandszahlen (in Anlehnung an DIN V 18599) bietet eine gute Möglichkeit, Anlagenkonzepte inklusive deren Betriebsführungsstrategie zu bewerten. Damit ist es möglich, eine auf das Gebäude angepasste Betriebsführungsstrategie für die Bauteilaktivierung zu finden und einheitlich zu bewerten.
Ansatzpunkte zur Verknüpfung von Wertmanagement und Wertemanagement aus Sicht der Führungspraxis
(2014)
IoT-Plattformen stellen ein zentrales Element für die Vernetzung von physischen Objekten und die Bereitstellung deren Daten für digitale Zwillinge dar. Der Markt für solche Plattformen ist in den vergangenen Jahren stark gewachsen. Bei inzwischen über 600 Anbietern ist die Wahl der „richtigen“ Plattform für das eigene Unternehmen keine triviale Aufgabe mehr. Dieser Beitrag soll Unternehmen im Auswahlprozess unterstützen, indem gängige Funktionen von IoT-Plattformen und Kriterien für die Auswahl von IoT-Plattformen aufgezeigt werden.
Bach, Gas, Strom und Wasser
(2022)
Cellular phone antennas are generally designed to have radiation patterns that are as omnidirectional as possible. Omnidirectional antennas allow a phone’s radio to work well for many orientations of the phone with respect to the cellular base station. Recent studies, however, are generating uncertainty about the health effects of prolonged exposure to electromagnetic (EM) radiation from cellular phones. In this paper, an antenna array is designed primarily to minimize users’ exposure to EM radiation. The antenna comprises a beamforming 4 by 3 array of microstrip patch antennas that is controlled by an accelerometer-only inertial navigation system. The proposed design reduces radiated power directed toward the user to below 10% of the total in the worst case.
Bewegungsanalysesysteme in der Forschung und für niedergelassene Orthopädinnen und Orthopäden
(2023)
Hintergrund
Komplexe biomechanische Bewegungsanalysen können für eine Vielzahl orthopädischer Fragestellungen wichtige Informationen liefern. Bei der Beschaffung von Bewegungsanalysesystemen sind neben den klassischen Messgütekriterien (Validität, Reliabilität, Objektivität) auch räumliche und zeitliche Rahmenbedingungen sowie Anforderungen an die Qualifikation des Messpersonals zu berücksichtigen.
Anwendung
In der komplexen Bewegungsanalyse werden Systeme zur Bestimmung der Kinematik, der Kinetik und der Muskelaktivität (Elektromyographie) eingesetzt. Der vorliegende Artikel gibt einen Überblick über Methoden der komplexen biomechanischen Bewegungsanalyse für den Einsatz in der orthopädischen Forschung oder in der individuellen Patientenversorgung. Neben dem Einsatz zur reinen Bewegungsanalyse wird auch der Einsatz von Bewegungsanalyseverfahren im Bereich des Biofeedbacktrainings diskutiert.
Beschaffung
Für die konkrete Anschaffung von Bewegungsanalysesystemen empfiehlt sich die Kontaktaufnahme mit Fachgesellschaften (z. B. Deutsche Gesellschaft für Biomechanik), Hochschulen und Universitäten mit vorhandenen Bewegungsanalyseeinrichtungen oder Vertriebsfirmen im Bereich der Biomechanik.
Bio, vegan – oder was?
(2023)
Nachhaltigkeit als gesellschaftlicher Wert beeinflusst auch die Haltung der Konsumierenden gegenüber Fleisch- und Wurstkonsum und kann zum Umkippen bisheriger Konsummuster führen (Tipping-Point). Für EDEKA Südwestfleisch und Schwarzwaldhof erfordert dies – aufbauend auf der bisherigen Ausrichtung an Nachhaltigkeit – eine zukunftsorientierte Planung des Sortiments im veganen, vegetarischen, hybriden Sektor und im Bereich Bio-Produkte und Tierwohl. Hierfür muss auch die Kommunikationspolitik angepasst werden, um jüngere Zielgruppen zu erreichen, damit das Dilemma der Fleischwirtschaft (Tierwohl wird gefordert, aber nicht in gleichem Masse gekauft) nicht zu Lasten des Markterfolgs geht.
Occluders made of the shape memory alloy Nitinol are commonly used to close Atrial Septal Defects (ASD). Until now, standard parameters are missing defining the mechanical properties of these implants. In this study,we developed a special measuring setup for the determination of the mechanical properties of customly available occluders (i.e. Occlutech Figulla®Flex II 29ASD12 and AGA AMPLATZER™9-ASD-012
In dieser Arbeit wird ein historischer Fallbericht des bis heute weit über seine Landesgrenzen bekannten italienischen Kriminalanthropologen Cesare Lombroso (1835–1909) vorgestellt. In diesem Fallbericht wird der berüchtigte und psychisch auffällige Dieb Pietro Bersone mit Hilfe eines sog. Hydrosphygmographen überführt, einem zur damaligen Zeit neuartigen technischen Gerät, das den Puls nicht-invasiv aufzeichnen konnte. Lombroso ist vermutlich einer der ersten, wenn nicht sogar der erste, der durch den Einsatz eines solchen Geräts die Idee zum „Lügendetektor“ vorweggenommen hat. Die vorgestellte Textstelle aus Lombrosos Buch „Neue Fortschritte in den Verbrecherstudien“ ist daher ein besonderes Fundstück auch für die Geschichte der Polygraphie.
Nach einer Darstellung des thermodynamischen Verhaltens von Thermoelementen und dem Vergleich mit realen Thermo-elementen der DIN-Reihe 43710 wird der prinzipielle Aufbau von Meßsystemen mit Thermoelementen und Meßverstärkern behandelt. Ein Verfahren zur Linearisierung der Ausgangskennlinie mit einem mehrstufigen Summenverstärker wird beschrieben. Der Einfluß des Linearisierungsverfahrens auf das Meßergebnis wird allgemein untersucht und anhand eines praxisnahen Beispiels für eine Fe-CuNi-Thermoelement quantitativ berechnet.
Anhand der formelmäßigen Beschreibung des Linearisierungsverfahrens wird der Einfluß der Vergleichsstellen-Temperatur auf das Meßergebnis quantitativ untersucht und an Beispielen erläutert. Daraus werden die Randbedingungen für die Vergleichsstellen-Temperatur hergeleitet und schaltungstechnische Realisierungen für die Kompensation der Temperaturdrift von Vergleichsstellen beschrieben.
The age of globalisation is characterised by increased competition. An opportunity to succeed in the face of increasing competition lies in the digitisation of production companies. This article is dedicated to the design of a three-stage model platform of Industry 4.0, which focuses on the consistency of processes from the customer to the supplier at all company levels. The model platform is followed by an overview of the transformation steps for evaluating and shaping progress on the way to become a digitised production company.
Dieser Beitrag beschreibt, wie mit Campbells Schema der „Heldenreise“ personalisierte Narrative der obersten Führungsebene aufgebaut werden können, um für interne und externe Stakeholder eine Orientierung zu bieten und die Unternehmenskultur bewusst zu prägen und zu beeinflussen. Das Beispiel der Preisträgerportraits des Manager Magazins zeigt, dass diese Methode breite Anwendung findet und dabei auch unterschiedliche funktionale Zuschreibungen der Führungsrolle erfolgen können.
Im Beitrag wird gezeigt, wie sich die Ackermann’sche Formel zur Polvorgabe bei zeitkontinuierlichen
Ein- und Mehrgrößenzustandsregelungen in einfacher
Weise auf nicht vollständig steuerbare Regelstrecken
erweitern lässt. Das vorgestellte Verfahren basiert
auf einer teilsystemorientierten Zustandstransformation
in Verbindung mit der Einführung zusätzlicher fiktiver Stellgrößen, über die nichtsteuerbare Streckeneigenwerte
formal beeinflusst werden könnten, aber durch Nullsetzen
dieser Stellgrößen nicht beeinflusst werden. Dem
Reglerentwurf vorausgehende Maßnahmen zur Elimination
von nicht steuerbaren Anteilen aus dem Streckenmodell
sind daher nicht erforderlich. Im Vergleich zum Fall
einer vollständig steuerbaren Regelstrecke erfordert die
Anwendung des vorgestellten Verfahrens kaum Mehraufwand,
was am Beispiel eines Eingrößen- und eines Mehrgrößensystems
illustriert wird.
In der Geschichte »Die Schule« (Originaltitel: ,,The fun they had“) von 1954 beschreibt der russisch-amerikanische Wissenschaftler und Science fiction Autor Isaac Asimov, wie die Schule der Zukunft im Jahr 2157 aussieht – oder genauer: dass es gar keine Schulen mehr gibt. Jedes Kind hat neben seinem Kinderzimmer im Elternhaus einen kleinen Schulraum, in dem es von einem mechanischen Lehrer (einer Maschine mit Bildschirm und einem Schlitz zum Einwerfen der Hausaufgaben) unterrichtet wird. Diese Lehrmaschine ist perfekt auf die Fähigkeiten des einzelnen Kindes eingestellt und kann es optimal beschulen. Nur: Maschinen können kaputt gehen. Die elfjährige Margie wird von ihrem mechanischen Lehrer wieder und wieder in Geographie abgefragt, aber jedes Mal schlechter benotet. Das sieht die Mutter und ruft den Schulinspektor, um den mechanischen Lehrer zu reparieren.
Die Rolle des Aufsichtsrats wird zunehmend als eine strategische charakterisiert, ohne dies jedoch näher zu erläutern. Die aktuelle Diskussion zeigt, dass daraus Unschärfen in der Abgrenzung zur Rolle des Vorstands resultieren. In dem Beitrag wird die Rolle des Aufsichtsrats im Rahmen strategischer Entscheidungen präzisiert.
Digitale Lernszenarien in der Hochschullehre. Bedeutung und Funktion aus Sicht von Studierenden
(2021)
Bedingt durch die Coronapandemie wurde in den Informatikkursen Software Engineering und Computernetze an der Hochschule Offenburg ein Lernsetting entwickelt, das mehrere digitale Lernszenarien (Online-Sessions, Lernvideos, Wikis, Quiz, Foren und die selbst entwickelte Lernplattform MILearning) integriert. Im Wintersemester 2020/2021 fand eine Evaluierung statt, um den Einsatz der unterschiedlichen digitalen Lernszenarien in der aktuellen Situation zu bewerten und um zu entscheiden, welche Lernszenarien sinnvoll für einen Einsatz nach der Pandemie sind. Aus dem Blickwinkel des Didaktischen Designs spielen dabei die Eignung der Szenarien für die Wissensvermittlung, die Aktivierung der Studierenden und die Betreuung bei Fragen und Problemen eine wichtige Rolle. Die Ergebnisse zeigen, dass Studierende das Lernsetting intensiv nutzen und die angebotenen digitalen Lernszenarien lernförderlich kombinieren.
Die Digitalisierung aller Lebensbereiche ist kein Technik-, sondern ein Systemwechsel. Alles, was wir im Netz tun, wird verdatet; idealiter prenatal bis postmortal. Dieser Datenpool wird mit immer ausgefeilteren Algorithmen des Big Data Mining analysiert und mit Methoden der Empirie, Statistik und Mustererkennung ausgewertet. Der Mensch wird zum Datensatz. Je früher Menschen psychometrisch vermessen werden können, desto exaktere Persönlichkeits-, Lern- und Leistungsprofile entstehen – und umso leichter ist die Einflussnahme. Das ist der Grund für die Forderung nach Digitaltechnik in KiTas und Grundschulen. Menschen werden daran gewöhnt zu tun, was Maschinen ihnen sagen. Das ist Gegenaufklärung aus dem Silicon Valley per App und Web. Wie Alternativen aussehen können, zeigt dieser Beitrag.
Seit den ersten Projekten der 90er Jahre arbeiten Hochschulen daran, geeignete Servicestrukturen für E-Learning zu etablieren, die die erforderliche technische, didaktische und organisatorische Unterstützung hochschulweit zur Verfügung stellen. Ging es zunächst darum, Services überhaupt dauerhaft zu sichern, steht heute die Frage des „wie“ im Vordergrund. Dabei wird am Bereich E-Learning ein eigentlich viel allgemeineres Problem deutlich: Die bisher überwiegende Organisation der Hochschule nach funktionellen Einheiten stößt an ihre Grenzen. Wir schlagen eine stärker prozessorientierte Sichtweise vor, analog zu Entwicklungen bei der Organisation von Unternehmen.
Im vorliegenden Beitrag wird beschrieben, wie bereits entworfene Zustandsregler für proportional geregelte Systeme ohne Rechentotzeit auf einfache Art und Weise für Systeme mit Reglerintegratoren bzw. mit Rechentotzeit erweitert werden können. Das Ziel ist hierbei, den Aufwand zur Ermittlung der Reglermatrix zu reduzieren. Hierbei soll die bereits vorhandene, optimierte Regelkreisdynamik so wenig wie möglich verändert werden, wodurch bei Mehrgrößensystemen hinzukommende Freiheitsgrade sinnvoll festgelegt werden. Die Betrachtungen erfolgen für lineare zeitdiskrete Systeme und werden anhand eines Beispiels aus der elektrischen Antriebstechnik veranschaulicht.
Im Automobilbau bietet der Einsatz der Multimaterialbauweise ein signifikantes Potenzial zur Gewichtsreduktion. Zugleich erfordert diese Bauweise eine große Anzahl von Fügeverfahren für die Verbindung der unterschiedlichen Werkstoffe und Werkstoffklassen. Dabei muss eine Vielzahl an konstruktiven und materialseitigen Anforderungen berücksichtigt werden. Um in diesem Auswahlprozess den Aspekt des Leichtbaus beim Fügeverfahren selbst systematisch zu integrieren, wurde eine Methodik entwickelt, welche die Fügeverfahren im Hinblick auf ihr jeweiliges Leichtbaupotenzial bewertet.
Das Ingenieurbüro Evomotiv GmbH und die University of Applied Sciences Offenburg entwickeln seit Ende 2008 ein Antriebskonzept für leichte Stadtfahrzeuge. Ziel des Elektroantriebs ist die Serientauglichkeit der hochintegrierten, getriebelosen und eisenfreien Radnabenmotoren. Das Bundesministerium für Wirtschaft und Technologie (BMWi) unterstützt das Projekt. Das Konzept des Radnabenmotors erhielt 2006 den Bosch—Innovationspreis und gewann 2008 den Shell-Eco-Marathon. Im Jahr 2011 wird Evomotiv mit seinen Partnern erste Prototypen auf der Straße testen.
In 35 deutschen und 7 europäischen Büro- und Verwaltungsgebäuden wurden auf Basis von Monitoringkampagnen über mehrere Betriebsjahre Raum- und Außentemperaturwerte in zeitlich hoher Auflösung erfasst und der thermische Raumkomfort im Sommer standardisiert nach der Komfortnorm DIN EN 15251:2007-08 detailliert ausgewertet. Ergänzt wird die Auswertung um Kurzzeitmesskampagnen über zwei sehr warme Wochen im Sommer in unsanierten bzw. teilsanierten Bürogebäuden, errichtet im Zeitraum von 1960 bis 1975. Die untersuchten Gebäude mit ihrem jeweiligen Kühlkonzept lassen sich in sechs Kategorien einteilen: ohne Kühlung, passive, luftgeführte und wassergeführte Kühlung sowie Mixed-mode-Kühlung und Vollklimatisierung. Im Quervergleich aller Gebäude werden die Kühlkonzepte gleichermaßen nach dem thermischen Raumkomfort und thermischen Kühlenergiebezug bewertet. Detaillierte Komfortuntersuchungen nach der Europäischen Komfortnorm DIN EN 15251:2007-08 geben Hinweise auf die Wirksamkeit der eingesetzten Kühltechnologien in den jeweiligen Klimazonen. Daraus lassen sich Handlungsempfehlungen für die Planungspraxis und den Gebäudebetrieb ableiten.
Unter dem europäischen Programm Intelligent Energy for Europe (IEE) fanden sich acht europäische Partner zusammen, um im Rahmen des Projektes ThermCo Lüftungs‐ und Kühlenergiekonzepte für Nichtwohngebäude mit niedrigem Energieeinsatz im Hinblick auf die Energieeffizienz und den thermischen Raumkomfort zu bewerten (siehe Teil 1 dieser Veröffentlichung in Bauphysik 34 (2012), Heft 6. Mit Hilfe einer Simulationsstudie für ein typisches Bürogebäude wird das Potenzial unterschiedlicher Lüftungs‐ und Kühlstrategien unter Berücksichtigung von Energieeffizienz und Raumkomfort für verschiedene europäische Klimazonen bewertet. Die Ergebnisse weisen eine hohe Wirksamkeit von Nachtlüftungskonzepten im nord‐europäischen Sommerklima mit verhältnismäßig niedrigen Außentemperaturen nach. Im mitteleuropäischen Sommerklima bietet das Erdreich ein ausreichend niedriges Temperaturniveau für den effizienten Einsatz von wassergeführten Flächentemperiersystemen. Im südeuropäischen Sommerklima kann eine aktive Kühlung über Luft die hohen und schnell fluktuierenden Kühllasten effizient abführen.
Entrepreneurial Leadership
(2023)
Die Medienbranche ist seit Jahren von disruptiven Veränderungen betroffen, sodass die Unternehmen und zentralen Akteure in einem dauerhaften Veränderungsmodus sind. Gestiegene Anforderungen an Führungskräfte, Kostendruck und geringe Zeitbudgets für Weiterbildung reduzieren die Möglichkeiten für umfassende Ausbildungsmöglichkeiten. Dieser Beitrag beschreibt einen Lösungsansatz, wie trotz begrenzter Budget- und Zeitressourcen eine individuelle Begleitung von Führungskräften möglich wird. Mit einer Kombination von stärkenorientierter Selbstreflexion und gezielten Impulsen werden Führungskräfte in ihrer Entwicklung als selbstverantwortliche, unternehmerisch denkende Führungskraft gestärkt.
Die Hersteller von Cochlea-Implantat (CI)-Systemen sehen für klinische Audiologen die Möglichkeit vor, die Mikrofonleistung der meisten aktuellen CI-Sprachprozessoren mittels anschließbarer Monitorkopfhörer zu prüfen. Nähere Angaben dazu, nach welchem Prozedere diese Prüfung stattfinden soll, z. B. welche Stimuli mit welchen Pegeln verwendet werden sollen, sind nach Wissen der Autoren seitens der CI-Hersteller nicht verfügbar. Auf der Basis dieser subjektiven Prüfung entscheidet dann der Audiologe, ob der betreffende Sprachprozessor an den Hersteller eingeschickt wird oder nicht. Wir haben eine Messbox entwickelt, mit der die Mikrofonleistung aller abhörbaren CI-Sprachprozessoren der Hersteller Advanced Bionics, Cochlear und MED-EL objektiv geprüft werden kann. Die Box wurde im 3-D-Druckverfahren hergestellt. Der zu prüfende Sprachprozessor wird in die Messbox eingehängt und über einen verbauten Lautsprecher mit definierten Prüfsignalen (Sinustönen unterschiedlicher Frequenz) beschallt. Das Signal des Mikronfons bzw. der Mikrofone wird über das in der Audio-/Abhörbuchse des Prozessors eingesteckte Kabel der Monitorkopfhörer herausgeführt und mit einer Shifting and Scaling-Schaltung in einen Spannungsbereich transformiert, der für die A/D-Wandlung mit einem Mikrokontroller (ATmega1280 verbaut auf einem Arduino Mega) geeignet ist. Derselbe Mikrokontroller übernimmt über einen eigens gebauten D/AWandler die Ausgabe der Prüfsignale über den Lautsprecher. Signalaufnahme und –wiedergabe erfolgt jeweils mit einer Samplingrate von 38,5 kHz. Der frequenzspezifische Effektivwert des abgegriffenen Mikrofonsignals wird mit einem Referenzwert verglichen. Die (frequenzspezifischen) Referenzwerte wurden mit einem neuwertigen Sprachprozessor gleichen Typs ermittelt und im Speicher des Mikrokontrollers abgelegt. Das Ergebnis wird nach Abschluss der Messung grafisch auf einem Touchscreen ausgegeben. Derzeit läuft eine erste Datenerhebung mit in der Klinik subjektiv auffällig gewordenen CI-Sprachprozessoren, die anschließend in der Messbox untersucht werden. Längerfristiges Ziel ist es, die hit und false alarm Raten der subjektiven Prüfung zu ermitteln.
Bei bimodaler Cochlea-Implantat-/Hörgerät-Versorgung kann es aufgrund seitenverschiedener Signalverarbeitung zu einer zeitlich versetzten Stimulation der beiden Modalitäten kommen. Jüngste Studien haben gezeigt, dass durch zeitlichen Abgleich der Modalitäten die Schalllokalisation bei bimodaler Versorgung verbessert werden kann. Um solch einen Abgleich vornehmen zu können, ist die messtechnische Bestimmung der Durchlaufzeit von Hörgeräten erforderlich. Kommerziell verfügbare Hörgerätemessboxen können diese Werte häufig liefern. Die dazu verwendete Signalverarbeitung wird dabei aber oft nicht vollständig offengelegt. In dieser Arbeit wird ein alternativer und nachvollziehbarer Ansatz zum Design eines simplen Messaufbaus basierend auf einem Arduino DUE Mikrocontroller-Board vorgestellt. Hierzu wurde ein Messtisch im 3D-Druck gefertigt, auf welchem Hörgeräte über einen 2-ccm-Kuppler an ein Messmikrofon angeschlossen werden können. Über einen Latenzvergleich mit dem simultan erfassten Signal eines Referenzmikrofons kann die Durchlaufzeit von Hörgeräten bestimmt werden. Frequenzspezifische Durchlaufzeiten werden mittels einer Kreuzkorrelation zwischen Ziel- und Referenzsignal errechnet. Aufnahme, Ausgabe und Speicherung der Signale erfolgt über einen ATMEL SAM3X8E Mikrocontroller, welcher auf dem Arduino DUE-Board verbaut ist. Über eigens entworfene elektronische Schaltungen werden die Mikrofone und der verwendete Lautsprecher angesteuert. Nach Abschluss einer Messung (Messdauer ca. 5 s) werden die Messdaten seriell an einen PC übertragen, auf dem die Datenauswertung mittels MATLAB erfolgt. Erste Validierungen zeigten eine hohe Stabilität der Messergebnisse mit sehr geringen Standardabweichungen im Bereich weniger Mikrosekunden für Pegel zwischen 50 und 75 dB (A). Der Messaufbau wird in laufenden Studien zur Quantifizierung der Durchlaufzeit von Hörgeräten verwendet.
Im Beitrag wird ein zweistufiges Verfahren für den Entwurf eines Störgrößenbeobachters für lineare, zeitinvariante Systeme vorgestellt. Hierbei wird davon ausgegangen, dass die Beobachterrückführung für den Beobachter ohne Störmodell bereits vorliegt. Es wird dargestellt, wie darauf basierend mit einfachen formelmäßigen Zusammenhängen die Rückführkoeffizienten für den Störgrößenbeobachter ermittelt werden können. Die beschriebene Methode erhöht die Übersichtlichkeit hinsichtlich des Einflusses des Störmodells auf die Beobachterrückführkoeffizienten und ist außerdem für Modelle mit geringer Systemordnung rechenzeitsparender.
Die Zuverlässigkeit und Betriebssicherheit von Feldgeräten ist für den sicheren und wirtschaftlichen Betrieb prozesstechnischer Anlagen unerlässlich. Ein entscheidender Faktor ist die Widerstandskraft der Geräte gegen die herrschenden Umgebungsbedingungen. Durch Korrosionsschäden hervorgerufene Anlagenstillstände zeigen, dass diesem Thema nicht immer die notwendige Aufmerksamkeit gewidmet wird, obwohl die korrosionsbedingten wirtschaftlichen Schäden immens sind. Wie man mit dem Thema Korrosionsschutz ernsthaft umgehen kann, zeigt dieser Beitrag am Beispiel elektrischer Stellantriebe.
Warmumformwerkzeuge unterliegen während des Betriebes komplexen thermischen und mechanischen Beanspruchungen. In kritischen Bereichen können dadurch lokal Spannungen entstehen, die die Fließgrenze überschreiten. Bei der Serienproduktion führt dies zu zyklischen plastischen Verformungen und zur thermomechanischen Ermüdung, welche die Lebensdauer der Warmumformwerkzeuge maßgeblich bestimmen kann. Zur Bewertung der thermomechanischen Ermüdung der Warmumformwerkzeuge gibt es jedoch heute keine etablierten Konzepte, da dieser Aspekt erst durch die Notwendigkeit einer höheren Ressourcen- und Energieeffizienz und optimierter Produktionsprozesse (beispielsweise im Rahmen von Industrie 4.0) eine höhere Aufmerksamkeit erreicht. In dieser Arbeit wird zum einen die aktuell industriell angewandte Vorgehensweise zur Auslegung von Warmumformwerkzeugen hinsichtlich der Lebensdauer erläutert. Des Weiteren wird ein Überblick über existierende Plastizitätsmodelle und Lebensdauermodelle gegeben. Dabei wird zwischen rein phänomenologischen und mechanismenbasierten Modellen unterschieden. Aus der betriebenen Recherche wird ersichtlich, dass weiterer Forschungsbedarf auf diesem Gebiet notwendig ist.
Fans stärken Marken
(2016)
Der digitale Zwilling dringt immer weiter in den Fokus von Produktionsunternehmen vor und wurde von Gartner als wichtige Schlüsseltechnologie identifiziert. Volkswagen setzt die Technologie in der Cloud ein, um zukünftig die Produktion an allen Standorten digital zu planen, zu steuern und zu optimieren. Dennoch ist diese Technologie im Mittelstand bisher kaum vertreten. Dieser Beitrag beschreibt ein flexibles Referenzmodell für die Planung und Optimierung der Produktion durch den digitalen Zwilling. Der Fokus liegt zum einen auf der Optimierung statischer Layouts und Materialflüsse und zum anderen auf der Optimierung der dynamischen Materialflüsse und der zeitlichen Organisation von Prozessen.
In dem ersten Teil dieses Beitrags, welcher in der Industrie 4.0 Management Ausgabe 5/2021 erschienen ist, wurde das Referenzmodell bereits in seinen wesentlichen Grundzügen erläutert [1]. Im zweiten Teil soll die Weiterentwicklung zu einem flexiblen Referenzmodell aufgezeigt werden. Der Fokus liegt auf die Implementierung von weiteren Planungstools, und die Implementierung von KI-Tools zur Erreichung eines dynamischen Produktionsengineerings in Form einer ganzheitlichen und integrierten Fabrikplanung.
Gamification wird in vielen Bereichen, die auch den Bildungssektor einschließen, zur Motivations- und Leistungssteigerung eingesetzt. Dieser Beitrag beschreibt das Design, die Umsetzung und Evaluierung eines Gamification-Konzeptes für die Vorlesung „Software Engineering" an der Hochschule Offenburg. Gamification soll nach Intention der Lehrenden eine kontinuierliche und tiefergehende Auseinandersetzung mit den Themen der Vorlesung forcieren sowie einen positiven Einfluss auf die Motivation der Studierenden haben, um den Lernprozess zu unterstützen. Zentral für das Gamification-Design sind dabei eine freiwillige Teilnahme, die Wahrnehmung der Bedeutung der Lerninhalte und ein zielorientierter Einsatz von Gamification-Elementen. Das entwickelte Konzept wurde in der Lernplattform Moodle realisiert, über drei Semester eingesetzt und parallel evaluiert. Die Ergebnisse dieser Evaluierungen zeigen, dass die Studierenden den gamifizierten Kurs intensiv und oft über das gesamte Semester nutzten und aus eigenem Antrieb eine Vielzahl von Übungen absolvierten.
Im Eurocode 3 wird im Gegensatz zu DIN 18800 die Bemessung von Verbindungen nicht in der Grundnorm DIN EN 1993‐1‐1, sondern in anderen Normenteilen geregelt. Dieser Beitrag behandelt die Bemessung geschweißter Verbindungen nach DIN EN 1993‐1‐8, die auch Hohlprofile, aber weder dünnwandige Bauteile noch Stähle höherer Festigkeit als S460 einschließt, vergleicht diese Bemessung mit der nach DIN 18800‐1, erläutert sie an Beispielen und hebt die wesentlichen Änderungen hervor. Da diese Änderungen auch die im Vergleich zu DIN 18800 viel stärkere Verknüpfung der in der Tragwerksplanung ansetzbaren Beanspruchbarkeiten mit dem Aufwand der Prüfung und Qualitätsüberwachung bei der Herstellung betreffen, werden abschließend wichtige Regelungen der DIN EN 1090‐2 zur Ausführung und Prüfung von Schweißnähten beschrieben, die auch der Tragwerksplaner kennen muss.
Der Einbau von Smart Metern und deren intelligente Vernetzung in Richtung eines Smart Grid wird Stromverbrauchsmuster bis in die Haushalte hinein verändern. Über die technisch geprägte Diskussion um die Komponenten dafür darf deshalb keinesfalls die Einbeziehung der Gesellschaft in den anstehenden Wandel vergessen werden. Transparenz bei den Kosten, die Förderung von Vertrauen insbesondere in die Datenschutzstandards und eine verständliche Aufklärungsarbeit sind Schlüssel für den notwendigen Dialog zwischen Energieversorgern, Politik und Bürgern.
Die Corona-Semester erforderten die Übertragung der Brückenkurse Mathematik in ein digitales Lehr-format. Gerade beim Studieneinstieg spielen persönliche Unterstützung und soziale Eingebundenheit für Studierende eine besonders wichtige Rolle. Deshalb lag die besondere Herausforderung bei der Übertragung in ein digitales Format darin, die wegfallenden üblichen Kennenlern- und Kommunika-tionsmöglichkeiten, die sich in Präsenzformaten beispielsweise in den Pausen oder im Gespräch mit den Sitznachbarn ergeben, zu kompensieren. Vorliegender Beitrag stellt vor, inwieweit der Transfer in ein digitales Format gelungen ist. Das digitale Brückenkurskonzept wurde in ein didaktisches Entwurfsmuster übertragen, um durch die strukturierte und nachvollziehbare Darstellung den Transfer und die Vergleichbarkeit der Ergebnisse zu erleichtern.
Digitalisierung ist heute allgegenwärtig. Wo im Privaten bereitwillig neue digitale Tools, Apps und Funktionen genutzt werden, tun sich Unternehmen in der Umsetzung von Digitalisierungsprojekten oft schwer. Dieser Beitrag beleuchtet die Motive für Digitalisierungsvorhaben, ihre Hürden sowie die Auswirkung auf die Arbeitsbelastung von Mitarbeitenden und versucht in der Verknüpfung mit den Grundprinzipien des Kontinuierlichen Verbesserungsprozesses, Handlungsempfehlungen für eine erfolgreiche Umsetzung dieser abzuleiten.
Im Rahmen der Cochleaimplantat (CI)-Versorgung werden sowohl intraoperativ als auch postoperativ verschiedene elektrische und elektrophysiologische Diagnostikverfahren eingesetzt, bei denen elektrische Messgrößen vom CI erfasst und elektrophysiologische Messungen bei CI-Patienten durchgeführt werden. Zu den elektrophysiologischen Diagnostikverfahren zählen die Messung der elektrisch evozierten Summenaktionspotenziale des Hörnervs, die Registrierung der elektrisch evozierten auditorischen Hirnstammpotenziale und die Erfassung der elektrisch evozierten auditorischen kortikalen Potenziale. Diese Potenziale widerspiegeln die Erregung des Hörnervs und die Reizverarbeitung in verschiedenen Stationen der aufsteigenden Hörbahn bei intracochleärer elektrischer Stimulation mittels eines CI. Bei den aktuellen CI sind die Beurteilung der Elektrodenlage sowie die Prüfung der Ankopplung des Implantats an den Hörnerv wichtige Anwendungsgebiete der elektrophysiologischen Diagnostikverfahren. Ein weiteres bedeutendes Einsatzfeld stellt die Prüfung der Reizverarbeitung in der Hörbahn dar. Das Hauptanwendungsgebiet dieser Verfahren bildet jedoch die Unterstützung der Anpassung der CI-Sprachprozessoren bei Säuglingen und Kleinkindern auf der Basis elektrophysiologischer Schwellen.
Die Namen Cormack und Hounsfield sind für den Radiologen zu einem wichtigen Synonym für die Computertomographie (CT) geworden. Der mathematische Wegbereiter für die CT, Johann Radon, kommt in der radiologischen Diskussion und den historischen Rückblicken hingegen oft zu Unrecht zu kurz. Die folgende Kurzübersicht möchte daher dem interessierten Leser die wichtigsten historischen Eckdaten zu dem in vielerlei Hinsicht bewegenden Leben und Wirken dieses großen Mathematikers näherbringen.
In der vorliegenden Arbeit wurde die von Wilhelm His Sr. angefertigte und im Jahr 1895 publizierte Fotografie des mutmaßlichen Skeletts von Johann Sebastian Bach auf ihre Abbildungsqualität untersucht. Dies erfolgte durch direkte Messungen an einem digitalen Scan der Fotografie. Dabei wurde der von His der Fotografie beigelegte Lineal-Maßstab in mehrere 10-cm-Stücke unterteilt und die Länge dieser Abschnitte im Digitalisat mit dem Messinstrument von Adobe Acrobat ausgemessen. Darüber hinaus wurden die Längen der Femora ermittelt und mit den Maßen verglichen, die 1895 an den tatsächlichen (realen) Knochen ermittelt wurden. In dem Digitalisat entsprachen 190 cm im Lineal 244,48 mm. Der Mittelwert der 19 bestimmten 10-cm-Abschnitte betrug 100,49 mm (Median 100,49 mm, Standardabweichung 0,49 mm). Die historische Femurlänge links betrug 443,5 mm, rechts 451,0 mm. Die im Digitalisat ermittelte Femurlänge betrug links 443,8 mm, rechts 451,1 mm. Zusätzlich wurden die projizierten Centrum-Collum-Diaphysen-Winkel bestimmt. Die Daten lassen den Schluss zu, dass die Oben/unten-Verzerrung sowie die Rechts/links-Verzerrung nicht nennenswert sind und das von His angefertigte Foto mit einer hohen Genauigkeit der Abbildungsqualität und des Linsenapparats der Kamera angefertigt wurde, die es ermöglicht, bestimmte Skelettanteile aussagekräftig zu beurteilen und auszumessen.
Die Analyse von Engpässen im Güterverkehr ist eine wichtige Voraussetzung, um zukünftige Heraus-forderungen der Infrastrukturplanung und Logistik bewältigen zu können. Im Rahmen des EU-Projekts Code24 sollen Strategien für die Behandlung zukünftiger Herausforderungen im Schienengüterverkehr im wichtigsten europäischen Güterverkehrskorridor Rotterdam-Genua entwickelt werden. Hierfür sind Infor-mationen über Zugzahlen und die Kapazitätsauslastung auf einzelnen Streckenabschnitten eine wichtige Voraussetzung.
Künstliche Intelligenz (KI) durchdringt unser Leben immer stärker. Studierende werden im Alltag und an Hochschulen zunehmend mit KI-Anwendungen konfrontiert. An der Hochschule Offenburg werden deshalb KI-bezogene Lehrangebote curricular verankert, um Studierende im Erwerb von KI-Kompetenz zu unterstützen.
Der Beitrag stellt ein Konzept für die Entwicklung von Lehrveranstaltungen nach der Idee des pädagogischen Makings zur Förderung von KI-Kompetenz in der Hochschullehre vor. Konkretisiert wird das Konzept anhand eines Moduls zum Thema Chatbots, dessen Lehrinhalte interdisziplinär aus verschiedenen Perspektiven ausgearbeitet werden.
Der Beitrag beschreibt wichtige Eckdaten und Ergebnisse der Kraftschlußregelung, die in der Lokomotive 12X auf internationalen Strecken erprobt wurde, und mit der auch zukünftige Projekte ausgestattet werden. Diese werden nicht nur von weiteren technischen Verbesserungen profitieren, sondern auch von geringerem Aufwand für die Inbetriebsetzung.
Lean und ERP - Synergie oder Widerspruch? Ein neuer Ansatz zur Steigerung der Unternehmenseffizienz
(2015)
Eine erfolgreiche Zusammenführung der Vorteile von ERP-Systemen mit den Vorzügen des Lean-Ansatzes kann zur Erschließung eines erheblichen Verbesserungspotenzials und damit zu signifikanten Wettbewerbsvorteilen einer Unternehmung führen. Da dieser Ansatz in der Praxis häufig kritisiert und bisher kaum adäquat verfolgt wird, zielt dieser Beitrag darauf ab, einen innovativen Lösungsweg vorzustellen, welcher nicht nur theoretisch, sondern auch anhand eines ERP-Einführungsprojekts in einem KMU empirisch aufzeigt, dass Lean und ERP nutzbringend miteinander kombiniert werden können und sollten.
Bislang gibt es keine Güterstraßenbahnsysteme, die im urbanen Warentransport im Realbetrieb eingesetzt werden. Bestehende Konzepte sind auf einzelne Branchen, ausgewählte Transportgüter oder einzelne Verlader ausgerichtet. Untersuchungen zu Güterstraßenbahnprojekten konzentrieren sich auf individuelle Kunden (zum Beispiel "CarGo Tram" Dresden). Für die Realisierung einer Güterstraßenbahn im urbanen Raum wäre zu klären, welche Anforderungen potenzielle Nutzer haben und wie diese Anforderungen in ein logistisches Konzept integriert werden können. In einer multiplen Fallstudie werden drei Unternehmen aus verschiedenen Branchen analysiert. Aufgrund heterogener Anforderungen wird ein modulares Logistikkonzept vorgeschlagen. Der Beitrag entstand im Rahmen des Projektes "LogIKTram: Logistikkonzept und IKT-Plattform für stadtbahnbasierten Gütertransport".
The article investigates the development of a manufacturing route for highly porous titanium foams suitable for craniofacial surgery applications, particularly in cranioplasties. The study focuses on the polyurethane replication method for foam production and emphasizes reducing residual gas content, as it significantly affects the mechanical properties and suitability for approval of the foams. Various factors such as starting materials, solvent debinding, heating schedules, and hydrogen atmosphere are analyzed for their impact on residual gas content. It is shown that significant reductions in residual gas content can only be achieved by reworking each step of the process. A combination of initial solvent debinding of the PU template with dimethyl sulphoxide, reduction of suspension additives, use of coarser Gd. 1 powders, and an integrated debinding and sintering process under partial hydrogen atmosphere achieves a significant reduction in residual gas content. This way, the potential for producing titanium foams that comply with relevant standards for craniofacial implants is demonstrated.
Mit zunehmender Datenverfügbarkeit wird der Einsatz Maschinellen Lernens zur Steuerung und Optimierung von Supply Chains attraktiver, da die Qualität der Datenauswertung erhöht und gleichzeitig der Aufwand gesenkt werden kann. Anhand des SCOR-Modells werden exemplarische Ansätze als Orientierungshilfe eingeordnet und dazu passende Verfahren des Maschinellen Lernens vorgestellt.
In dem abgeschlossenen Vorhaben „Entwicklung von Rechenmodellen zur Lebensdauervorhersage von Motorbauteilen unter thermisch-mechanischer Ermüdungsbeanspruchung“ der Forschungsvereinigung Verbrennungskraftmaschinen e. V. (FVV) wurde am Fraunhofer Institut für Werkstoffmechanik IWM in Freiburg ein Materialmodell zur Lebensdauervorhersage thermomechanisch belasteter Komponenten entwickelt. Das Modell basiert auf einem viskoplastischen Verformungsmodell für Eisengusswerkstoffe und einem mechanismenbasierten Modell für Mikrorisswachstum zur Lebensdauervorhersage.
Memento mori!
(2022)
Mit der Messung des Wärme- und Kälteverbrauchs im Labor gelingt es, sowohl thermisch träge als auch agile Flächentemperiersysteme unter praxisnahen, dynamischen Bedingungen messtechnisch zu bewerten. Werden Nutzwärme- und Nutzkältebedarf berechnet und ins Verhältnis zu den gemessenen Verbräuchen gesetzt, können die Aufwandzahlen für die Nutzenübergabe ece für verschiedene Flächentemperiersysteme und in Kombinationen mit anderen Übergabesystemen unter verschiedenen Nutzungsbedingungen und für unterschiedliche Betriebsführungsstrategien bestimmt werden. Damit stehen Aufwandszahlen auf Basis kalorischer Messungen zur Verfügung, die je nach Aufgabenstellung entweder produkt- oder objektbezogen in der Planung komplexer Energiekonzepte verwendet werden können und die tatsächlichen Aufwandszahlen eh, ce für den Heizfall bzw. ec, ce für den Kühlfall genauer als Literaturwerte bzw. projektbezogen beschreiben
Thermisch angetriebene (Adsorptions-)Kältemaschinen können mit einem verhältnismäßig geringen elektrischen Energieaufwand bzw. mit einer hohen elektrischen Leistungszahl Kälte bereitstel-len. Wird die zum Antrieb erforderliche Wärme aus industrieller Abwärme bereitgestellt, ist diese Kältebereitstellung energetisch effizienter als die Kältebereitstellung über eine Kompressionskäl-temaschine. Wird die Wärme jedoch in Kraft-Wärme-Kopplung bereitgestellt, ist die primärenergetische Bewertung sowohl von mehreren Teilwirkungsgraden als auch den Primärenergiefaktoren für den eingesetzten Brennstoff und die erzeugte bzw. bezogene elektrische Energie abhängig. Eine umfangreiche Messkampagne im Sommer 2018 liefert unter realitätsnahen Randbedingungen in einer Labor umgebung detaillierte Energiekennzahlen für einen typischen Tagesgang des Kältebedarfs. Damit gelingt es, Teilenergiekennwerte für die Planungspraxis abzuleiten und das Gesamtsystem energetisch mit einer konventionellen Kompressionskältemaschine zu vergleichen.
In diesem Beitrag werden die Bereitstellungskosten flexibler Systemkomponenten im deutschen Stromsystem analysiert, zu deren Quantifizierung eine einheitliche Methodik entwickelt wird. Dabei ist das Ziel des Beitrags, zeitlich differenzierte Kostenpotenzialkurven für die Jahre 2015 und 2030 zu erarbeiten, anhand derer die energiespezifischen Kosten der markt- und systemdienlichen Flexibilitätsbereitstellung verglichen und die einzelnen Flexibilitätsoptionen in einen Gesamtkontext eingeordnet werden können.
Der Einsatz flexibler Systemkomponenten wird hierzu in die drei Hauptphasen (1) Vorhaltung, (2) Abruf und (3) Einsatzfolgen unterteilt, woraus sich drei kongruente Kostengruppen ableiten lassen, nach denen die einzelnen Kostenbestandteile identifiziert und als Ergebnis die Bereitstellungskosten quantifiziert werden. Neben fossil-thermischen Kraftwerken werden dabei bspw. die Kraft-Wärme-Kopplung, Biogasanlagen, Pumpspeicher- und Laufwasserkraftwerke sowie steuerbare Lasten untersucht.
Zur anschließenden Abbildung der teils negativen Bereitstellungskosten wird die herkömmliche Darstellungsform der Merit Order entlang der Ordinate um die Abbildung negative Werte erweitert und die Abszisse für die Abbildung negativer Flexibilität in umgekehrter Reihenfolge angeordnet. Das Ergebnis sind zwei zusammenhängende Graphen, mittels derer sich die Bereitstellungskosten verschiedener Flexibilitätsoptionen gegenüberstellen und anschaulich vergleichen lassen.
Durch die Festlegung eines Rahmenszenarios zur Entwicklung des deutschen Stromsystems bis zum Jahr 2030 wird anschließend auch die zukünftige Perspektive der Flexibilitätsbereitstellung in Deutschland analysiert. Aus den Ergebnissen lässt sich ableiten, dass der deutsche Kraftwerkspark mit einem fortschreitenden Rückbau der Kohlekraftwerke nur dann zunehmend flexibler wird und auf höhere Schwankungen im Stromnetz reagieren kann, wenn von einem gleichzeitigen Zubau moderner erdgasbetriebener Kraftwerke ausgegangen wird. In diesem Fall steigen die Bereitstellungskosten positiver Flexibilität, was sich beispielsweise durch zukünftig steigende Brennstoffpreise bergründen lässt. Jedoch kann bspw. durch die Transformation der Kraft-Wärme-Kopplung hin zu einer grundsätzlich stromgeführten Fahrweise zukünftig eine vergleichsweise kostengünstige Flexibilitätsbereitstellung erschlossen und somit auch ein gleichbleibendes oder oftmals sogar höheres Flexibilitätsniveau am Markt erreicht werden.
Im Rahmen des Kontinentalen Tiefbohrprogramms der Bundesrepublik Deutschland (KTB) wurde im September 1987 in der Oberpfalz bei Windischeschenbach mit der Vorbohrung begonnen, die im Frühjahr des letzten Jahres bei einer Tiefe von 4000m erfolgreich abgeschlossen wurde. Mit der in diesem Jahr beginnenden Hauptbohrung will man 10 bis 12km tief in das Erdinnere vorstoßen. Nicht nur anhand von Gesteins- und Flüssigkeitsproben, sondern auch mit Hilfe von Meßsonden werden umfangreiche geophysikalische Daten gewonnen. Der Aufsatz beschreibt, wie die magnetische Suszeptibilität von Gesteinen bis ca. 300°C Umgebungstemperatur und einem Druck von 2kbar gemessen wird und die Daten über ein 14km langes Bohrlochkabel von der Sonde zum Steuerrechner übertragen werden.
Zielvereinbarungen sollen SMART formuliert werden, um die Leistungsbereitschaft von Mitarbeitern optimal zu fördern - so wird es zumindest in der praxisorientierten betriebswirtschaftlichen Literatur propagiert. Ob Zielvereinbarungen, die spezifisch, messbar, erreichbar, relevant für das Unternehmen und zeitlich terminiert sind, wirklich eine höhere Leistungsbereitschaft zur Folge haben, wird im Folgenden auf Basis einer empirischen Untersuchung überprüft.
Neurostimulation durch Musik
(2020)
Was ist die Musik und wie wirkt sie sich auf den menschlichen Körper aus? Historisch betrachtet wird die Musik als etwas Göttliches aufgefasst, da sie eine äußerst große Wirkung auf die Emotionen des Menschen besitzt. Dieser Effekt wirkt sich auch psychosomatisch aus und kann das Denken und Handeln des Zuhörers beeinflussen und steuern. So lässt sich beispielsweise das Kaufverhalten allein durch die musikalische Begleitung deutlich manipulieren. Selbst die Motivation lässt sich mit passender Vertonung entweder steigern oder reduzieren. In der heutigen Zivilisation begleitet die Musik den Menschen alltäglich und wird zu vielen verschiedenen Zwecken verwendet. Somit ist die musikalische Stimulation als eine Art Psychotherapie zu werten, die häufig gezielt angewendet wird, aber im Beeinflussten unterbewusst stattfindet. Da natürlich immer noch offene Fragen bezüglich der genauen Wirkung von Musik auf das Gehirn bestehen, werden derzeit im Bereich der Neurowissenschaften viele Studien durchgeführt, um dieses Phänomen nachvollziehen zu können.
In der vorliegenden Arbeit werden fotografische Aufnahmen zweier verschiedener Abgüsse von Paganinis rechter Hand vorgestellt und näher beschrieben. Es handelt sich um einen mutmaßlich originalen Bronzeabguss, der vermutlich kurz nach Paganinis Tod auf dessen Totenbett abgenommen wurde, und eine in heutiger Zeit angefertigte Kopie aus Fiberplastik mit goldfarbenem Anstrich. Die Hand ist im proximalen Handgelenk stark abgewinkelt, was dafür spricht, dass die Hand des Toten auf einem Kissen gelegen haben könnte, um den Abguss vorzunehmen. Überdies zeigt sich eine verkrampfte Stellung der Finger und Hand, am ehesten infolge Totenstarre. Man findet zudem arthrotische Veränderungen sowie hervortretende Sehnen und atrophierte Muskulatur. Beim Bronzeabguss sind die beschriebenen Auffälligkeiten deutlicher zu erkennen. Ein 3D-Scan des Bronzeabgusses der rechten Hand Paganinis mit einem Strukturlichtscanner würde die Möglichkeit eröffnen, Messdaten der Hand zu erhalten.
This paper presents new measurements of a bronze cast from the right hand of the famous Italian violin virtuoso Nicolò Paganini (1782-1840). These are compared to anthropometric standard values. In addition, detailed dorsal and palmar views of the cast are shown. With a middle finger length of 75 mm, the palm width is 60 mm and the hand length 152 mm, which is significantly below the 5% percentile of today's standard values. Also the finger length index (0.55), the ratio of finger length to palm length (0.98) and the ratio of finger length to palm width (1.25) are significantly above normal limits. Hence, Paganini had abnormal hand measurements with a very small palm and relatively "long" fingers. This remarkable constellation, among others, could have been advantageous for his amazing skills as a violinist.
The famous violin virtuoso Nicolò Paganini (born on 27 October 1782 in Genoa, died on 27 May 1840 in Nice) left us with many puzzles. An interesting aspect is his hair: In the 19th century, hair given away as a token of friendship or romantic love became very popular, and Paganini also seems to have made use of this fad. In 2009, a lock of hair, purportedly that of Paganini, kept in a locked presentation box together with a bilingual autograph inscription saying: "Alla Signora Chatterton avec les compliments de Nicolò Paganini" was bought at an auction. From this hair lock a sample was taken and was investigated morphologically by using digital light microscopy (digital microscope VHX-100, Keyence) in reflected and transmitted light with and without polarization at different magnifications up to 1:5,000. The sample was then compared with a hair sample from the possession of the Paganini family, which had been microscopically examined in 2012 by the co-author of this paper yielding numerous figures with measurement results that had been stored and could be retrieved for direct comparison. The hair sample consisted of ten strands of hair or hair fragments and was investigated with great effort for the following parameters: exogenous hair damage, especially feeding traces caused by parasites, modeling and angulation of hairs, hair thickness, medulla and pigmentation, curling and mercury load on the trace material. After evaluation of all findings not only a non-exclusion of identity can be determined, but due to the broad match of also rare findings there is no reasonable doubt about their identity. In addition, the findings suggest that the studied hair samples are in fact from Paganini's head. The present case of Nicolò Paganini's hair lock is also an excellent starting point for reflections on the probative value of trace hair investigations. This point is also critically discussed in the paper. Finally, this study shows that said lock of hair had probably really been dedicated and given to Eliza Davenport Latham (born on 25 November 1806, died on 9 January 1877), the future wife of the, at that time, best-known and most famous English harpist John Balsir Chatterton (born on 25 November 1804, died on 9 April 1871). Paganini must have met her on his concert tour 1831/32, where he had travelled to Paris, London, the rest of England, Scotland and Ireland.
Der prozentuale Energieaufwand für die Warmwasserbereitung ist umso höher, je geringer der Bedarf an Raumwärme – erreicht durch besser gedämmte Gebäudehüllen – ist. Gleichzeitig kann dieser Aufwand für Warmwasser aufgrund der normativ geforderten Systemtemperaturen von 60/55 °C bei zentraler Warmwasserbereitung über Wärmepumpen nur vergleichsweise energieaufwendig abgedeckt werden. Eine Studie des Fraunhofer ISE zeigt, wie groß dieser Temperatur-Effekt im Vergleich unterschiedlicher Trinkwasser-Erwärmungssysteme ist.
Mit längerfristigen Nutzerbefragungen in zwei unmittelbar benachbarten Bürogebäuden in Freiburg wurden das Temperaturempfinden der Nutzer und deren Zufriedenheit mit dem thermischen Raumkomfort zweimal täglich erfasst. Ein Bürogebäude wird im Sommer mit einem maschinellen Nachtlüftungskonzept konditioniert und das zweite verfügt über eine Betonkerntemperierung und eine Zu‐ und Abluftanlage. Auf Basis der vorhandenen Daten aus der Erhebung wurde mit Hilfe von Regressionsanalysen ein Modell zur Vorhersage der Komforttemperatur berechnet und mit den Modellen in DIN EN 15251 verglichen.
Die Optimierung der Auftragsterminierung und Einsteuerungsreihenfolge hat großen Einfluss auf die Produktivität von Fertigungssystemen. Genetische Algorithmen und Simulation sind verbreitete Werkzeuge zur Optimierung. Dieser Beitrag beschreibt einen neuen Ansatz zur Optimierung durch einen genetischen Algorithmus und der Simulation in dynamischen Modellen. Eine illustrative Fallstudie validiert den Ansatz und zeigt das Potenzial zur ganzheitlichen Verbesserung von Fertigungssystemen auf.
Ozon-Querempfindlichkeit bei der Immissionsmessung von schwebstaubakkumuliertem Benzo[a]pyren
(2002)
Für die Beschreibung der Belastung der Luft mit polycyclischen aromatischen Kohlenwasserstoffen (PAK) wird vorwiegend die Konzentration eines Vertreters, das auf Schwebstaub akkumulierte Benzo[a]pyren (BaP), analysiert. Hierbei stellt Benzo[a]pyren die Leit komponen te für die Stoffklasse der PAK dar. Auf europäischer Ebene ist vorgesehen, für diesen Luftinhaltsstoff einen Grenzwert als Jahresmittelwert festzulegen. Deshalb wird bei bei der Normungsbehörde CEN zurzeit eine Europäische Norm für diesen Stoff erarbeitet. Aus der Literatur ist bekannt, dass für Benzo[a]pyren eine Querempfindlichkeit gegen Ozon und NO2 besteht. Im Zuge der Neuentwicklung eines Probenahmekopfs (PNK) für PAK-Immissionsmessungen, der durch den Einsatz eines Ozon- Scrubbers eine ozonfreie Immissionsmessung der Benzo[a]pyren-Konzentration ermög licht, wurde in dieser Arbeit die prinzipielle Einsetzbarkeit dieses Probe nahmekopfs geprüft. Zu diesem Zweck wurden Voruntersuchungen und Feldversuche durchgeführt, mit dem Ziel, Kenntnisse über die Ozon-Querempfindlichkeit zu erhalten. Um die Ozon-Querempfindlichkeit bei der Benzo[a]pyren-Bestimmung zu studieren, wurde Ozon in den Ansaugbereich der Probenahme dosiert. Als Ergebnis der Untersuchungen kann festgehalten werden, dass für die Benzo[a]pyren-Immissionsmessung eine deutliche Ozon-Querempfindlichkeit besteht, die unter Einsatz des neuen Ozon- Scrubbers vermieden werden kann.
Der Endkundenvertrieb ist für die Bewahrung und Weiterentwicklung des Kundenstamms eines Energieversorgers essenziell. Doch um knappe Mittel im Vertrieb möglichst wirkungsvoll einsetzen zu können, wird Wissen darüber benötigt, wie sich die durchschnittlich erzielbaren Strompreise und die zu erwartende Kundenbindungsdauer zwischen verschiedenen Vertriebskanälen unterscheiden. Leitet man anhand dieser Informationen den Wert eines Kunden je Vertriebskanal ab, lässt sich treffsicherer über einzusetzende Marketing-Budgets entscheiden.
In den letzten Jahren sind verstärkt große Batteriespeichersysteme in der Mittel- und Hochspannungsebene in Deutschland installiert worden. Neben dem Einsatz für lokale Anwendungszwecke wie Eigenverbrauchsmaximierung oder Lastspitzenkappung sind seit 2016 etwa 250 MW aus Batteriespeichern für die Teilnahme am Markt für Primärregelleistung (PRL) präqualifiziert worden. Damit können bereits 40 % des aktuellen Bedarfs der deutschen Übertragungsnetzbetreiber (ÜNB) gedeckt werden. Für einen zuverlässigen Betrieb von Batteriespeichern sind intelligente Betriebsstrategien erforderlich, die im Rahmen dieser Analyse vorgestellt werden.