Refine
Year of publication
Document Type
- Conference Proceeding (286)
- Article (reviewed) (285)
- Article (unreviewed) (97)
- Part of a Book (77)
- Contribution to a Periodical (74)
- Report (44)
- Patent (38)
- Book (34)
- Doctoral Thesis (5)
- Working Paper (2)
Conference Type
- Konferenzartikel (205)
- Konferenz-Abstract (47)
- Konferenz-Poster (16)
- Sonstiges (14)
- Konferenzband (7)
Language
- English (562)
- German (382)
- Other language (1)
Is part of the Bibliography
- yes (945) (remove)
Keywords
- Dünnschichtchromatographie (28)
- Energieversorgung (14)
- Plastizität (13)
- Adsorption (11)
- Finite-Elemente-Methode (11)
- TRIZ (11)
- Materialermüdung (10)
- injury (10)
- Ermüdung (9)
- Geothermie (9)
Institute
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (945) (remove)
Open Access
- Open Access (400)
- Closed Access (269)
- Closed (138)
- Bronze (88)
- Gold (34)
- Hybrid (32)
- Diamond (25)
- Grün (5)
Lithium-ion battery cells exhibit a complex and nonlinear coupling of thermal, electrochemical,and mechanical behavior. In order to increase insight into these processes, we report the development of a pseudo-three-dimensional (P3D) thermo-electro-mechanical model of a commercial lithium-ion pouch cell with graphite negative electrode and lithium nickel cobalt aluminum oxide/lithium cobalt oxide blend positive electrode. Nonlinear molar volumes of the active materials as function of lithium stoichiometry are taken from literature and implemented into the open-source software Cantera for convenient coupling to battery simulation codes. The model is parameterized and validated using electrical, thermal and thickness measurements over a wide range of C-rates from 0.05 C to 10 C. The combined experimental and simulated analyses show that thickness change during cycling is dominated by intercalation-induced swelling of graphite, while swelling of the two blend components partially cancel each other. At C-rates above 2 C, electrochemistry-induced temperature increase significantly contributes to cell swelling due to thermal expansion. The thickness changes are nonlinearly distributed over the thickness of the electrode pair due to gradients in the local lithiation, which may accelerate local degradation. Remaining discrepancies between simulation and experiment at high C-rates might be attributed to lithium plating, which is not considered in the model at present.
In 4D printing an additively manufactured component is given the ability to change its shape or function under the influence of an external stimulus. To achieve this, special smart materials are used that are able to react to external stimuli in a specific way. So far, a number of different stimuli have already been investigated and initial applications have been impressively demonstrated, such as self-folding bodies and simple grippers. However, a methodical specification for the selection of the stimuli and their implementation was not yet in the foreground of the development.
The focus of this work is therefore to develop a methodical approach with which the technology of 4DP can be used in a solution- and application-oriented manner. The developed approach is based on the conventional design methodology for product development to solve given problems in a structured way. This method is extended by specific approaches under consideration of the 4D printing and smart materials.
To illustrate the developed method, it is implemented in practice using a problem definition in the form of an application example. In this example, which represents the recovery of an object from a difficult-to-access environment, the individual functions of positioning, gripping and extraction are implemented using 4D printing. The material extrusion process is used for additive manufacturing of all components of the example. Finally, the functions are successfully tested. The developed approach offers an innovative and methodical approach to systematically solve technical complex problems using 4DP and smart materials.
4D printing (4DP) is an evolutionary step of 3D printing, which includes the fourth dimension, in this case the time. In different time steps the printed structure shows different shapes, influenced by external stimuli like light, temperature, pH value, electric or magnetic field. The advantage of 4DP is the solution of technical problems without the need for complex internal energy supply via cables or pipes. Previous approaches to 4D printing with magnetoresponsive materials only use materials with limited usability (e.g. hydrogels) and complex programming during the manufacturing process (e.g. using magnets on the nozzle). The 4D printing using unmagnetized particles and the later magnetization allows the use of a standard 3D printer and has the advantage of being easily reproducible and relatively inexpensive for further application. Therefore, a magnetoresponsive feedstock filament is produced which shows elastic and magnetic properties. In a first step, pellets are produced by compounding polymer with magnetic particles. In a second step, those pellets are extruded in form of filament. This filament is printed using a conventional printing system for Material Extrusion (MEX-TRB/P). Various prototypes have been printed, deformed and magnetized, which is called programming. In comparison to shape memory polymers (SMP) the repeatability of the movement is better. The results show the possibilities of application and function of magnetoresponsive materials. In addition, an understanding of the behaviour of this novel material is achieved.
A balcony photovoltaic (PV) system, also known as a micro-PV system, is a small PV system consisting of one or two solar modules with an output of 100–600 Wp and a corresponding inverter that uses standard plugs to feed the renewable energy into the house grid. In the present study we demonstrate the integration of a commercial lithium-ion battery into a commercial micro-PV system. We firstly show simulations over one year with one second time resolution which we use to assess the influence of battery and PV size on self-consumption, self-sufficiency and the annual cost savings. We then develop and operate experimental setups using two different architectures for integrating the battery into the micro-PV system. In the passive hybrid architecture, the battery is in parallel electrical connection to the PV module. In the active hybrid architecture, an additional DC-DC converter is used. Both architectures include measures to avoid maximum power point tracking of the battery by the module inverter. Resulting PV/battery/inverter systems with 300 Wp PV and 555 Wh battery were tested in continuous operation over three days under real solar irradiance conditions. Both architectures were able to maintain stable operation and demonstrate the shift of PV energy from the day into the night. System efficiencies were observed comparable to a reference system without battery. This study therefore demonstrates the feasibility of both active and passive coupling architectures.
The title expresses goals the Kansas Geological Survey (KGS) has been working toward for some time. This report extends concepts and objectives developed while working on an earlier effort for effective interactive digital maps on the Internet. That work was reported to the 1998 DMT Workshop in Champaign, Illinois (Ross, 1998). The current project goes beyond previous efforts that focused on methods for serving the contents of a geographic information system (GIS); the points, lines, and polygons representing features of the digital geologic map and the data in the attribute tables of the GIS describing those features.
Electrochemical pressure impedance spectroscopy (EPIS) is an emerging tool for the diagnosis of polymer electrolyte membrane fuel cells (PEMFC). It is based on analyzing the frequency response of the cell voltage with respect to an excitation of the gas-phase pressure. Several experimental studies in the past decade have shown the complexity of EPIS signals, and so far there is no agreement on the interpretation of EPIS features. The present study contributes to shed light into the physicochemical origin of EPIS features, by using a combination of pseudo-two-dimensional modeling and analytical interpretation. Using static simulations, the contributions of cathode equilibrium potential, cathode overpotential, and membrane resistance on the quasi-static EPIS response are quantified. Using model reduction, the EPIS responses of individual dynamic processes are predicted and compared to the response of the full model. We show that the EPIS signal of the PEMFC studied here is dominated by the humidifier. The signal is further analyzed by using transfer functions between various internal cell states and the outlet pressure excitation. We show that the EPIS response of the humidifier is caused by an oscillating oxygen molar fraction due to an oscillating mass flow rate.
Die Bestimmung von Emissionen aus Abgaskaminen mit grossen Querschnitten ist ein Problem, da dort Inhomogenitaeten sowohl der Konzentration als auch der linearen Abgasgeschwindigkeit vorliegen. Die VDI 2066, Bl. 1, schreibt vor, welche Punkte zu waehlen sind, und wenn man dann noch isokinetisch die Abgasproben entnimmt, sollte man zum richtigen Ergebnis kommen. Anm. d.Ref.: Die Hessische Landesanstalt fuer Umwelt ist da schon frueher auf recht komplizierte Loesungen gekommen. Und diese Linie wird in der vorliegenden Arbeit konsequent eingehalten. - Es mag sein, dass der angekuendigte Ergebnisbericht mehr Licht in die Angelegenheit bringt. Aus den hier gemachten Angaben kann man eigentlich nur entnehmen, dass bisher alles falsch gemacht worden ist. (H. -D. Papendick).
Die Folgen ungenügender Entlüftung wurden durch Umfragen bei Konstrukteuren und Werkzeugmachern aus sechs Betrieben ermittelt und sind für Formteil, Werkzeug, Spritzgießprozeß ebenso tabellarisch wie die Gestaltungsmöglichkeiten von Entlüftungen (in der Trennebene und Kavität) dargestellt. Im Rahmen einer Diplomarbeit wurden mit Hilfe eines speziellen Versuchswerkzeuges die Auswirkungen der Entlüftung auf den Spritzgießablauf, das Formteil und das Verhalten bei teilevakuierter Kavität (der Einfluß des Evakuierungsgrades auf die gemittelte Füllhöhe wird anhand einer Kurve erläutert) untersucht. Die Konstanz der Werkzeuginnendrücke, die Berechenbarkeit der Druckabfälle (Tabelle mit Druckabfällen in Abhängigkeit der Entlüftungsspaltgeometrie), die Entlüftungselemente (bewegliche haben den Vorzug der Selbstreinigung) und das Einspritzen unter teilevakuierter Kavität werden beschrieben. Der Einfluß der Werkzeugentlüftung umfaßt die Spalttiefe des Entlüftungskanals, die Größe des Expansionsraumes und den Anschluß an die Dichtkante des Expansionsraumes.
Die Auswirkungen der Entlüftung auf den Spritzgießablauf, das Formteil sowie das Verhalten bei teilevakuierter Kavität wurden im Rahmen einer Diplomarbeit untersucht. Die negativen Folgen für Formteil, Werkzeug und Spritzgießablauf, die aus einer ungenügenden Werkzeugentlüftung resultieren, werden aufgezeigt. Die grundsätzlichen Gestaltungsmöglichkeiten von Werkzeugentlüftungen sind zusammengestellt. In Versuchsreihen wurde das Entlüftungsverhalten bei teilevakuierter Kavität bei konstantem Einspritzdruck untersucht sowie der Einfluß der Werkzeugentlüftung bei unterschiedlichen Spalttiefen des Entlüftungskanals ermittelt. Die wichtigsten Resultate und konstruktiven Auslegungskriterien bezüglich der Entlüftungselemente, des Einspritzens unter teilevakuierter Kavität und des Einflusses der Werkzeugentlüftung, welche aus den Untersuchungen im Rahmen der Diplomarbeit hervorgehen, sind zusammengefaßt.
Asynchronmaschinen mit Kaefiglaeufer benoetigen waehrend ihres Hochlaufs das 3- bis 8fache des Bemessungsstroms. Dieser hohe Anlaufstrom geht erst zurueck, wenn der Kippschlupf erreicht ist (bei etwa 90% der Bemessungsdrehzahl). Wenn die Kurzschlussleistung des einspeisenden Netzes zum Zeitpunkt der Motorzuschaltung gering ist, koennen durch Spannungseinbrueche Anlaufprobleme einer Kaefiglaeufermaschine auftreten. Bei der Planung eines solchen Antriebs muessen deshalb genauere Simulationsrechnungen ueber die Zusammenhaenge von Hochlaufzeit, Spannungseinbruch und zulaessigen Grenzwerten durchgefuehrt werden. Ergebnisse derartiger Anlaufsimulationen eines 800-kW- und eines 1,13-MW-Hochspannungsmotors bei Anschaltung an einen 10-MVA- und einen 2-MVA-Generator wurden fuer verschiedene Zuschaltungssituationen in Oszillogrammen festgehalten. Durch genauere mathematische Angaben verdeutlicht werden die Faelle des Motorhochlaufs bei Inselbetrieb mit geringer Kurzschlussleistung sowie die Zuschaltung der Asynchronmotoren auf den Generator vor und nach Anhebung der Netzspannung behandelt. Angaben werden ferner gemacht zur Zuschaltung des 1,13-MW-Motors auf die Parallelschaltung des 10-MVA- und des 2-MVA-Generators. Aus den Simulationsoszillogrammen der Faelle von Hochlauf und Motorzuschaltung sind die zeitabhaengigen Aenderungen von Ankerstrom, Wirkleistungsaufnahme, Blindleistungsaufnahme, Klemmenspannung, Drehzahlabweichung, Antriebsmoment und Lastdrehmoment zu entnehmen.
Das zweibändige Werk richtet sich an Studierende der Fachrichtungen Elektrotechnik, Maschinenbau, Mathematik und Physik an Fachhochschulen und Universitäten, die sich im Fach Mathematik auf Klausuren oder das Vordiplom vorbereiten wollen.
Im Unterschied zu anderen Mathematik-Lehrbüchern, die die Theorie ausführlich diskutieren, wird hier zu Beginn eines jeden Kapitels die Theorie knapp zusammengefaßt. Der Schwerpunkt liegt auf Aufgaben mit Prüfungsniveau und deren ausführlichen Lösungen. Zu Anfang der Kapitel werden grundlegende Definitionen und Sätze wiederholt und anhand einiger Beispiele erläutert. Anschließend folgen Aufgaben mit Musterlösungen. Wo es immer möglich ist, werden auch alternative Lösungsmöglichkeiten diskutiert.
Band 2 umfaßt die Themen:
- Funktionen mehrerer Veränderlicher
- Integralrechnung
- Gewöhnliche Differentialgleichungen
- Differentialgeometrie
- Die Laplace-Transformation
- Fourierreihe und Fouriertransformation
- Vektoranalysis.
Beide Bände zusammen bilden die ideale Grundlage zur Vorbereitung und zum Bestehen von Mathematik-Prüfungen im Studium.
Lange Erfahrungen der Autoren im Lehrfach Mathematik haben die Notwendigkeit gezeigt, den Studierenden eine praktische Möglichkeit der Prüfungsvorbereitung zu bieten. Die Betroffenen können sich durch die Beschäftigung mit qualifizierten mathematischen Aufgaben auf Klausuren und Prüfungen vorbereiten.
Im Unterschied zu Lehrbüchern, die mit theoretischen Grundlagen ausführlich diskutieren, werden diese in dem vorliegenden Werk zu Beginn eines jeden Kapitels kurz zusammengefaßt. Das Schwergewicht liegt hier auf den Aufgaben mit Prüfungsniveau und deren Lösungswegen, die ausführlich beschrieben werden. Grundlegende Definitionen und Sätze werden kurz wiederholt und anhand einiger Beispiele erläutert. Es folgen Aufgaben mit Musterlösungen. Wo es möglich ist, werden auch alternative Lösungswege diskutiert. So ist dieses Werk eine ideale Ergänzung zu mehr theoretisch ausgerichteten Lehrbüchern.
Grundkurs Regelungstechnik
(2013)
Das Lehr- und Übungsbuch enthält in komprimierter Form neben einer kurzen Einführung in die Grundlagen eines Regelkreises bzw. der komplexen Zahlen und Laplace-Transformation, lineare kontinuierliche Systeme im Zeit- und Frequenzbereich. Weitere Themen sind die Entwürfe einer Regelung im Zeit- bzw. Frequenzbereich und Regelung ökonomischer Systeme, die zeigen, dass Geschäftsvorgänge in Unternehmen auch regelungstechnisch beschrieben und gedeutet werden können. Jeweils am Ende eines Kapitels werden erläuternde Beispiele und Übungsaufgaben mit Ergebnissen vorgestellt.
Grundkurs Regelungstechnik
(2009)
Komprimierte, mathematisch ausgerichtete Einführung in Grundlagen der Regelungstechnik für Studierende der Ingenieurwissenschaften an Fachhochschulen und Universitäten. Neuausgabe von "Kompaktkurs Regelungstechnik" (ID 17/02), die um ca. 50 Seiten erweitert (Abschnitt über betriebliche Systeme) und durchgehend aktualisiert wurde. Ist jetzt auf Bachelorstudiengänge ausgerichtet und enthält zahlreiche Übungsaufgaben und durchgerechnete Beispiele. Die alte Ausgabe sollte ersetzt werden.
Kompaktkurs Regelungstechnik
(2001)
Der vorliegende "Kompaktkurs Regelungstechnik" wendet sich an Studierende der Fachrichtungen Maschinenbau, Elektrotechnik und der allgemeinen Ingenieurwissenschaften von Berufsakademien, Fachhochschulen und Technischen Universitäten sowie an die in der Praxis stehenden Ingenieure, die ihre regelungstechnischen Kenntnisse auffrischen, vertiefen oder erweitern wollen. Das Buch entstand aus Erfahrungen des Autors in Vorlesungen und Praktika mit Studierenden des Maschinenbaues und der Elektrotechnik an der Fachhochschule Offenburg und an der Berufsakademie Karlsruhe. Deshalb wurde auch dem eigentlichen Thema die beiden mathematischen Kapitel "Einführung in die komplexe Zahlen und Funktionen" und "Einführung in die LAPLACE Transformation" vorangestellt, weil das hier vorgestellte und besprochene Formelwerk ein wichtiges und unerläßliches Werkzeug bei der Beschreibung und Lösung regelungstechnischer Aufgaben darstellt. Die Stoff auswahl stellt einen Auszug aus der Fülle von Methoden und Verfahren dar, die heute zu den Grundlagen der Regelungstechnik zählen.
Bei thermischen Konvektionsströmungen ist der Einfluß von Geometrie und Randbedingungen für die Strömungsform und den konvektiven Wärmetransport von wesentlicher Bedeutung. Mit Hilfe der optischen Strömungsmeßtechnik (Differentialinterferometrie) wurde die freie Konvektion in einem quaderförmigen Behälter mit seitlicher Beheizung untersucht. Der Aufbau und die Experimente werden beschrieben. Die quantitative Auswertung von Dichte- und Temperaturfeldern aus den Differentialinterferogrammen wird aufgezeigt und der Einfluß unterschiedlicher Randbedingungen wie feste und freie Oberfläche auf die Strömungsform und den Wärmetransport dargelegt. Die eingesetzte Differentialinterferometrie zeigt aufgrund ihrer Anpassungsfähigkeit an die jeweiligen Versuchsbedingungen und durch den einfachen Aufbau spezifische Vorteile gegenüber dem Mach-Zehnder Interferometer.
Beim Betrieb von Maschinen mit großen Trägheitsmomenten treten bei Asynchronmaschinen mit Käfigläufer als Antriebsmotor teilweise Probleme beim Hochlauf des Aggregats auf. Es werden Maßnahmen zur Verbesserung des Anlaufs erläutert sowie mit Hilfe von Näherungsrechnungen und Simulationen untersucht. Aus den Simulationsergebnissen lassen sich Voraussagen über das Gelingen des Hochlaufs und die Tauglichkeit verschiedener Hilfsmaßnahmen ableiten.
Es wird ein zeitoptimiertes Scanning-Verfahren zur Leckortung an Reinraum-Filterdecken auf der Basis der Richtlinie VDI 2083 Bl. 3 vorgestellt. Aufgabe des Verfahrens ist, die Positionen in der Meßebene liegender Flächen mit dem Querschnitt der isokinetischen Sondenöffnung zu bestimmen. Dabei wird eine vorab zu bestimmende Wahrscheinlichkeit zugrundegelegt, bei der die mittlere auftretende Konzentration von Partikeln höher ist, als die nach VDI 2083 Bl.3 zulässige. Die Verhältnisse beim Sondendurchgang über einem Kontaminationsbereich werden unter Beachtung aller Randbedingungen berechnet, wobei der sich für die Leckerkennung ungünstigste Fall, der bei einer homogenen Verteilung der durch das Leck austretenden Partikel auf der nachzuweisenden Fläche liegt, angenommen wird. Der Sondendurchgang wird als Bewegungsablauf definiert, zeitlich bestimmt vom Eintritt der Sondenvorderkante in die Kontaminationsfläche bis zum Verlassen derselben mit der Sondenhinterkante. Als Ergebnis der Berechnungen werden Vorschubgeschwindigkeit der Sonde beim Scanverfahren, Flächenleistung des Scanverfahrens, Sondendurchgangszeit und Leckerkennungskriterium, ausgewiesen. (Otto)
Bei einem neuen Kühldeckensystem wird die Luft im Deckenhohlraum oberhalb der abgehängten Decke durch Konvektoren gekühlt, wobei die Wärmeübertragung ausschließlich durch freie Konvektion und Strahlung erfolgt. Die abgehängte Decke nimmt durch Strahlung und freie Konvektion Wärme aus dem darunterliegenden Büroraum auf und gibt sie über freie Konvektion an die Luft im Deckenhohlraum sowie durch Strahlung an die Begrenzungsflächen des Deckenhohlraumes ab. Die vom Kühlwasser durchströmten Rippenrohre nehmen ihrerseits Wärme aus der Luft im Hohlraum auf, die infolge der freien Konvektion durch die Rippenrohre strömt. Zur Aufnahme des bei starker Belastung und Dauerbetrieb anfallenden Kondensats ist unterhalb des Konvektors eine Kondensatauffangwanne angebracht. Mit dem von Rutsch erstellten Rechenprogramm ist es möglich, für verschiedenste Randbedingungen die Rippenrohre auf maximale Kühlleistung zu optimieren. Voraussetzung für die direkte Anwendung dieses Berechnungsverfahrens sind jedoch ungestörte An- und Abströmbedingungen der Luft am Konvektor. Neben der Optimierung der Rippenrohre auf Kühlleistung ist für den Aufbau der eigentlichen Decke die Luftströmung im Deckenhohlraum und die Austrittstemperatur aus den Konvektoren von entscheidender Bedeutung. Die maximale Kühlleistung der Rippenrohre kann nur erreicht werden, wenn alle Einzelrippenrohre nahezu gleichmäßig durchströmt werden und günstige Abströmverhältnisse vorhanden sind. Die Strömungsverhältnisse im Deckenhohlraum und innerhalb der Konvektoren wurden durch Rauch sichtbar gemacht und auf Video aufgezeichnet. Entscheidenden Einfluß auf die Temperaturverteilung an der Kühldecke haben die Breite des Konvektors, die Konstruktion der Kondensatauffangwanne, der Abstand der Konvektoren voneinander und der Konvektortyp. Direkt unterhalb der Kondensatauffangwanne beträgt die Temperaturdifferenz ca. 3 K. Der Temperaturgradient im Abströmbereich liegt bei ca. 0,2 bis 0,3 K/m.
Turbulenzarme Verdrängungsströmungen (TAV), häufig auch als Laminarflow (LF) bezeichnet, werden in hochreinen Reinraumbereichen eingesetzt, um die Versorgung des kritischen Bereiches (offenes Produkt) mit schwebstoffgefilterter bzw. partikelfreier Luft zu gewährleisten. Die TAV kann durch Störgrößen, wie Thermikströme, Personeneingriffe, Strömungshindernisse, Materialtransport usw. gestört werden, womit eine unerwünschte Kontamination des kritischen Bereiches einhergehen kann.
Durch den Einsatz von Torschleieranlagen zwischen zwei Zonen mit unterschiedlichen Temperaturen kann der Luftaustausch aufgrund freier Konvektion verhindert werden. Der Einfluß unterschiedlicher Betriebsfälle auf den Energieverbrauch und die thermische Behaglichkeit wurde im Labor untersucht. Die Effizienz von Torschleieranlagen wurde zusätzlich im Praxisbetrieb beim Einsatz an einer Kühlzelle überprüft. Bei diesem Anwendungsfall steht nicht die thermische Behaglichkeit sondern der Energieverbrauch, die Gefahr der Kühlguterwärmung und die der Eisbildung vor dem Kühlzelleneingang im Vordergrund.
Massiv- Heiz-/Kühldecken bestehen im wesentlichen aus in der tragenden Deckenkonstruktion eingegossenen Kunststoffrohren, die je nach Jahreszeit von Heiz- bzw. Kühlwasser durchströmt verden. Das instationäre Verhalten wurde mit dem Anlagen und Simulationsprogramm TRNSYS untersucht. Anhand ausgesuchter Ergebnisse können die Anforderungen an die notwendigen Regelkonzepte abgeleitet werden. Es eignen sich für derartige Systeme, insbesondere wegen ihrer großen Speicherfähigkeit und damit Trägheit, modifizierende selbstadaptierende Regler. Aufgrund der großen Trägheit der Massivdecke ist eine direkte außentemperaturgeführte Vorlauftemperaturregelung des Wasserstromes nicht sinnvoll. Es sollte ein selbstadaptierendes Regelsystem verwendet werden, das anhand der vorangegangenen Lastverläufe die Gebäudekonstante und damit das Speicherverhalten der Räume ermittelt. Damit der Regelaufwand reduziert werden kann, sollen mehrere Räume als Gruppe zusammengefaßt werden. Als weitere Größe für das Regelkonzept ist die Speichertemperatur am Ende der Ladezeit zu messen und in das Programm mit einzubinden.
Vortex breakdown phenomena in rotating fluids are investigated both theoretically and experimentally. The fluid is contained in a cone between two spherical surfaces. The primary swirling motion is induced ba the rotating lower boundary. The upper surface can be fixed with non-slip condition or can be a stress-free surface. Depending on these boundary conditions and on the Reynolds number, novel structures of recirculation zones are realized. The axisymmetric flow patterns are simulated numerically by a finite difference method. Experiments are done to visualize the topological structure of the flow pattern and to observe the existence ranges of the different recirculating flows. The comparison between theory and experiment shows good agreement with respect to the topological structure of the flow.
Die quantitative Dünnschichtchromatographie (HPTLC) mit einem Graustufen-Handscanner ist eine preiswerte, schnelle und präzise Methode zur Schwermetallbestimmung. Als Alternative zu teuren Densitometern wird ein Grünlichtscanner mit einer Auflösung von 256 Graustufen benutzt. Die Ortsauflösung beträgt maximal 400 dpi (dots per inch). Die Chromatogramme werden mit 300 dpi aufgenommen. Zur Entwicklung wird eine Camag-Linearkammer verwendet. Zur Probenvorbereitung werden die zu bestimmenden Schwermetallionen bei pH 4,2 mit Dithizon komplexiert. Nur die Metallkationen Zn(2+), Co(2+), Hg(2+), Cd(2+) und Ni(2+) reagieren zu einem farbigen Metallkomplex, wobei sich Zn(2+)- und Co(2+)-Komplexe chromatographisch abtrennen lassen. Nach Komplexierung der Wasserprobe wird mit Essigsäureethylester ausgeschüttelt, Probe- und Standardlösung auf eine Platte aus Kieselgel SI-60 aufgetragen, mit Essigsäureethylester fokussiert und nach der Trocknung der Platte mit Toluol entwickelt. Die HPTLC-Platte wird mit scannereigener Software eingelesen und im PCX-Format (PC PaintBrusch der Fa. ZSoft) auf die Festplatte abgelegt. Zur Auswertung wird eine Leseroutine benutzt. Die ganze Chromatographiebahn ist mit 150 Einzeldioden aufgenommen, die eine Strecke von 48 mm in 564 Einzelmessungen auflösen. Die Summe aller 150 Einzelaufnahmen liefert das Densitogramm aus dem der Schwermetallgehalt bestimmt wird.
Die Untersuchungen wurden im Raumlufttechnischen Labor der Fachhochschule Offenburg zur Beurteilung der Effizienz der Schadstoffabfuhr unter Einhaltung der thermischen Behaglichkeit beim Einsatz verschiedener Luftführungssysteme- Quellauslaß, Deckendrallauslaß und Fußbodenauslaß- in Verbindung mit einer Kühldecke durchgeführt. Die Ergebnisse zeigen, daß keine signifikanten Vorteile für ein bestimmtes RLT-Konzept bestehen. Je nach Wahl der Randbedingungen der Untersuchungen liegen die erreichbaren Kühlleistungen innerhalb einer Systemkombination weiter auseinander als im Verhältnis zu den Vergleichssystemen. Insgesamt ist hinsichtlich der von beiden Systemen zusammen abgebbaren, maximalen Kühlleistung die Kombination Kühldecke mit Deckendralluftauslaß vorteilhaft.
Eine einfache Bestimmung von Mineraloel-KWstoffen - Ersatz des FCKW-haltigen Extraktionsmittels
(1996)
Die Messung von KWstoffen in Abwaessern nach DIN ist eine in der Umweltanalytik haeufig geforderte Bestimmung. Die Abwasserprobe wird dabei mit 1,1,2-Trichlortrifluorethan extrahiert. Anschliessend wird der Extrakt mittels IR-Spektroskopie vermessen. Neben einigen Schwaechen ist bei dieser Bestimmungsmethode besonders die Verwendung des ozonschaedigenden FCKW-Loesemittels heute nicht mehr zeitgemaess. - Die Verf. beschreiben ein schnelles robustes Bestimmungsverfahren, das alle Schwaechen der alten Methode vermeidet.
Durch den verstärkten Einsatz von EDV-Geräten an den Arbeitsplätzen in Büroräumen stiegen die flächenbezogenen inneren Kühllasten deutlich an. Für die Arbeitsplätze in Fensternähe müssen EDV-gerechte Lichtverhältnisse vorhanden sein. Es werden Versuchsergebnisse eines neu entwickelten Kühlkonvektors im Fensterbereich im Zusammenhang mit Innenjalousien vorgestellt. Dieser Kühlkonvektor eignet sich auch für den kombinierten Einsatz mit Kühldecken und raumlufttechnischen (RLT)-Anlagen, wie weitere Versuche bestätigen. Der Kühlkonvektor kann auch beim Ersatz von Induktionsgeräten angewandt werden, die z.B. nach dem 4-Leiter-Prinzip angeschlossen sind. Die Untersuchungen haben gezeigt, daß mit der Kombination von Kühldecke, Kühlkonvektor und RLT-Anlage große flächenbezogene Kühllasten abgeführt werden können, ohne daß dadurch die thermische Behaglichkeit negativ beeinflußt wird. Der Luftstrom läßt sich auf das hygienisch bzw. auf das zur Entfeuchtung notwendige Maß reduzieren, wodurch sich die Betriebskosten senken. Der Anteil der drei Komponenten an der gesamten Kühllast beträgt im Mittel: 15 % RLT-Anlage, 15 % Kühlkonvektor und 70 % Kühldecke.
Nativ-organische Abfälle bilden mit ca. 30 Gew. % den Hauptteil des Hausmülls. Daher leistet die Bioabfallkompostierung einen bedeutenden Schritt hin zu einer sinnvollen Abfallverwertung. Bundesweit werden derzeit jährlich etwa 750 000 t Bioabfallkompost erzeugt. Mit Ausnahme von sieben Land- und Stadtkreisen planen die Landkreise Baden-Württembergs die getrennte Sammlung von Bioabfällen: Einwohner von 23 Landkreisen waren 1993, zum Teil versuchsweise, an Biotonnen angeschlossen. Die Notwendigkeit der Bioabfallkompostierung scheint außer Frage zu stehen, intensiv erörtert werden jedoch die Verfahrenskonzepte, die der Bioabfallkompostierung zugrunde liegen. Kern der Diskussion ist, ob einfache Kompostierungsverfahren wie die dezentrale Kompostierung den technisch aufwendigeren Verfahren zentraler Anlagen gleichwertig sind.
Als erster Landkreis in Baden Württemberg hat der Landkreis Sigmaringen bei der Entsorgung des bei 120 000 Einwohnern im Kreis anfallenden organischen Abfalls neue Wege beschritten und die Landwirtschaft in den Stoffkreislauf miteinbezogen, anstatt das anfallende Material zu deponieren. Auf dem Hintergrund der TA-Siedlungsabfall, die vorschreibt, daß nach einer Übergangszeit organische Abfälle nicht mehr deponiert werden dürfen, sondern kompostiert oder thermisch behandelt werden müssen, hat der Landkreis Sigmaringen im Jahr 1992 ein Konzept zur dezentralen Kompostierung verabschiedet.
In this paper, the J-integral is derived for temperature-dependent elastic–plastic materials described by incremental plasticity. It is implemented using the equivalent domain integral method for assessment of three-dimensional cracks based on results of finite-element calculations. The J-integral considers contributions from inhomogeneous temperature fields and temperature-dependent elastic and plastic material properties as well as from gradients in the plastic strains and the hardening variables. Different energy densities are considered, the Helmholtz free energy and the stress-working density, providing a physical meaning of the J-integral as a fracture criteria for crack growth. Results obtained for a plate with two different crack configurations each loaded by a cool-down thermal shock show domain-independence of the incremental J-integral for different energy densities even for high temperature gradients and significant temperature-dependence of the yield stress and the hardening exponent in the presence of large scale yielding. Hence, the derived J-integral is an appropriate parameter for the assessment of cracks in thermomechanically loaded components.
Vulnerabilitätsanalyse "Hitzestress und menschliche Gesundheit" am Beispiel der Stadt Reutlingen
(2020)
In diesem Modellprojekt wird das Schutzgut "Menschliche Gesundheit" insbesondere unter dem Gesichtspunkt der im Rahmen des globalen Klimawandels zu erwartenden Überhitzung der Städte ("städtische Hitzeinseln") betrachtet.
In der Großstadt Reutlingen ("Tor zur Schwäbischen Alb/112.500 EW) mit ihrer Pfortenlage am Rande der Schwäbischen Alb und der Höhenlage (400-800 m) sowie der Bebauungsdichte werden bis 2050 bzw. 2100 (Strategie zur Anpassung an den Klimawandel Baden-Württemberg - Vulnerabilitäten und Klimaanpassungsmaßnahmen, 2015) die massivsten Auswirkungen bezüglich Aufenthaltsbehaglichkeit und Gesundheitsfolgen in Reutlingen erwartet.
Der Untersuchungsschwerpunkt liegt im Wirkungsbereich Mensch-Siedlung, d.h. in der Betrachtung von empfindlichen Bevölkerungspopulationen (z.B. ältere Menschen) und hitzeempfindlichen Nutzungsstrukturen (z.B. verdichteten städtischen Siedlungsflächen). Insbesondere die bereits in der abgeschlossenen Gesamtstädtischen Klimaanalyse ermittelten überwärmten Areale ("hot spots") und die im Rahmen des Klimawandels für 2020-2050 zukünftig zu erwartende Hitzestressbelastung bei empfindlichen Bevölkerungsgruppen in Stadtquartieren und Funktionsbauten, stehen im Zenit der Untersuchung.
Dabei wird über das Kriterium Empfindlichkeit (Basis sind z.B. quartierbezogene Datenstrukturen von Älteren, Einrichtungen wie Krankenhäuser, Kinderpflegeeinrichtungen, Alten- Behinderten- und Pflegeheime) die zukünftige Hitzestress-Belastung für Reutlingen erarbeitet. Weiteres wichtiges Kriterium ist die Betroffenheit nach Standortsituation (Höhenlage, Durchlüftungsverhältnisse, Bioklima/PMV = Maß für die bioklimatische Behaglichkeit) und die Anzahl hitzestressgeplagter Menschen (Kinder, Kranke, Ältere). Insbesondere für das Szenarium 2020 bis 2050 (s. Strategie zur Anpassung an den Klimawandel Baden-Württemberg - Vulnerabilitäten und Klimaanpassungsmaßnahmen, 2015) werden objekt- bzw. einrichtungsbezogen (z.B. Altenpflegeeinrichtungen) sowie quartiersspezifisch (Stadtstrukturtypen) die Auswirkungen bzw. Verwundbarkeiten erarbeitet. Dieser objektspezifische (bauklimatische) Ansatz, die innovative Indikatorenbildung zur situativen kommunalen Anwendbarkeit auch über Reutlingen hinaus sowie der partizipative Ansatz mit Nichtregierungsorganisationen (NGO´s) begründet den Modellcharakter ("Reutlinger Modell") dieser Untersuchung. Das Modellprojekt bildet das zweite Modul in einem dreiteiligen Klimaanpassungskonzept für die Stadt Reutlingen.
Beschrieben wird die Kombination Gold/Titan als Edelmetall-Legierung die sich durch die hohe Biokompatibilität im Vergleich zu anderen Legierungsmetallen bei der Implantatprothetik auszeichnet. Motiviert wird die Anwendung durch die Tatsache, daß einzelne der in aufbrennfähigen Edelmetallegierungen vorhandenen Komponenten vermehrt zu Unverträglichkeitsreaktionen bei Patienten Anlaß gaben. Ziel ist mit möglichst nur einer Legierung einen möglichst breiten Indikationsbereich abzudecken. Dies läßt die Verwendung von Titan als Bestandteil hochgoldhaltiger Legierungen erstrebenswert erscheinen. Anhand eines Patientenfalles wird der Einsatz der Goldbasislegierung 'Esteticor Vision' der Firma Cendres & Metaux dargestellt. Die Legierung setzt sich zusammen aus 98.2 % Gold, 1,7 % Titan, 0,1 % Iridium. Die technischen Daten erlauben eine universelle Einsetzbarkeit. Präpariert wurde ein Langzeitprovisorium nach Knochenaufbau im Bereich der atrophierten Alveolarfortsätze. Das Aufschmelzen der Legierung erfolgt unter Schutzgas in Graphittiegeln um Oxidbildung zu vermeiden. Die guten Fließeigenschaften ermöglichen die Ausbildung selbst filigranster Bereiche der Restauration was zu einem in Form und Funktion gelungenen Ergebnis führt. Biokompatibilität, Sicherheit, Kosten/Nutzen-Verhältnis und der Wunsch nach einer einzigen goldfarbenen Legierung für möglichst viele Indikationen werden nach Meinung des Autors durch die beschriebene Legierung erfüllt.
Kleine Anlagen zur dezentralen Strom- und Waermeerzeugung (Block(heiz)kraftwerke) gewinnen auf Grund ihrer vielfaeltigen Einsatzmoeglichkeiten zunehmend an Bedeutung. Die CO2-Bilanz mit Deponiegas bzw. Erdgas betriebenen Blockkraft- und Block(heiz)kraftwerken wird gegenuebergestellt. Es zeigt sich, dass durch den Einsatz von Deponie-Blockkraftwerken bzw. von Blockheizkraftwerken CO2-Einsparungen von ueber 100 kg CO2/MWh im Vergleich zur getrennten Waerme- und Stromerzeugung erzielt werden koennen.
Moderne strombetriebene Wärmepumpenanlagen sind im Hinblick auf die Umweltbilanz und die Jahresenergiekosten selbst gegenüber den effizientesten gasbefeuerten und ölbefeuerten Heizanlagen deutlich im Vorteil. Um diesen Vorteil auch in der Praxis zu erreichen, muss der Auswahl und Dimensionierung der Wärmepumpe einschliesslich der Wärmequelle besondere Beachtung geschenkt werden. Hinsichtlich des Temperaturniveaus bietet sich als Wärmequelle besonders das Erdreich an, beispielsweise durch Erdsonden erschlossen. Abhängig von den hydrogeologischen Rahmenbedingungen ist insbesondere auf die längenbezogene Wärmeentzugsleistung der Erdsonden zu achten. Hierfür hat das Ministerium für Umwelt und Verkehr des Landes Baden-Württemberg einheitliche Grundlagen für die Beurteilung und Bearbeitung geschaffen. Ausgehend von einer Wärmepumpenheizanlage, von der bereits Messungen vorliegen, wurde diese Anlage mit dem Simulationsprogramm TRNSYS nachgebildet und die wesentlichen Temperaturverhältnisse in verschiedenen Erdreichtiefen und Erdsondenabständen ermittelt. Mit diesen Erdreichtemperaturen werden mit Hilfe eines vereinfachten Energiebilanzverfahrens die Jahresarbeitszahlen ermittelt. Dabei zeigt sich, dass neben der Hydraulik der Heizanlage der Art der Trinkwassererwärmung besondere Bedeutung zukommt, da dies sich entscheidend auf die Jahresarbeitszahl und damit auch auf die mögliche Reduzierung des CO2-Ausstosses auswirkt.
Risiko und Sicherheit sind Begriffe, die nur im Zusammenhang mit dem Menschen gesehen werden können, wobei bei der Risikoabschätzung die Fragen beantwortet werden müssen, was passieren kann und was passieren darf. Ausgehend von der Vornorm DIN V 19250 wird im Detail auf folgende Punkte eingegangen: Risikoparameter, Schadensausmaß, Häufigkeit, Aufenthaltsdauer im Gefahrenbereich, Gefahrenabwendung, Eintrittswahrscheinlichkeit, Bewertung der Eintrittsmöglichkeiten von Ereignissen, Restrisikoverkleinerung, Vorhersage von Schadensereignissen einschließlich Störfallauslöser. Die Demonstration erfolgt an Beispielen aus der Chemie.
Der Bericht beschreibt die Vorgehensweise für die Entwicklung von Hochleistungszweitaktmotoren beim Institut für Transportwesen und Motorentechnik (ITM). Die gezielte Auswertung von motorischen Daten bietet die Möglichkeit, Motorenentwicklungsprozesse in wichtigen Fragestellung zu unterstützen. Für die Auslegung von Bauteilen und Prozessen werden Simulationsprogramme eingesetzt. Diese Entwicklungswerkzeuge können effizienter angewandt werden, wenn die Berechnungsergebnisse einer Qualitätskontrolle unterliegen. Wichtig hierfür sind Bewertungskriterien, die aus der Erfahrung einer Vielzahl von Versuchen bestehen. Da in Produktion gegangene Motoren üblicherweise schon einen Evolutionsprozeß durchlaufen haben, kann vermutet werden, daß solche Kriterien von erfolgreichen und weniger erfolgreichen Produkten in der Weise abgeleitet werden können, wie dies hier vorgestellt wurde. Die Angabe von Trendfunktionen für konstruktive Merkmale und Betriebsparameter ist notwendig um eine bedarfsorientierte Vorauslegung von Antrieben durchführen zu können. Alle hier vorgestellten Ergebnisse sind natürlich von der Datenmenge abhängig, die zu den jeweiligen Fragestellungen ausgewertet werden kann. Dazu müssen alle durchgeführten Versuchsreihen in die Datenbank eingeführt und mit Ergebnissen der Simulationsrechnungen in Beziehung gesetzt werden.
High performance thin layer chromatography (HPTLC) is a frequently used separation technique which works well for quantification of caffeine and quinine in beverages. Competing separation techniques, e.g. high-performance liquid chromatography (HPLC) or gas chromatography (GC), are not suitable for sugar-containing samples, because these methods need special pretreatment by the analyst. In HPTLC, however, it is possible to separate ‘dirty’ samples without time-consuming pretreatment, because disposable HPTLC plates are used. A convenient method for quantification of caffeine and quinine in beverages, without sample pretreatment, is presented below. The basic theory of in-situ quantification in HPTLC by use of remitted light is introduced and discussed. Several linearization models are discussed.
A home-made diode-array scanner has been used for quantification; this, for the first time, enables simultaneous measurements at different wavelengths. The new scanner also enables fluorescence evaluation without further equipment. Simultaneous recording at different wavelengths improves the accuracy and reliability of HPTLC analysis. These aspects result in substantial improvement of in-situ quantitative densitometric analysis and enable quantification of compounds in beverages.
A new diode-array scanner in combination with a computer-controlled application system meets all the demands of modern HPTLC measurement. Automatic application, simultaneous measurements at different wavelengths, and different linearization models enable appropriate evaluation of all analytical questions. The theory of error propagation recommends quantification at reflectance values smaller than 0.8; this can be verified only by use of diode-array scanning. The same theory also recommends quantification by use of peak height data, because the theory predicts best precision only for peak height evaluation. Diode-array scanning with reflectance monitoring enables appropriate validation in TLC and HPTLC analysis. All these aspects result in substantial improvement of in-situ quantitative densitometric analysis, and simultaneous recording at different wavelengths opens the way for chemometric evaluation, e.g. peak purity monitoring, which improves the accuracy and reliability of HPTLC analysis.
Fluorescence Enhancement of Pyrene Measured by Thin-Layer Chromatography with Diode-Array Detection
(2003)
In-situ densitometry for qualitative or quantitative purposes is a key step in thin-layer chromatography. It offers a simple way of quantifying by measuring the optical density of the separated spots directly on the plate. A new TLC scanner has been developed which is able to measure TLC plates or HPTLC plates, at different wavelengths simultaneously, without destroying the plate surface. The system enables absorbance and fluorescence measurements in one run. Fluorescence measurements are possible without filters or other adjustments.
The measurement of fluorescence from a TLC plate is a versatile means of making TLC analysis more sensitive. Fluorescence measurements with the new scanner are possible without filters or special lamps. Improvement of the signal-to-noise ratio is achieved by wavelength bundling. During plate scanning the scattered light and the fluorescence are both emitted from the surface of the TLC plate and this emitted light provides the desired spectral information from substances on the TLC plate. The measurement of fluorescence spectra and absorbance spectra directly from a TLC plate is based on differential measurement of light emerging from sample-free and sample-containing zones.
The literature recommends dipping TLC plates in viscous liquids to enhance fluorescence. Measurement of the fluorescence and absorbance spectra of pyrene spots reveals the mechanism of enhancement of plate dipping in viscous liquids—blocked contact of the fluorescent molecules with the stationary phase or other sample molecules is responsible for the enhanced fluorescence at lower concentrations.
In conclusion, dipping in TLC analysis is no miracle. It is based on similar mechanisms observable in liquids. The measured TLC spectra are also very similar to liquid spectra and this makes TLC spec-troscopy an important tool in separation analysis.
A new formula is presented for transforming fluorescence measurements in accordance with Kubelka-Munk theory. The fluorescence signals, the absorption signals, and data from a selected reference are combined in one expression. Only diode-array techniques can measure all the required data simultaneously to linearize fluorescence data correctly. To prove the new theory HPTLC quantification of the analgesic flupirtine was performed over the mass range 300 to 5000 ng per spot. The fluorescence calibration curve was linear over the whole range. The transformation of fluorescence measurements into linear mass-dependent data extends the technique of in-situ fluorescence analysis to the high concentration range. It also extends Kubelka-Munk theory from absorption to fluorescence analysis. The results presented also emphasize the importance of Kubelka-Munk theory for in-situ measurements in scattering media, especially in planar chromatography.
We will present the first example of a two-dimensional scanned TLC-plate, measured by use of a diode-array scanner. A spatial resolution of 250 µm was achieved on plate. The system provides real 2D fluorescence and absorption spectra in the wavelength-range from 190 to 1000 nm with a spectral resolution of greater than 1 nm. A mixture of 12 sulphonamides was separated by using a cyanopropyl-coated silica gel plate (Merck, 1.16464) with the solvent mix of methyl tert-butyl ether-methanol-dichloromethane-cyclohexane-NH3 (25%) (48:2:2:1:1, v/v) in the first and with a mixture of water-acetonitrile-dioxane-ethanol (8:2:1:1, v/v) in the second direction. Both developments were carried out over a distance of 70 mm. A separation number (spot capacity) of 259 was calculated. We discussed a new formula for its calculation in 2D-TLC separations. The drawback of this method is that measuring a 2D-TLC plate needs more than 3 h measurement time.
In jüngster Zeit werden vermehrt größere thermische Solaranlagen zur Warmwassererzeugung und zur Heizungsunterstützung in größeren Mehrfamilienhäusern und Neubausiedlungen mit Einfamilien- bzw. Doppelhäusern eingesetzt. Während die hydraulische Einbindung der Solarenergie zur Heizungsunterstützung meist problemlos realisiert wird, entstehen bei der Warmwasserbereitung immer wieder Probleme hinsichtlich der Legionellenproblematik. Die Anforderungen im DVGW Arbeitsblatt W551, den gesamten Wasserinhalt der Vorwärmstufen einmal am Tag auf 60 Grad C zu erwärmen und damit zur Verminderung des Legionellenwachstums beizutragen, führen immer wieder dazu, daß durch fehlerhafte Konzepte, insbesondere im Bereich der hydraulischen Schaltungen in Verbindung mit den Regelkonzepten, der solare Deckungsgrad bei der Trinkwassererwärmung sehr gering bleibt. Anhand ausgewählter Ausführungsbeispiele wird die Problematik ausführlich behandelt und Lösungsmöglichkeiten aufgezeigt. Abschließend werden funktionsgerechte Anlagentechniken verschiedener Ausführungsvarianten besprochen.
Building energy management systems (BEMSs), dedicated to sustainable buildings, may have additional duties, such as hosting efficient energy management systems (EMSs) algorithms. This duty can become crucial when operating renewable energy sources (RES) and eventual electric energy storage systems (ESSs). Sophisticated EMS approaches that aim to manage RES and ESSs in real time may need high computing capabilities that BEMSs typically cannot provide. This article addresses and validates a fuzzy logic-based EMS for the optimal management of photovoltaic (PV) systems with lead-acid ESSs using an edge computing technology. The proposed method is tested on a real smart grid prototype in comparison with a classical rule-based EMS for different weather conditions. The goal is to investigate the efficacy of islanding the building local network as a control command, along with ESS power control. The results show the implementation feasibility and performance of the fuzzy algorithm in the optimal management of ESSs in both operation modes: grid-connected and islanded modes.
Vorgestellt wird die Dioden-Array-Dünnschichtchromatographie als eine moderne und preiswerte Messmethode zur densitometrischen Erfassung von Substanzen auf einer DC- oder einer HPTLC-Platte. Sicher identifizierbar sind auch Substanzen mit schwachem Chromophor. Die Kubelka-Munk-Gleichung beschreibt einen linearen Zusammenhang zwischen Remissionslicht und lichtabsorbierender Stoffmenge auf der Platte. Die Auswertung im Spektralbereich von 316 bis 334 nm zeigt den Zusammenhang zwischen transformiertem Messsignal und aufgetragener Substanzmasse. Die schnelle Aufnahme von UV/vis-Spektren eröffnet der HPTLC den gesamten Bereich der Methodenvalidierung auf dem Niveau, auf welchem heute die HPLC-Analytik durchgeführt wird.
In this paper a practical way for fatigue life prediction of rubber products under multiaxial loads is shown. This is done by means of fracture mechanical concepts and the energy release rate as the failure criterion. Due to a FEA post-processor the potential energy release rate might be calculated at every material point supposed there was a crack. And therefore the risk of failure and with the help of a strain number curve the time to fatigue is able to be calculated by FEA. This concept is applied for an estimation of the life time of a test specimen with tensile loading from fatigue data of a shear loaded specimen of different design. This rather more theoretical concept of the energy release rate is complemented by experimental crack growth data by a Tear Fatigue Analyzer with its great advantage of reduction of testing time and costs compared to those of fatigue tests. For some materials a thorough characterization of crack growth and fatigue behavior is presented and is applied to estimate the time to fatigue by FEA for a real component under multiaxial loads.
Having 22 GW of nominal power installed Germany is the leading nation in wind energy conversion. While the number of suitable installation sites ashore is limited, and the average windspeed and thus the utilization level offshore is significantly higher, more and more offshore wind farms are planned. In order to reduce the cost of building the foundations and of connecting the wind turbines to the power grid, the single plant is designed as powerful as possible and therefore the components become huge and weighty. For instance: In order to lift the nacelle with around 500 tons of weight up on the tower - which can be up to 120 m above the water level - at the time special ships and cranes are designed and built. But those firstly will be very expensive and secondly will be available only on a limited scale. Hence the installation cost of those huge wind turbines significantly influence the rentability of a wind farm. Against this background a joint research project supported by the German Federal Ministry for the Environment, Nature Conservation and Nuclear Safety (BMU) was started comprising the project partners Ed. Züblin AG, Berg-idl GmbH (an engineering company and a maker of special purpose machines in Altlußheim, Germany), the IPEK (institute for product development) at the university of Karlsruhe and the Hochschule Offenburg, university of applied science. Project target is the conceptual design of a heavy-duty elevator, which can be used to install the tower segments and the nacelle of a wind turbine offshore without a crane. The most relevant challenges in this context result of holding up extreme loads by means of comparatively filigree carrying structures. The paper shows some examples of structural analysis and optimization work accomplished during the project. For the structural analysis of the heavy loaded components ANSYS workbench was used. The development process was also supported by optimization tools like TOSCA and OPTIMUS. The linking of the FE solver and the optimizer provides important hints concerning improvement of the topology and the dimensions of the components. Examples of designs illustrate the development process and the methods applied.
Der Gesetzgeber verfolgt mit dem Gesetz über den Vorrang Erneuerbarer Energien (EEG) anders als die Vorläuferregelung das Ziel, den Anteil Erneuerbarer Energien an der Stromversorgung deutlich zu erhöhen. Unternehmen mit einem hohen Strombedarf sind von den damit verbundenen Kosten besonders betroffen.
Durch die Besondere Ausgleichsregelung des § 16 EEG sollen die Stromkosten von privilegierten Unternehmen mit einem hohen Strombedarf reduziert werden. Sie können unter bestimmten Voraussetzungen weitgehend von den durch die Vergütung des EEG entstehenden Kosten befreit werden.
Der nachfolgende Beitrag verdeutlicht am Beispiel von Unternehmen des produzierenden Gewerbes, dass dieses Regelungsziel für neu gegründete Unternehmen nachhaltig verfehlt wird. Entgegen der Ankündigung des Bundesumweltministeriums ist davon auszugehen, dass auch die geplante Novellierung des EEG diesbezüglich keine geeignete Abhilfe schaffen wird.
The authors present an abiotically catalyzed glucose fuel cell and demonstrate its application as energy harvesting power source for a cardiac pacemaker. This is enabled by an optimized DC-DC converter operating at 40 % conversion efficiency, which surpasses commercial low-power DC-DC converters. The required fuel cell surface area can thus be reduced from about 125 cm2 to 18 cm2, which would allow for its direct integration onto the pacemaker casing.
Im Fahrzeug stehen große Wärmeströme zur Verfügung, die nicht genutzt werden. Die Energie des Abgases weist gegenüber der des Motor/Kühlsystems eine wesentlich höhere Arbeitsfähigkeit auf. Untersuchungen zielen dahin, diese thermische Energie zum Beispiel mithilfe eines thermoelektrischen Generators wieder in das System einzukoppeln und als Energiequelle für Verbraucher zu nutzen.
Today, thermoforming moulds are mostly produced using conventional mould-building technologies (e.g. milling and drilling) and are made of metal (e.g. aluminium or steel) or hardwood. The tools thus produced are very robust, but are only cost-effective in mass production. For the production of small batches of thermoformed parts, there is a need for moulds which can be produced quickly and economically. A new approach which significantly reduces the production time and cost is the 3D printing process (3DP). The use of this technology to produce thermoforming moulds offers many new options in the geometries which can be manufactured, and in manufacturing time and costs. In a case study of a thermoformed part (a scaled automotive model), the pre-processing of the CAD model of a mould is demonstrated. The mould can be printed within a few hours, and is sufficiently heat-resistant for moulding processes. The important advantages of moulds printed in 3D, in comparison to moulds built using conventional technologies, are the ability to create any shape of channels for the vacuum and the simplification in the production of tool mock-ups. This paper also discusses the economics of the technique, such as a comparison of material costs and manufacturing costs in relation to conventional production technologies and materials.
Für langfaserverstärkte Thermoplaste (LFT) wird ein repräsentatives Volumenelement (RVE) für FEM-Simulationen generiert. Dies geschieht unter Berücksichtigung von mikrostrukturellen Kenngrößen wie Faserorientierungsverteilung, -volumengehalt und -längenverteilung, die für einen charakteristischen Werkstoffzustand experimentell ermittelt wurden. Mittels Mikrostruktursimulationen wird das Kriechverhalten von LFT untersucht. Das viskoelastische Verhalten der Matrix wird experimentell an Substanzproben aus Polypropylen ermittelt und in die RVE-Simulationen mit einem modifizierten Burgers-Modell implementiert. Schließlich werden die Rechnungen mit verschiedenen, fiktiven sowie experimentell ermittelten Faserlängenverteilungen mit Kriechversuchen am LFT verglichen. Es zeigt sich eine starke Abhängigkeit des Kriechverhaltens von der Faserlänge und eine hohe Prognosegüte der Simulationen, die die experimentell ermittelte Längenverteilung berücksichtigen.
Das Fraunhofer ISE hat im Rahmen dieses Projektes die hauseigene Wasserstoff-Tankstelle um einen zweiten Hochdruckspeicher, einen zweiten Mitteldruckverdichter, zwei Mengenmesser und eine Elektrolyse-Leistungssteuerung erweitert und die Lüftung im Betriebsmittelraum verändert. Zudem wurde die im Projekt vom Partner Sick entwickelte Gasanalytik in die Tankstelle und die vom Partner Sick entwickelte Mengenmessung in einen 200kW Elektrolyse-Teststand integriert.
Damit wurde die Betankungskapazität pro Fahrzeug und insgesamt verbessert, die Zuverlässigkeit der Tankstelle erhöht und die Infrastruktur geschaffen, um Langzeituntersuchungen von Gasverunreinigungen, Elektrolyse-Degradation und Wasserstoff-Verlusten an der Tankstelle durchzuführen, sowie einen Feldtest für die entwickelten Komponenten des Partners Sick durchzuführen. Alle Nachrüstungen waren erfolgreich - die Lüftungsanpassung zur Verbesserung der Vorkühlungszuverlässigkeit und Lebensdauer erfüllte jedoch bis zum Projektende nicht die Erwartungen. Bei Messungen mit und für die Hochschule Offenburg wurden zudem mit sehr geringem Mehraufwand Messdaten bezüglich Genauigkeit des vorhanden Coriolismesser erhoben und verwertet.
Ein bisher ungelöstes Problem für die kommerzielle Nutzung von Wasserstoffbetriebenen Fahrzeugen ist die eichfähige Mengenmessung bei der Betankung. Bisher auf dem Markt befindliche Durchflussmesser für Wasserstofftankstellen arbeiten nach dem Coriolis-Prinzip und erreichen nicht die geforderten Messunsicherheiten.
Ziel des Arbeitspakets der Hochschule Offenburg ist die Entwicklung eines neuen Ansatzes zur eichfähigen Mengenmessung. Notwendige Bedingung für die Eichfähigkeit ist zum einen eine ausreichende Messrichtigkeit, zum anderen muss Messbeständigkeit sichergestellt werden. Hierzu gehören beispielsweise Manipulationssicherheit, Elektromagnetische Verträglichkeit und Sensorbeständigkeit. Aufgrund der geforderten Manipulationssicherheit kommen Messmethoden wie bspw. das Wiegen der Fahrzeuge oder Tanksysteme nicht infrage, da diese vom Verbraucher beeinflusst werden können. Deshalb soll ein Durchflussmesser basierend auf dem Düsenmessverfahren entwickelt werden.
Im Rahmen des Projektes wurden zunächst die Rahmenbedingungen bei Wasserstoffbetankungsvorgängen nach der Norm SAE J2601 erarbeitet. Basierend darauf wurde ein dynamisches Simulationsmodell entwickelt, welches die Berechnung der zeitlich veränderlichen Massen- und Volumenströme während der Betankung ermöglicht. Diese dienen als Grundlage für die Auslegung der Düsengeometrie sowie der benötigten Temperatur- und Druckmesstechnik. Parallel zu dem Durchflussmessgerät wurde ein gravimetrischer Teststand entwickelt, welcher es ermöglicht, die Messgenauigkeit der Düse zu untersuchen. Der Teststand ist mit einem Wasserstofftank ausgestattet, welcher während Betankungsversuchen befüllt werden kann um realistische Strömungsbedingungen zu erreichen.
Während den anschließenden Versuchen an der Wasserstofftankstelle des Fraunhofer ISE in Freiburg konnte gezeigt werden, dass die Messdüse sowie der Teststand funktionieren und das Düsenmessverfahren ein geeignetes Verfahren für Durchflussmessungen an Wasserstofftankstellen darstellt. Es konnten Messunsicherheiten im Bereich der Eichfähigkeit (um 1 %) erreicht werden.
Die SICK AG beteiligt sich im Projekt Wasserstoffinfrastruktur Freiburg mit der eigen entwickelten Gasanalytik und Durchflussmesstechnik. Die Grundlagenuntersuchungen im Laufe des Projektes dienten dazu die industrielle Eignung der eingesetzten Messtechnik festzustellen sowie Erkenntnisse für eine spätere Weiterentwicklung von eichfähigen Ultraschall- H2 Gaszählern zu ermitteln.
Das Projekt beinhaltet verschiedene wissenschaftliche Voruntersuchungen für das im Schwarzwald geplante Untergrundlabor GeoLab. Von vier Universitäten / Forschungsinstitutionen wurden vorbereitende geophysikalische, geochemische, geomechanische und geologische Untersuchungen durchgeführt. Zudem wurde eine Projekt-Management Plattform eingerichtet.
Zum Zeitpunkt der Erstellung dieses Berichtes ist das Projekt erwartungsgemäß nahezu abgeschlossen (offizielles Ende: 31. Dezember 2015). Die Geländearbeiten (AP1, AP4) sowie die Laborversuche (AP2, AP3) wurden nahezu vollständig durchgeführt, wobei geringe Restarbeiten in den kommenden Tagen fertig gestellt werden. An den angefallenen Untersuchungsergebnissen erfolgten erste Vorauswertungen; die Interpretation steht jedoch bis auf ein paar wenige Details an der finalen Interpretation. Die reinen theoretischen Ausarbeitungen und Modellierarbeiten sind nahezu fertig gestellt (AP4, AP5). Die Projekt-Management Plattform ist erstellt und läuft (AP6) und wird die Beendigung des Projektes unterstützen.
Im Rahmen des Forschungsvorhabens GeoSpeicher.bw wurden mehrere Demostandorte in Baden-Württemberg intensiv durch die Projektpartner untersucht bzw. begleitet. Die Forschungsergebnisse zeigen, dass bestehende Geothermieanlagen gut funktionieren und durch den Betrieb auch klimaschädliche Gasemissionen eingespart werden können. Leider konnte im Rahmen des Vorhabens kein Demoprojekt für einen Aquiferspeicher am städtischen Klinikum Karlsruhe oder auch am Campus Nord des Karlsruhe Instituts für Technologie (KIT) trotz des Nachweises der effektiven Kostenersparnisse und CO2-Einsparungen verwirklicht werden.
Sollte sich die Aquiferspeichertechnologie in Baden-Württemberg etablieren, müsste unbedingt ein Demoprojekt für einen flachen Niedrigtemperatur-Aquiferspeicher entwickelt und gefördert werden. Die Rahmenbedingungen für solch einen Aquiferspeicher wären am Campus Nord grundsätzlich gegeben. Dieser Nachweis wurde durch zahlreiche Untersuchungen im Rahmen von GeoSpeicher.bw eindeutig erbracht.
Die Forschungseinrichtungen in Baden-Württemberg haben im Verbundvorhabens geothermisch relevante Daten bearbeitet, um die komplex gekoppelten Prozesse im Untergrund transdisziplinär zu untersuchen, als Grundlage für die mit der effektiven und sicheren Nutzung der Geothermie verbundenen Fragestellungen. Das Vorhaben war in Arbeitspakete mit folgenden Zielen gegliedert:
− Prognosetool für geothermale Fluide in Aquiferen des Rheingrabes und seiner Randgebiete. Dieser Forschungsteil zielt darauf ab, zuverlässige Prognosen der zu erwartenden Wasserchemie vor dem Abteufen der ersten Bohrung eines Geothermievorhabens zu gewinnen und das Potential für Scaling und Korrosion der Tiefenwässer zu prognostizieren.
− Definition eines wissenschaftlichen Begleitprogramms mit seismischem Monitoring für die Geothermiebohrung Pfullendorf.Das Monitoring hätte beitragen sollen zur Minimierung der seismischen Gefährdung, Optimierung der Doublettenauslegung und Verbesserung in der Erfassung der Reservoireigenschaften. Dieser Projektteil ist bereits abgeschlossen.
− Erstellung einer Detektionsschwelle kritischer Seismizität aus der Analyse der natürlichen Magnituden-Häufigkeitsbeziehung für Baden-Württemberg. Im Vorhaben wird die Erfassungsschwelle der seismischen Netze für Baden-Württemberg detailliert untersucht, um das Auftreten von induzierten seismischen Ereignissen in der Nähe von geothermischen Kraftwerken von natürlicher Seismizität zu diskriminieren.
− Untersuchung der Bedeutung sulfathaltiger Gesteine für Schadensfälle in Baden Württemberg und Planung von Demonstrationsprojekten. Ziel ist die qualitative und quantitative Untersuchung bestehender Schadensfälle durch Erdwärmesonden in Baden-Württemberg basierend auf der 2011 vom Umweltministerium vorgelegten Studie zu Schadensfällen.
− Forschungsdatenbank für geothermische Basisdaten in Baden-Württemberg. In dem Pilotprojekt soll die geeignete Datenstruktur für multivariate Daten entwickelt und in ein Informationssystem implementiert werden, um übergreifende Vernetzungen der vielfältigen geowissenschaftlichen Daten geothermischer Projekte in Baden-Württemberg zu ermöglichen.
− Energetisch und exergetisch verbesserte Nutzung von Wärme aus Tiefer Geothermie in Baden-Württemberg. Tiefe geothermische Energie liegt zunächst als Wärme auf einem mittelhohen Temperaturniveau von i. d. R. weniger als 200 °C vor. Dies ist nur dann wirtschaftlich nutzbar, wenn eine genügend hohe Wärmeabnahme nahe genug am Standort der geothermischen Anlage möglich ist. In diesem Arbeitspaket sollen die Möglichkeiten der Effizienzsteigerung systemanalytisch untersucht und als Datenbasis zur Verfügung gestellt werden.
− 3D Geomechanikmodell zur Nutzung des Untergrunds. Auf der Basis eines numerischen 3D-Geomechanikmodells sollen plausible Spannungs- und Deformationswerte zwischen den Lokationen tatsächlicher Messungen des Spannungsfelds in BW als Grundlage für Forschungsarbeiten und Gutachten bereitgestellt werden.
Ein über die Einzelvorhaben hinausgehendes Ziel war, dass die Forschung im Verbundvorhaben die unterschiedlichen Einrichtungen des Landes Baden-Württemberg besser vernetzt, die Forschung regional gestärkt und auf die Themen, die für Baden-Württemberg entscheidend sind, fokussiert wird, um damit wissenschaftlich fundierte Grundlagen für umweltpolitische Entscheidungen geschaffen.
Für Verkehrsunternehmen stellt die Erprobung neuer Technologien eine große Herausforderung dar.
Sowohl Wasserstoff-Busse als auch Batterie-Busse können ihren Beitrag zur Umstellung des ÖPNV auf emissionsfreie Mobilität leisten. Je nach Anwendungsmuster können sich beide Technologien gut ergänzen und zu einem volkswirtschaftlichen Optimum führen. Es gilt, die Technologien im realen Umfeld zu erproben, um praxisnahe Erfahrung zu sammeln und dabei Mitarbeiter auszubilden, ohne die Qualität des Betriebes zu gefährden. Bei der aktuellen Kostenlage sehen beide Technologien ihre Einführung in den Betrieb mit Mehrkosten im Vergleich zu der aktuellen Diesel-Lösung verbunden.
Bei einer Batterie-basierten Lösung mit Pantograph-Schnellladung sind kürzere Linien gute Kandidaten für eine elektrische Umstellung ohne Auswirkungen auf die Größe der Busflotte. Auch Liniensysteme beliebiger Länge mit Knotenpunkten in regelmäßigen Abständen ermöglichen eine gemeinsame Nutzung der Ladeinfrastruktur und stellen somit reduzierte Aufbaukosten der Ladeinfrastruktur in Aussicht. In diesem Fall sind aber auch Fahrplanmanagement-Aspekte hinsichtlich der Ladezeit am Pantograph mit zu berücksichtigen, die nicht Bestandteil dieser Studie gewesen sind. Allgemein lassen die Kosten-Prognosen für Batterie und Batterie-elektrische Fahrzeuge eine signifikante Kostenreduzierung bis 2030 erkennen, die in manchen Konfigurationen zur Kostenparität und sogar geringeren Kosten als mit der Diesel-Variante führen würde.
Anders als für Batterie-Busse stellt die Linien-Konfiguration keinen wirtschaftlichen Einflussfaktor auf den Betrieb von Wasserstoff-Bussen dar. Die derzeitige Reichweite der H2-Busse reicht aus, um die zu erwartende tägliche Fahrleistung zu decken. Bei der Wasserstoffmobilität sind aber die Versorgungsinfrastruktur und die damit verbundenen Kraftstoffkosten von entscheidender Bedeutung. Ihr Aufbau ist mit hohen Investitionskosten und gesetzlichen Verpflichtungen verbunden (BImSchG, BetrSichV), die für eine erste Erprobung der Technologie im kleinen Maßstab eine Hürde für Verkehrsunternehmen darstellen könnte. Die H2 Mobility Deutschland bietet die Möglichkeit an, 700 bar Tankstellen mit einem 350 bar Modul zu erweitern, das die tägliche Versorgung von ca. 6 Bussen ermöglicht. Mit begrenzten Risiken für die Verkehrsunternehmen bietet es sich daher an, die H2 Mobilität auf eine limitierte Busflotte zu erproben. Da der Aufbau des H2-Mobility Deutschland Tankstellennetzes eine Lücke in Offenburg und Umgebung aufweist, wäre es vorstellbar, an der Errichtung einer solchen Tankstelle zu arbeiten, die die Betankung und Erprobung von Wasserstoff-Bussen ermöglicht. Auf längerer Sicht ist die Sicherstellung einer gut platzierten zuverlässigen und nachhaltigen Wasserstoffquelle von entscheidender Bedeutung. Derzeit liegen vorhandene Wasserstoffquellen in mehr als 100 km Entfernung. Eine Nutzung der Wasserkraft des naheliegenden Rheins erscheint durchaus sinnvoll, sowohl aus wirtschaftlichen als auch aus umwelttechnischen Gründen (erneuerbarer Strom, Stromkostenreduzierung durch Eigenversorgung, kürzere Transportwege, möglicher Nutzen für die Eurometropole Straßburg).
Es lässt sich festhalten, dass für die Region Offenburg zunächst die Erprobung beider Technologien, der Elektromobilität als auch der Wasserstoffmobilität, empfohlen wird. Es sollte zeitnah in den Erfahrungsaufbau in beide Technologien investiert werden. Zudem sollte bei der Elektromobilität das Flottenmanagement untersucht und evaluiert werden und bei der Wasserstoffmobilität die Möglichkeiten der Kooperation für den Aufbau der Wasserstofftankstelle. Im Rahmen der nächsten Ausschreibungsrunde für den öffentlichen Nahverkehr in Offenburg wird empfohlen, diesen emissionsfrei auszuschreiben. Es ist absehbar, dass aus Kostengründen (Kostenparität der Elektromobilität mit der Dieselvariante) als auch aus Gründen der Anforderung bzgl. der Emissionsgrenzwerte der ÖPNV emissionsfrei umgesetzt werden sollte.
Die Einbindung von Mini- und Mikro-BHKW in ein virtuelles Kleinkraftwerk (VKK) bietet vielfältige wirtschaftliche, Smart-Grids- und Klimaschutzpotentiale zur Unterstützung der "Wärmewende". Eine Einbindung solcher Anlagen ist bisher jedoch mit zumeist hohen Kosten verbunden, weshalb i.d.R. nur Anlagen in höheren Leistungsklassen (> 500 kWel) umgesetzt werden. Im Rahmen des Projekts mikroVKK wurde deshalb das Ziel verfolgt zu demonstriert und nachzuweisen, dass auch BHKW-Anlagen unter 100 kWel in ein virtuelles Kleinkraftwerk (VKK) wirtschaftlich einzubinden sind.
GridSystronic Energy (GSE) hat hierfür ein spezielles VKK-System (gs.system) entwickelt, welches im Rahmen des Projekts unter realen Bedingungen erprobt, weiterentwickelt und möglichst zur Marktreife gebracht wurde. Durch die Konfiguration des Systems - d.h. einfache Steuerboxen (gs.box) werden als Gateway für die Kommunikation vor Ort zur Anlagen- und Zähleranbindung verbaut, wohingegen die Berechnungen, Simulationen und Optimierung der Steuersignale auf dem zentralen gs.server erfolgt - lässt sich eine kostengünstige und skalierbare Lösung darstellen.
Zusammen mit zehn Stadtwerken als Praxispartner wurden unterschiedliche BHKW- Standorte identifiziert und auf deren technische Eignung und die Umsetzbarkeit neuer Geschäftsmodelle auf Basis einer intelligenten Steuerung analysiert. Für ausgewählte Objekte, wie z.B. Schulen, Wärmenetze, Mehrfamiliengebäude, wurde durch GSE eine Anbindung der für die Regelung notwendigen Geräte und Zähler realisiert. Regelwerke, wie z.B. "Lastprofil folgen", als Basis für neue Geschäftsmodelle wurden mit den Praxispartnern abgestimmt und entwickelt. Anhand der Erkenntnisse zu den Effekten der intelligenten Steuerung (z.B. Nutzung von möglichen Flexibilitäten, Stabilität des Systems, Verschiebung der Betriebszeiten, Änderung der Lieferquoten etc.) wurden neue Geschäftsmodelle detailliert analysiert und mit den Praxispartnern prototypisch umgesetzt. Die Evaluation zu den Smart-Grids-Potenzialen (Flexibilität, netzdienliche Einspeisung etc.) sowie die Potenziale zur Unterstützung des Klimaschutzes (CO2-Minderung) erfolgte anhand von gemessenen und simulierten Werten.
Während der Projektlaufzeit konnte die technische Anbindbarkeit von BHKW-Anlagen mit einer elektrischen Leistung bis 100 kWel demonstriert werden. Die Vorarbeiten für die Erarbeitung einer standardisierten und kostengünstigen Anbindungslösung war jedoch sehr viel zeitintensiver als ursprünglich geplant, weshalb die Anlagen verspätet oder z.T. gar nicht angebunden werden konnten. Wegen der geringen Datenbasis konnten die grundsätzlichen wirtschaftlichen Potenziale einer VKK Steuerung deshalb nur auf theoretischer Basis nachgewiesen werden. Die Anbindungs- und Integrationskosten hängen stark von den örtlichen Gegebenheiten ab, weshalb es hierfür keine pauschale Aussage getroffen werden kann. Durch die gewonnenen Erfahrungen und Lernprozesse konnte jedoch im Laufe des Projektes bereits eine erhebliche Kostenreduktion erzielt werden. Auch bei Neuanlagen, bei denen die Anbindung bereits vorab eingeplant werden kann, können die Kosten der Anbindung stark reduziert werden. Die Smart-Grid-Potenziale und die Klimaschutzpotenziale eines VKK-Einsatzes wurden von der Hochschule Offenburg ebenfalls auf einer theoretischen Basis ermittelt. In einem nächsten Schritt wäre es deshalb notwendig zu analysieren, ob sich die ermittelten Effekte auch unter realen Bedingungen einstellen.
Moderne, intelligente Schraubmontagesysteme sind heutzutage in der Lage, streckgrenzengesteuerte Anziehverfahren für die prozesssichere Verschraubung zur Verfügung zu stellen. Insbesondere im Hochmomentenbereich bis 200.000 Nm ist diese Technologie erst seit kurzem etabliert. Entwicklungsbedarf besteht jedoch, sobald Bauteile im Kraftfluss liegen, die im Lastbereich ein nichtlineares Materialverhalten zeigen, wie zum Beispiel Korrosionsschutz-Lackschichten. Im Bereich der Schraubmontage gibt es nahezu unzählige Einflussfaktoren auf das Erreichen der angestrebten Montagevorspannkraft. Diese sind nicht mit vertretbarem Aufwand vollständig in einem entsprechenden Berechnungs- oder Simulations-Modell zur Auslegung von Schraubenverbindungen abbildbar. Ausserdem hat jede Applikation ihre spezifischen individuellen Eigenheiten. Modelle und Simulationen von Schraubenverbindungen sind daher nur mit eingeschränktem Maße für andere Applikationen wiederverwendbar. Zur Reduzierung von Entwicklungszeiten und Einhaltung der normativen Forderungen sollte zukünftig ein schneller Abgleich der Modelle mit den Daten der gesamten Schraubenverbindung aus realitätsnahen Versuchen angestrebt werden. Normative Forderungen wie beispielsweise die VDI/VDE 2645, welche eine Maschinenfähigkeitsuntersuchung der verwendeten Schraubtechnik zum Schraubfall vom Anwender fordert, zeigen unter anderem die Notwendigkeit auf. Idealerweise finden entsprechende Messungen unter realen Bedingungen statt. Die ermittelten Daten beinhalten nicht nur die Eigenschaftsdaten der Schrauben und die der Plattenbauteile, sondern die des ganzen Systems inkl. aller individuellen Einflussfaktoren bis hin zum Werkzeug selbst. Moderne, intelligente Schraubmontagesysteme können diese Aufgabe erfüllen. Rechtzeitig eingesetzt liefern sie die Daten zur Optimierung von Berechnung, Auslegung sowie Simulation von Schraubenverbindungen und sichern somit den Berechnungsprozess ab. Damit ist es zum einem möglich, bis an die Grenzen des technisch maximal Möglichen zu gehen, zum anderen im Echt-Test Schwachstellen der Auslegung oder Materialfehler bereits vor der Serieneinführung zu erkennen. Dieser Beitrag soll Ihnen vermitteln, dass Sie mit Hilfe intelligenter Schraubmontagesysteme die Berechnung, Auslegung und Simulation von Schraubenverbindungen mit dem Produktions- und Montageprozess abgleichen können, und dies nicht nur über den Anziehfaktor αa - dem sog. "Montage-Unsicherheitsbeiwert". Der konkrete Nutzen liegt in der Erweiterung der bisherigen Auslegung von Schraubenverbindungen mit Lackierungen im Hochmomentenbereich, die von einem breiten Anwenderkreis verwendet werden wird. Damit gelingt es, bereits in der frühen Entwicklungsphase vor Serienfreigabe übermäßige Vorspannkraftverluste zu vermeiden, was für zukünftige optimierte Berechnungen und Konstruktionen sehr wichtig ist.
In der Tiefengeothermie spielen – unter den jeweiligen geologischen Rahmenbedingungen – thermische, hydraulische, chemische und mechanische (THCM-) Prozesse eine grundlegende Rolle hinsichtlich Wirtschaftlichkeit, Sicherheit und Nachhaltigkeit einer geothermischen Nutzung. Die Etablierung einer neuen Technologie wird sich darüber hinaus ohne Akzeptanz in der Bevölkerung mittel- und langfristig nicht behaupten können. Deshalb bilden Transparenz (z.B. Überwachung der induzierten Seismizität) und ein Transfer von Ergebnissen der Geothermie-Forschung in die Öffentlichkeit wesentliche Grundlagen zur Schaffung einer hinreichenden Akzeptanz der Tiefengeothermie.
In dem durchgeführten Verbundvorhaben arbeiteten zum einen die Fachgebiete Geologie/Geothermie sowie Anlagen- und Systemtechnik von geothermischer Kältegewinnung und Kältenutzung der Projektpartner interdisziplinär zusammen, um den aktuellen Wissensstand der Kühlung mittels oberflächennaher Geothermie fachübergreifend zu erfassen, zu bewerten und Schnittstellenprobleme zu bearbeiten. Aus dieser interdisziplinären Betrachtungsweise wurden ganzheitliche Hinweise zur Optimierung des geothermischen Kühlpotenzials sowie Anstöße für technische und planerische Innovationen für die Praxis entwickelt und in diese transferiert.
Zu folgenden Zielen wurden Beiträge erarbeitet:
- Steigerung der Energieeffizienz der Kühlung und Kältebereitstellung
- Nutzung regenerativer Energien zur Kühlung und Kältebereitstellung
- Begrenzung der thermischen Belastung des Untergrunds und des Grundwassers
- Minimierung der Schäden und Risiken durch den Eingriff in den Untergrund
Das Verbundprojekt GEO.Cool von Partnern im Landesforschungszentrum Geothermie (LFZG) hat zum Ziel, Möglichkeiten sowie Grenzen der Kühlung mit oberflächennaher Geothermie in interdisziplinärer Arbeit zu erheben und daraus Impulse für Innovationen in diesem Bereich zu gewinnen.
Das Vorhaben ist in die folgenden sechs Arbeitspakete (AP) gegliedert:
AP 1: Bedarfe und Systemaspekte
AP 2: Systemtechnik und Planung von Anlagen zur Kühlung mit oberflächennaher Ge-othermie
AP 3: Analyse von Best-Practice-Beispielen
AP 4: Thermisches und hydrogeologisches Verhalten des Untergrunds
AP 5: Genehmigungspraxis und Grenzwerte
AP 6: Synopse, Innovationspotenzial und Transfer.
Das Projekt hat eine Laufzeit vom 23.01.2017 bis zum 30.09.2019 (Förderzeitraum für alle Arbeitspakete und Projektpartner).
Bud type carbon nanohorns (CNHs) are composed of carbon and have a closed conical tip at one end protruding from an aggregate structure. By employing a simple oxidation process in CO2 atmosphere, it is possible to open the CNH tips which increases their specific surface area by four fold. These tip opened CNHs combine the microporous nature of activated carbons and the crystalline mesoporous character of carbon nanotubes. The results for the high pressure CO2 gas adsorption of tip opened CNHs are reported herein for the first time and are found to be superior to traditional CO2 adsorbents like zeolites. The modified CNHs are also found to be promising materials for lithium ion batteries and the performance is found to be on a par with carbon nanotubes and carbon nanofibers.
Der Beitrag behandelt ausgewählte Themenkomplexe im Zusammenhang mit der Vorspannung von Schraubenverbindungen im Stahlbau. Es werden verschiedene Anwendungen und damit verbundene Aspekte beleuchtet und diskutiert, zum Beispiel die Schraubensicherung durch Vorspannung oder die Steifigkeit der Verbindung. Dem vorangestellt ist eine kurze Einführung in die mechanische Wirkung der Vorspannung in der Verbindung sowie eine Vorstellung der Vorspannverfahren.
In this study the dynamics and stability of thin and electrically conductive aqueous films under the influence of a time-periodic electric field are explored. With the help of analytical linear stability analysis for long wavelength disturbances, the stability threshold of the system as a function of various electrochemical parameters and transport coefficients is presented. The contributions of parameters like surface tension, disjoining pressure, electric double layer (Debye length and interfacial zeta potential), and unsteady Maxwell and viscous stresses are highlighted with the help of appropriate dimensionless groups. The physical mechanisms affecting the stability of thin films are detailed with the above-mentioned forces and parametric dependence of stability trends is discussed.
Objective: This paper deals with the design and the optimization of mechatronic devices.
Introduction: Comparing with existing works, the design approach presented in this paper aims to integrate optimization in the design phase of complex mechatronic systems in order to increase the efficiency of this method.
Methods: To solve this problem, a novel mechatronic system design approach has been developed in order to take the multidisciplinary aspect and to consider optimization as a tool that can be used within the embodiment design process to build mechatronic solutions from a set of solution concepts designed with innovative or routine design methods.
Conclusions: This approach has then been applied to the design and optimization of a wind turbine system that can be implemented to autonomously supply a mountain cottage.
In diesem Beitrag werden die Bereitstellungskosten flexibler Systemkomponenten im deutschen Stromsystem analysiert, zu deren Quantifizierung eine einheitliche Methodik entwickelt wird. Dabei ist das Ziel des Beitrags, zeitlich differenzierte Kostenpotenzialkurven für die Jahre 2015 und 2030 zu erarbeiten, anhand derer die energiespezifischen Kosten der markt- und systemdienlichen Flexibilitätsbereitstellung verglichen und die einzelnen Flexibilitätsoptionen in einen Gesamtkontext eingeordnet werden können.
Der Einsatz flexibler Systemkomponenten wird hierzu in die drei Hauptphasen (1) Vorhaltung, (2) Abruf und (3) Einsatzfolgen unterteilt, woraus sich drei kongruente Kostengruppen ableiten lassen, nach denen die einzelnen Kostenbestandteile identifiziert und als Ergebnis die Bereitstellungskosten quantifiziert werden. Neben fossil-thermischen Kraftwerken werden dabei bspw. die Kraft-Wärme-Kopplung, Biogasanlagen, Pumpspeicher- und Laufwasserkraftwerke sowie steuerbare Lasten untersucht.
Zur anschließenden Abbildung der teils negativen Bereitstellungskosten wird die herkömmliche Darstellungsform der Merit Order entlang der Ordinate um die Abbildung negative Werte erweitert und die Abszisse für die Abbildung negativer Flexibilität in umgekehrter Reihenfolge angeordnet. Das Ergebnis sind zwei zusammenhängende Graphen, mittels derer sich die Bereitstellungskosten verschiedener Flexibilitätsoptionen gegenüberstellen und anschaulich vergleichen lassen.
Durch die Festlegung eines Rahmenszenarios zur Entwicklung des deutschen Stromsystems bis zum Jahr 2030 wird anschließend auch die zukünftige Perspektive der Flexibilitätsbereitstellung in Deutschland analysiert. Aus den Ergebnissen lässt sich ableiten, dass der deutsche Kraftwerkspark mit einem fortschreitenden Rückbau der Kohlekraftwerke nur dann zunehmend flexibler wird und auf höhere Schwankungen im Stromnetz reagieren kann, wenn von einem gleichzeitigen Zubau moderner erdgasbetriebener Kraftwerke ausgegangen wird. In diesem Fall steigen die Bereitstellungskosten positiver Flexibilität, was sich beispielsweise durch zukünftig steigende Brennstoffpreise bergründen lässt. Jedoch kann bspw. durch die Transformation der Kraft-Wärme-Kopplung hin zu einer grundsätzlich stromgeführten Fahrweise zukünftig eine vergleichsweise kostengünstige Flexibilitätsbereitstellung erschlossen und somit auch ein gleichbleibendes oder oftmals sogar höheres Flexibilitätsniveau am Markt erreicht werden.
Editorial
(2022)
Editorial
(2022)
Editorial
(2022)
Editorial
(2022)
Editorial
(2022)
Editorial
(2022)
Editorial
(2021)
Editorial
(2021)
Editorial
(2021)
Editorial
(2021)
Editorial
(2021)
Editorial
(2021)
Editorial
(2020)
Editorial
(2020)
Editorial
(2020)
Editorial
(2020)
Rudolf E. Kaiser
(2020)
Editorial
(2020)
In den letzten Jahren sind verstärkt große Batteriespeichersysteme in der Mittel- und Hochspannungsebene in Deutschland installiert worden. Neben dem Einsatz für lokale Anwendungszwecke wie Eigenverbrauchsmaximierung oder Lastspitzenkappung sind seit 2016 etwa 250 MW aus Batteriespeichern für die Teilnahme am Markt für Primärregelleistung (PRL) präqualifiziert worden. Damit können bereits 40 % des aktuellen Bedarfs der deutschen Übertragungsnetzbetreiber (ÜNB) gedeckt werden. Für einen zuverlässigen Betrieb von Batteriespeichern sind intelligente Betriebsstrategien erforderlich, die im Rahmen dieser Analyse vorgestellt werden.
Digital libraries are providing an increasing amount of data, which is normally structured in a classical way by documents and described by metadata as keywords. The data, even in scientific systems such as digital libraries and virtual research environments, will contain a great amount of noise or information unnecessary for our personal interests. Although there has been a lot of progress in the field of information retrieval, search techniques and other content finding methods, there is still much to be done in the field of information retrieval based on user behavior. This paper presents an approach deployed in the Humboldt Digital Library (HDL) to facilitate the retrieval of relevant information to the users of the system, making recommendations of paragraphs based on their profile and the behavior of other users who share similar profiles. The Humboldt digital library represents an innovative system of open access to the legacy of Alexander von Humboldt in a digital form on the Internet (www.avhumboldt.net). It contributes to the key question, how to present interconnected data in a proper form using information technologies.
Die multimedialen Informationsdienste im Internet werden immer umfangreicher und umfassender, wobei auch die nur in gedruckter Form vorliegenden Dokumente von den Bibliotheken digitalisiert und ins Netz gestellt werden. Über Online-Dokumentenverwaltungen oder Suchmaschinen können diese Dokumente gefunden und dann in gängigen Formaten wie z.B. PDF bereitgestellt werden.
Dieser Artikel beleuchtet die Funktionsweise der Humboldt Digital Library, die seit mehr als zehn Jahren Dokumente von Alexander von Humboldt in englischer Übersetzung im Web als HDL (Humboldt Digital Library) kostenfrei zur Verfügung stellt. Anders als eine digitale Bibliothek werden dabei allerdings nicht nur digitalisierte Dokumente als Scan oder PDF bereitgestellt, sondern der Text als solcher und in vernetzter Form verfügbar gemacht.
Das System gleicht damit eher einem Informationssystem als einer digitalen Bibliothek, was sich auch in den verfügbaren Funktionen zur Auffindung von Texten in unterschiedlichen Versionen und Übersetzungen, Vergleichen von Absätzen verschiedener Dokumente oder der Darstellung von Bilden in ihrem Kontext widerspiegelt.
Die Entwicklung von dynamischen Hyperlinks auf der Basis der einzelnen Textabsätze der Humboldt‘schen Werke in Form von Media Assets ermöglicht eine Nutzung der Programmierschnittstelle von Google Maps zur geographischen wie auch textinhaltlichen Navigation.
Über den Service einer digitalen Bibliothek hinausgehend, bietet die HDL den Prototypen eines mehrdimensionalen Informationssystems, das mit dynamischen Strukturen arbeitet und umfangreiche thematische Auswertungen und Vergleiche ermöglicht.
This article sets the focus on methods of information technology in the Humboldt Portal, which represents an ongoing research project to develop a virtual research environment on the Internet for the legacy of Alexander von Humboldt. Based on the experiences of developing and providing the Humboldt Digital Library (www.avhumboldt.net) for more than a decade, we defined a working plan to create an Internet portal for comprehensive access to Humboldt’s writings, no matter if documents are provided as PDF files, scan images or XML-TEI documents on external archives (Google Books, Internet Archive, Deutsches Textarchiv, Bibliotheque National de France). Going far beyond services of a digital library we will provide an information network with multimedia assets, which are containing objects like terms, paragraphs, data tables, scan images, or illustrations, together with correlated properties like thematic linkage to other objects, relevant keywords with optional synonyms and dynamic hyperlinks to related translations in different languages. So the Humboldt Portal can contribute to the key question, how to present interconnected data in an appropriate form using information technologies on the Web.
The Humboldt Portal has been designed and implemented as part of an ongoing research project to develop an information system on the Internet to share the documents and rare books of Alexander von Humboldt, a 19th century German scientist and explorer, who viewed the natural world holistically and described the harmony of nature among the diversity of the physical world. Even after more than two centuries he is admired for his ability to see the natural world and human nature in the context of a complex network of relationships. The design and implementation of the Humboldt Portal are also oriented to support further research on Humboldt’s intellectual perspective.
Although all of Humboldt's works can be found on the internet as digitized documents, the complexity and internal inter-connectivity of his vision of nature cannot be adequately represented only by digitized papers or scanned documents in digital libraries.
As a consequence a specific portal of the Humboldt's documents was developed, which extends the standards of digital libraries and offers a technical approach for the adequate presentation of highly interconnected data.
Due to the continuous scientific and literary research, new insights and requirements for the digital presentation of Humboldt documents are constantly emerging, so that this article only provides a summary of the concepts realized at now. Consequently, the design and implementation of the Humboldt Portal is both: a consequence of a continuing research project and oriented to support more research on Humboldt´s intellectual holistic perspective, which was an anticipation to the System Approach of the last Century.
Alexander von Humboldt, a German scientist and explorer of the 19th century, viewed the natural world holistically and described the harmony of nature among the diversity of the physical world as a conjoining between all physical disciplines. He noted in his diary: “Everything is interconnectedness.”
The main feature of Humboldt’s pioneering work was later named “Humboldtian science”, meaning the accurate study of interconnected real phenomena in order to find a definite law and a dynamic cause.
Following Humboldt's idea of nature, an Internet edition of his works must preserve the author’s original intention, retain an awareness of all relevant works, and still adhere to the requirements of scholarly edition.
At the present time, however, the highly unconventional form of his publications has undermined the awareness and a comprehensive study of Humboldt’s works.
Digital libraries should supply dynamic links to sources, maps, images, graphs and relevant texts. New forms of interaction and synthesis between humanistic texts and scientific observation need to be created.
Information technology is the only way to do justice to the broad range of visions, descriptions and the idea of nature of Humboldt’s legacy. It finally leads to virtual research environments as an adequate concept to redesign our digital archives, not only for Humboldt’s documents, but for all interconnected data.
Automatic Identification of Travel Locations in Rare Books - Object Oriented Information Management
(2017)
The digital content of the Internet is growing exponentially and mass digitization of printed media opens access to literature, in particular the genre of travel literature from the 18th and 19th century, which consists of diaries or travel books describing routes, observations or inspirations. The identification of described locations in the digital text is a long-standing challenge which requires information technology to supply dynamic links to sources by new forms of interaction and synthesis between humanistic texts and scientific observations.
Using object oriented information technology, a prototype of a software tool is developed which makes it possible to automatically identify geographic locations and travel routes mentioned in rare books. The information objects contain properties such as names and classification codes for populated places, streams, mountains and regions. Together, with the latitudes and longitudes of every single location, it is possible to geo-reference this information in order that all processed and filtered datasets can be displayed by a map application. This method has already been used in the Humboldt Digital Library to present Alexander von Humboldt’s maps and was tested in a case study to prove the correctness and reliability of the automatic identification of locations based on the work of Alexander von Humboldt and Johann Wolfgang von Goethe.
The results reveal numerous errors due to misspellings, change of location names, equality of terms and location names. But on the other hand it becomes very clear that results of the automatic object detection and recognition can be improved by error-free and comprehensive sources. As a result an increase in quality and usability of the service can be expected, accompanied by more options to detect unknown locations in the descriptions of rare books.
Technology and computer applications influence our daily lives and questions arise concerning the role of artificial intelligence and decision-making algorithms. There are warning voices, that computers can, in theory, emulate human intelligence-and exceed it. This paper points out that a replacement of humans by computers is unlikely, because human thinking is characterized by cognitive heuristics and emotions, which cannot simply be implemented in machines operating with algorithms, procedural data processing or artificial neural networks. However, we are going to share our responsibilities with superior computer systems, which are tracking and surveying all of our digital activities, whereas we have no idea of the decision-making processes inside the machines. It is shown that we need a new digital humanism defining rules of computer responsibilities to avoid digital totalism and comprehensive monitoring and controlling of individuals within the planet Earth.
In the 19th century Alexander von Humboldt explored the nature and was conceived a new vision of nature that still influences the way we understand the new world. Humboldt believed in the importance of accurate measurements and precise description of observations. His vision of nature included not only facts but also emotions.
Nowadays smart solutions will be developed by using computer technology, which will influence our relationship to nature, our handling of the complexity and diversity of nature itself and the technological influences on the society. Could we avoid a new form of “Colonialism”, when a network of super computers will create a smarter world?
Enzyme‐assisted HPTLC method for the simultaneous analysis of inositol phosphates and phosphate
(2023)
Background
The analysis of myo‐inositol phosphates (InsPx) released by phytases during phytic acid degradation is challenging and time‐consuming, particularly in terms of sample preparation, isomer separation, and detection. However, a fast and robust analysis method is crucial when screening for phytases during protein engineering approaches, which result in a large number of samples, to ensure reliable identification of promising novel enzymes or target variants with improved characteristics, for example, pH range, thermal stability, and phosphate release kinetics.
Results
The simultaneous analysis of several InsPx (InsP1‐InsP4 and InsP5 + 6) as well as free phosphate was established on cellulose HPTLC plates using a buffered mobile phase. Inositol phosphates were subsequently stained using a novel enzyme‐assisted staining procedure. Immobilized InsPx were hydrolyzed by a phytase solution of Quantum® Blueliquid 5G followed by a molybdate reagent derivatization. Resulting blue zones were captured by DAD scan. The method shows good repeatability (intra‐day and intra‐lab) with maximum deviations of the Rf value of 0.01. The HPTLC method was applied to three commercially available phytases at two pH levels relevant to the gastrointestinal tract of poultry (pH 5.5 and pH 3.6) to observe their phytate degradation pattern and thus visualize their InsPx fingerprint.
Conclusion
This HPTLC method presents a semi‐high‐throughput analysis for the simultaneous analysis of phytic acid and the resulting lower inositol phosphates after its enzymatic hydrolysis and is also an effective tool to visualize the InsPx fingerprints and possible accumulations of inositol phosphates.
Autonomous humanoid robots require light weight, high torque and high speed actuators to be able to walk and run. For conventional gears with a fixed gear ratio the product of torque and velocity is constant. On the other hand desired motions require maximum torque and speed. In this paper it is shown that with a variable gear ratio it is possible to vary the relation between torque and velocity. This is achieved by introducing systems of rods and levers to move the joints of our humanoid robot ”Sweaty II”. On the basis of a variable gear ratio low speed and high torque can be achieved for those joint angles, which require this motion mode, whereas high speed and low torque can be realized for those joint angles, where it is favorable for the desired motion.