Refine
Year of publication
Document Type
- Bachelor Thesis (53)
- Conference Proceeding (52)
- Article (reviewed) (30)
- Part of a Book (27)
- Master's Thesis (20)
- Article (unreviewed) (14)
- Book (10)
- Contribution to a Periodical (3)
- Report (2)
Conference Type
- Konferenzartikel (39)
- Konferenz-Abstract (4)
- Konferenz-Poster (4)
- Konferenzband (4)
- Sonstiges (1)
Keywords
- Biomechanik (12)
- Wärmepumpe (6)
- Konstruktion (4)
- Kühldecke (4)
- Pflanzenkohle (4)
- Raumklima (4)
- TRIZ (4)
- Biomasse (3)
- Diode-array detection (3)
- Elektromotor (3)
Institute
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (211) (remove)
Open Access
- Closed (211) (remove)
Asynchronmaschinen mit Kaefiglaeufer benoetigen waehrend ihres Hochlaufs das 3- bis 8fache des Bemessungsstroms. Dieser hohe Anlaufstrom geht erst zurueck, wenn der Kippschlupf erreicht ist (bei etwa 90% der Bemessungsdrehzahl). Wenn die Kurzschlussleistung des einspeisenden Netzes zum Zeitpunkt der Motorzuschaltung gering ist, koennen durch Spannungseinbrueche Anlaufprobleme einer Kaefiglaeufermaschine auftreten. Bei der Planung eines solchen Antriebs muessen deshalb genauere Simulationsrechnungen ueber die Zusammenhaenge von Hochlaufzeit, Spannungseinbruch und zulaessigen Grenzwerten durchgefuehrt werden. Ergebnisse derartiger Anlaufsimulationen eines 800-kW- und eines 1,13-MW-Hochspannungsmotors bei Anschaltung an einen 10-MVA- und einen 2-MVA-Generator wurden fuer verschiedene Zuschaltungssituationen in Oszillogrammen festgehalten. Durch genauere mathematische Angaben verdeutlicht werden die Faelle des Motorhochlaufs bei Inselbetrieb mit geringer Kurzschlussleistung sowie die Zuschaltung der Asynchronmotoren auf den Generator vor und nach Anhebung der Netzspannung behandelt. Angaben werden ferner gemacht zur Zuschaltung des 1,13-MW-Motors auf die Parallelschaltung des 10-MVA- und des 2-MVA-Generators. Aus den Simulationsoszillogrammen der Faelle von Hochlauf und Motorzuschaltung sind die zeitabhaengigen Aenderungen von Ankerstrom, Wirkleistungsaufnahme, Blindleistungsaufnahme, Klemmenspannung, Drehzahlabweichung, Antriebsmoment und Lastdrehmoment zu entnehmen.
Bei thermischen Konvektionsströmungen ist der Einfluß von Geometrie und Randbedingungen für die Strömungsform und den konvektiven Wärmetransport von wesentlicher Bedeutung. Mit Hilfe der optischen Strömungsmeßtechnik (Differentialinterferometrie) wurde die freie Konvektion in einem quaderförmigen Behälter mit seitlicher Beheizung untersucht. Der Aufbau und die Experimente werden beschrieben. Die quantitative Auswertung von Dichte- und Temperaturfeldern aus den Differentialinterferogrammen wird aufgezeigt und der Einfluß unterschiedlicher Randbedingungen wie feste und freie Oberfläche auf die Strömungsform und den Wärmetransport dargelegt. Die eingesetzte Differentialinterferometrie zeigt aufgrund ihrer Anpassungsfähigkeit an die jeweiligen Versuchsbedingungen und durch den einfachen Aufbau spezifische Vorteile gegenüber dem Mach-Zehnder Interferometer.
Beim Betrieb von Maschinen mit großen Trägheitsmomenten treten bei Asynchronmaschinen mit Käfigläufer als Antriebsmotor teilweise Probleme beim Hochlauf des Aggregats auf. Es werden Maßnahmen zur Verbesserung des Anlaufs erläutert sowie mit Hilfe von Näherungsrechnungen und Simulationen untersucht. Aus den Simulationsergebnissen lassen sich Voraussagen über das Gelingen des Hochlaufs und die Tauglichkeit verschiedener Hilfsmaßnahmen ableiten.
Lange Erfahrungen der Autoren im Lehrfach Mathematik haben die Notwendigkeit gezeigt, den Studierenden eine praktische Möglichkeit der Prüfungsvorbereitung zu bieten. Die Betroffenen können sich durch die Beschäftigung mit qualifizierten mathematischen Aufgaben auf Klausuren und Prüfungen vorbereiten.
Im Unterschied zu Lehrbüchern, die mit theoretischen Grundlagen ausführlich diskutieren, werden diese in dem vorliegenden Werk zu Beginn eines jeden Kapitels kurz zusammengefaßt. Das Schwergewicht liegt hier auf den Aufgaben mit Prüfungsniveau und deren Lösungswegen, die ausführlich beschrieben werden. Grundlegende Definitionen und Sätze werden kurz wiederholt und anhand einiger Beispiele erläutert. Es folgen Aufgaben mit Musterlösungen. Wo es möglich ist, werden auch alternative Lösungswege diskutiert. So ist dieses Werk eine ideale Ergänzung zu mehr theoretisch ausgerichteten Lehrbüchern.
Bei einem neuen Kühldeckensystem wird die Luft im Deckenhohlraum oberhalb der abgehängten Decke durch Konvektoren gekühlt, wobei die Wärmeübertragung ausschließlich durch freie Konvektion und Strahlung erfolgt. Die abgehängte Decke nimmt durch Strahlung und freie Konvektion Wärme aus dem darunterliegenden Büroraum auf und gibt sie über freie Konvektion an die Luft im Deckenhohlraum sowie durch Strahlung an die Begrenzungsflächen des Deckenhohlraumes ab. Die vom Kühlwasser durchströmten Rippenrohre nehmen ihrerseits Wärme aus der Luft im Hohlraum auf, die infolge der freien Konvektion durch die Rippenrohre strömt. Zur Aufnahme des bei starker Belastung und Dauerbetrieb anfallenden Kondensats ist unterhalb des Konvektors eine Kondensatauffangwanne angebracht. Mit dem von Rutsch erstellten Rechenprogramm ist es möglich, für verschiedenste Randbedingungen die Rippenrohre auf maximale Kühlleistung zu optimieren. Voraussetzung für die direkte Anwendung dieses Berechnungsverfahrens sind jedoch ungestörte An- und Abströmbedingungen der Luft am Konvektor. Neben der Optimierung der Rippenrohre auf Kühlleistung ist für den Aufbau der eigentlichen Decke die Luftströmung im Deckenhohlraum und die Austrittstemperatur aus den Konvektoren von entscheidender Bedeutung. Die maximale Kühlleistung der Rippenrohre kann nur erreicht werden, wenn alle Einzelrippenrohre nahezu gleichmäßig durchströmt werden und günstige Abströmverhältnisse vorhanden sind. Die Strömungsverhältnisse im Deckenhohlraum und innerhalb der Konvektoren wurden durch Rauch sichtbar gemacht und auf Video aufgezeichnet. Entscheidenden Einfluß auf die Temperaturverteilung an der Kühldecke haben die Breite des Konvektors, die Konstruktion der Kondensatauffangwanne, der Abstand der Konvektoren voneinander und der Konvektortyp. Direkt unterhalb der Kondensatauffangwanne beträgt die Temperaturdifferenz ca. 3 K. Der Temperaturgradient im Abströmbereich liegt bei ca. 0,2 bis 0,3 K/m.
Es wird ein zeitoptimiertes Scanning-Verfahren zur Leckortung an Reinraum-Filterdecken auf der Basis der Richtlinie VDI 2083 Bl. 3 vorgestellt. Aufgabe des Verfahrens ist, die Positionen in der Meßebene liegender Flächen mit dem Querschnitt der isokinetischen Sondenöffnung zu bestimmen. Dabei wird eine vorab zu bestimmende Wahrscheinlichkeit zugrundegelegt, bei der die mittlere auftretende Konzentration von Partikeln höher ist, als die nach VDI 2083 Bl.3 zulässige. Die Verhältnisse beim Sondendurchgang über einem Kontaminationsbereich werden unter Beachtung aller Randbedingungen berechnet, wobei der sich für die Leckerkennung ungünstigste Fall, der bei einer homogenen Verteilung der durch das Leck austretenden Partikel auf der nachzuweisenden Fläche liegt, angenommen wird. Der Sondendurchgang wird als Bewegungsablauf definiert, zeitlich bestimmt vom Eintritt der Sondenvorderkante in die Kontaminationsfläche bis zum Verlassen derselben mit der Sondenhinterkante. Als Ergebnis der Berechnungen werden Vorschubgeschwindigkeit der Sonde beim Scanverfahren, Flächenleistung des Scanverfahrens, Sondendurchgangszeit und Leckerkennungskriterium, ausgewiesen. (Otto)
Die Auswirkungen der Entlüftung auf den Spritzgießablauf, das Formteil sowie das Verhalten bei teilevakuierter Kavität wurden im Rahmen einer Diplomarbeit untersucht. Die negativen Folgen für Formteil, Werkzeug und Spritzgießablauf, die aus einer ungenügenden Werkzeugentlüftung resultieren, werden aufgezeigt. Die grundsätzlichen Gestaltungsmöglichkeiten von Werkzeugentlüftungen sind zusammengestellt. In Versuchsreihen wurde das Entlüftungsverhalten bei teilevakuierter Kavität bei konstantem Einspritzdruck untersucht sowie der Einfluß der Werkzeugentlüftung bei unterschiedlichen Spalttiefen des Entlüftungskanals ermittelt. Die wichtigsten Resultate und konstruktiven Auslegungskriterien bezüglich der Entlüftungselemente, des Einspritzens unter teilevakuierter Kavität und des Einflusses der Werkzeugentlüftung, welche aus den Untersuchungen im Rahmen der Diplomarbeit hervorgehen, sind zusammengefaßt.
Das zweibändige Werk richtet sich an Studierende der Fachrichtungen Elektrotechnik, Maschinenbau, Mathematik und Physik an Fachhochschulen und Universitäten, die sich im Fach Mathematik auf Klausuren oder das Vordiplom vorbereiten wollen.
Im Unterschied zu anderen Mathematik-Lehrbüchern, die die Theorie ausführlich diskutieren, wird hier zu Beginn eines jeden Kapitels die Theorie knapp zusammengefaßt. Der Schwerpunkt liegt auf Aufgaben mit Prüfungsniveau und deren ausführlichen Lösungen. Zu Anfang der Kapitel werden grundlegende Definitionen und Sätze wiederholt und anhand einiger Beispiele erläutert. Anschließend folgen Aufgaben mit Musterlösungen. Wo es immer möglich ist, werden auch alternative Lösungsmöglichkeiten diskutiert.
Band 2 umfaßt die Themen:
- Funktionen mehrerer Veränderlicher
- Integralrechnung
- Gewöhnliche Differentialgleichungen
- Differentialgeometrie
- Die Laplace-Transformation
- Fourierreihe und Fouriertransformation
- Vektoranalysis.
Beide Bände zusammen bilden die ideale Grundlage zur Vorbereitung und zum Bestehen von Mathematik-Prüfungen im Studium.
Die quantitative Dünnschichtchromatographie (HPTLC) mit einem Graustufen-Handscanner ist eine preiswerte, schnelle und präzise Methode zur Schwermetallbestimmung. Als Alternative zu teuren Densitometern wird ein Grünlichtscanner mit einer Auflösung von 256 Graustufen benutzt. Die Ortsauflösung beträgt maximal 400 dpi (dots per inch). Die Chromatogramme werden mit 300 dpi aufgenommen. Zur Entwicklung wird eine Camag-Linearkammer verwendet. Zur Probenvorbereitung werden die zu bestimmenden Schwermetallionen bei pH 4,2 mit Dithizon komplexiert. Nur die Metallkationen Zn(2+), Co(2+), Hg(2+), Cd(2+) und Ni(2+) reagieren zu einem farbigen Metallkomplex, wobei sich Zn(2+)- und Co(2+)-Komplexe chromatographisch abtrennen lassen. Nach Komplexierung der Wasserprobe wird mit Essigsäureethylester ausgeschüttelt, Probe- und Standardlösung auf eine Platte aus Kieselgel SI-60 aufgetragen, mit Essigsäureethylester fokussiert und nach der Trocknung der Platte mit Toluol entwickelt. Die HPTLC-Platte wird mit scannereigener Software eingelesen und im PCX-Format (PC PaintBrusch der Fa. ZSoft) auf die Festplatte abgelegt. Zur Auswertung wird eine Leseroutine benutzt. Die ganze Chromatographiebahn ist mit 150 Einzeldioden aufgenommen, die eine Strecke von 48 mm in 564 Einzelmessungen auflösen. Die Summe aller 150 Einzelaufnahmen liefert das Densitogramm aus dem der Schwermetallgehalt bestimmt wird.
Massiv- Heiz-/Kühldecken bestehen im wesentlichen aus in der tragenden Deckenkonstruktion eingegossenen Kunststoffrohren, die je nach Jahreszeit von Heiz- bzw. Kühlwasser durchströmt verden. Das instationäre Verhalten wurde mit dem Anlagen und Simulationsprogramm TRNSYS untersucht. Anhand ausgesuchter Ergebnisse können die Anforderungen an die notwendigen Regelkonzepte abgeleitet werden. Es eignen sich für derartige Systeme, insbesondere wegen ihrer großen Speicherfähigkeit und damit Trägheit, modifizierende selbstadaptierende Regler. Aufgrund der großen Trägheit der Massivdecke ist eine direkte außentemperaturgeführte Vorlauftemperaturregelung des Wasserstromes nicht sinnvoll. Es sollte ein selbstadaptierendes Regelsystem verwendet werden, das anhand der vorangegangenen Lastverläufe die Gebäudekonstante und damit das Speicherverhalten der Räume ermittelt. Damit der Regelaufwand reduziert werden kann, sollen mehrere Räume als Gruppe zusammengefaßt werden. Als weitere Größe für das Regelkonzept ist die Speichertemperatur am Ende der Ladezeit zu messen und in das Programm mit einzubinden.
Die Untersuchungen wurden im Raumlufttechnischen Labor der Fachhochschule Offenburg zur Beurteilung der Effizienz der Schadstoffabfuhr unter Einhaltung der thermischen Behaglichkeit beim Einsatz verschiedener Luftführungssysteme- Quellauslaß, Deckendrallauslaß und Fußbodenauslaß- in Verbindung mit einer Kühldecke durchgeführt. Die Ergebnisse zeigen, daß keine signifikanten Vorteile für ein bestimmtes RLT-Konzept bestehen. Je nach Wahl der Randbedingungen der Untersuchungen liegen die erreichbaren Kühlleistungen innerhalb einer Systemkombination weiter auseinander als im Verhältnis zu den Vergleichssystemen. Insgesamt ist hinsichtlich der von beiden Systemen zusammen abgebbaren, maximalen Kühlleistung die Kombination Kühldecke mit Deckendralluftauslaß vorteilhaft.
Vortex breakdown phenomena in rotating fluids are investigated both theoretically and experimentally. The fluid is contained in a cone between two spherical surfaces. The primary swirling motion is induced ba the rotating lower boundary. The upper surface can be fixed with non-slip condition or can be a stress-free surface. Depending on these boundary conditions and on the Reynolds number, novel structures of recirculation zones are realized. The axisymmetric flow patterns are simulated numerically by a finite difference method. Experiments are done to visualize the topological structure of the flow pattern and to observe the existence ranges of the different recirculating flows. The comparison between theory and experiment shows good agreement with respect to the topological structure of the flow.
Die Bestimmung von Emissionen aus Abgaskaminen mit grossen Querschnitten ist ein Problem, da dort Inhomogenitaeten sowohl der Konzentration als auch der linearen Abgasgeschwindigkeit vorliegen. Die VDI 2066, Bl. 1, schreibt vor, welche Punkte zu waehlen sind, und wenn man dann noch isokinetisch die Abgasproben entnimmt, sollte man zum richtigen Ergebnis kommen. Anm. d.Ref.: Die Hessische Landesanstalt fuer Umwelt ist da schon frueher auf recht komplizierte Loesungen gekommen. Und diese Linie wird in der vorliegenden Arbeit konsequent eingehalten. - Es mag sein, dass der angekuendigte Ergebnisbericht mehr Licht in die Angelegenheit bringt. Aus den hier gemachten Angaben kann man eigentlich nur entnehmen, dass bisher alles falsch gemacht worden ist. (H. -D. Papendick).
Die Folgen ungenügender Entlüftung wurden durch Umfragen bei Konstrukteuren und Werkzeugmachern aus sechs Betrieben ermittelt und sind für Formteil, Werkzeug, Spritzgießprozeß ebenso tabellarisch wie die Gestaltungsmöglichkeiten von Entlüftungen (in der Trennebene und Kavität) dargestellt. Im Rahmen einer Diplomarbeit wurden mit Hilfe eines speziellen Versuchswerkzeuges die Auswirkungen der Entlüftung auf den Spritzgießablauf, das Formteil und das Verhalten bei teilevakuierter Kavität (der Einfluß des Evakuierungsgrades auf die gemittelte Füllhöhe wird anhand einer Kurve erläutert) untersucht. Die Konstanz der Werkzeuginnendrücke, die Berechenbarkeit der Druckabfälle (Tabelle mit Druckabfällen in Abhängigkeit der Entlüftungsspaltgeometrie), die Entlüftungselemente (bewegliche haben den Vorzug der Selbstreinigung) und das Einspritzen unter teilevakuierter Kavität werden beschrieben. Der Einfluß der Werkzeugentlüftung umfaßt die Spalttiefe des Entlüftungskanals, die Größe des Expansionsraumes und den Anschluß an die Dichtkante des Expansionsraumes.
Eine einfache Bestimmung von Mineraloel-KWstoffen - Ersatz des FCKW-haltigen Extraktionsmittels
(1996)
Die Messung von KWstoffen in Abwaessern nach DIN ist eine in der Umweltanalytik haeufig geforderte Bestimmung. Die Abwasserprobe wird dabei mit 1,1,2-Trichlortrifluorethan extrahiert. Anschliessend wird der Extrakt mittels IR-Spektroskopie vermessen. Neben einigen Schwaechen ist bei dieser Bestimmungsmethode besonders die Verwendung des ozonschaedigenden FCKW-Loesemittels heute nicht mehr zeitgemaess. - Die Verf. beschreiben ein schnelles robustes Bestimmungsverfahren, das alle Schwaechen der alten Methode vermeidet.
Durch den verstärkten Einsatz von EDV-Geräten an den Arbeitsplätzen in Büroräumen stiegen die flächenbezogenen inneren Kühllasten deutlich an. Für die Arbeitsplätze in Fensternähe müssen EDV-gerechte Lichtverhältnisse vorhanden sein. Es werden Versuchsergebnisse eines neu entwickelten Kühlkonvektors im Fensterbereich im Zusammenhang mit Innenjalousien vorgestellt. Dieser Kühlkonvektor eignet sich auch für den kombinierten Einsatz mit Kühldecken und raumlufttechnischen (RLT)-Anlagen, wie weitere Versuche bestätigen. Der Kühlkonvektor kann auch beim Ersatz von Induktionsgeräten angewandt werden, die z.B. nach dem 4-Leiter-Prinzip angeschlossen sind. Die Untersuchungen haben gezeigt, daß mit der Kombination von Kühldecke, Kühlkonvektor und RLT-Anlage große flächenbezogene Kühllasten abgeführt werden können, ohne daß dadurch die thermische Behaglichkeit negativ beeinflußt wird. Der Luftstrom läßt sich auf das hygienisch bzw. auf das zur Entfeuchtung notwendige Maß reduzieren, wodurch sich die Betriebskosten senken. Der Anteil der drei Komponenten an der gesamten Kühllast beträgt im Mittel: 15 % RLT-Anlage, 15 % Kühlkonvektor und 70 % Kühldecke.
Nativ-organische Abfälle bilden mit ca. 30 Gew. % den Hauptteil des Hausmülls. Daher leistet die Bioabfallkompostierung einen bedeutenden Schritt hin zu einer sinnvollen Abfallverwertung. Bundesweit werden derzeit jährlich etwa 750 000 t Bioabfallkompost erzeugt. Mit Ausnahme von sieben Land- und Stadtkreisen planen die Landkreise Baden-Württembergs die getrennte Sammlung von Bioabfällen: Einwohner von 23 Landkreisen waren 1993, zum Teil versuchsweise, an Biotonnen angeschlossen. Die Notwendigkeit der Bioabfallkompostierung scheint außer Frage zu stehen, intensiv erörtert werden jedoch die Verfahrenskonzepte, die der Bioabfallkompostierung zugrunde liegen. Kern der Diskussion ist, ob einfache Kompostierungsverfahren wie die dezentrale Kompostierung den technisch aufwendigeren Verfahren zentraler Anlagen gleichwertig sind.
Als erster Landkreis in Baden Württemberg hat der Landkreis Sigmaringen bei der Entsorgung des bei 120 000 Einwohnern im Kreis anfallenden organischen Abfalls neue Wege beschritten und die Landwirtschaft in den Stoffkreislauf miteinbezogen, anstatt das anfallende Material zu deponieren. Auf dem Hintergrund der TA-Siedlungsabfall, die vorschreibt, daß nach einer Übergangszeit organische Abfälle nicht mehr deponiert werden dürfen, sondern kompostiert oder thermisch behandelt werden müssen, hat der Landkreis Sigmaringen im Jahr 1992 ein Konzept zur dezentralen Kompostierung verabschiedet.
Beschrieben wird die Kombination Gold/Titan als Edelmetall-Legierung die sich durch die hohe Biokompatibilität im Vergleich zu anderen Legierungsmetallen bei der Implantatprothetik auszeichnet. Motiviert wird die Anwendung durch die Tatsache, daß einzelne der in aufbrennfähigen Edelmetallegierungen vorhandenen Komponenten vermehrt zu Unverträglichkeitsreaktionen bei Patienten Anlaß gaben. Ziel ist mit möglichst nur einer Legierung einen möglichst breiten Indikationsbereich abzudecken. Dies läßt die Verwendung von Titan als Bestandteil hochgoldhaltiger Legierungen erstrebenswert erscheinen. Anhand eines Patientenfalles wird der Einsatz der Goldbasislegierung 'Esteticor Vision' der Firma Cendres & Metaux dargestellt. Die Legierung setzt sich zusammen aus 98.2 % Gold, 1,7 % Titan, 0,1 % Iridium. Die technischen Daten erlauben eine universelle Einsetzbarkeit. Präpariert wurde ein Langzeitprovisorium nach Knochenaufbau im Bereich der atrophierten Alveolarfortsätze. Das Aufschmelzen der Legierung erfolgt unter Schutzgas in Graphittiegeln um Oxidbildung zu vermeiden. Die guten Fließeigenschaften ermöglichen die Ausbildung selbst filigranster Bereiche der Restauration was zu einem in Form und Funktion gelungenen Ergebnis führt. Biokompatibilität, Sicherheit, Kosten/Nutzen-Verhältnis und der Wunsch nach einer einzigen goldfarbenen Legierung für möglichst viele Indikationen werden nach Meinung des Autors durch die beschriebene Legierung erfüllt.
Moderne strombetriebene Wärmepumpenanlagen sind im Hinblick auf die Umweltbilanz und die Jahresenergiekosten selbst gegenüber den effizientesten gasbefeuerten und ölbefeuerten Heizanlagen deutlich im Vorteil. Um diesen Vorteil auch in der Praxis zu erreichen, muss der Auswahl und Dimensionierung der Wärmepumpe einschliesslich der Wärmequelle besondere Beachtung geschenkt werden. Hinsichtlich des Temperaturniveaus bietet sich als Wärmequelle besonders das Erdreich an, beispielsweise durch Erdsonden erschlossen. Abhängig von den hydrogeologischen Rahmenbedingungen ist insbesondere auf die längenbezogene Wärmeentzugsleistung der Erdsonden zu achten. Hierfür hat das Ministerium für Umwelt und Verkehr des Landes Baden-Württemberg einheitliche Grundlagen für die Beurteilung und Bearbeitung geschaffen. Ausgehend von einer Wärmepumpenheizanlage, von der bereits Messungen vorliegen, wurde diese Anlage mit dem Simulationsprogramm TRNSYS nachgebildet und die wesentlichen Temperaturverhältnisse in verschiedenen Erdreichtiefen und Erdsondenabständen ermittelt. Mit diesen Erdreichtemperaturen werden mit Hilfe eines vereinfachten Energiebilanzverfahrens die Jahresarbeitszahlen ermittelt. Dabei zeigt sich, dass neben der Hydraulik der Heizanlage der Art der Trinkwassererwärmung besondere Bedeutung zukommt, da dies sich entscheidend auf die Jahresarbeitszahl und damit auch auf die mögliche Reduzierung des CO2-Ausstosses auswirkt.
Kleine Anlagen zur dezentralen Strom- und Waermeerzeugung (Block(heiz)kraftwerke) gewinnen auf Grund ihrer vielfaeltigen Einsatzmoeglichkeiten zunehmend an Bedeutung. Die CO2-Bilanz mit Deponiegas bzw. Erdgas betriebenen Blockkraft- und Block(heiz)kraftwerken wird gegenuebergestellt. Es zeigt sich, dass durch den Einsatz von Deponie-Blockkraftwerken bzw. von Blockheizkraftwerken CO2-Einsparungen von ueber 100 kg CO2/MWh im Vergleich zur getrennten Waerme- und Stromerzeugung erzielt werden koennen.
Risiko und Sicherheit sind Begriffe, die nur im Zusammenhang mit dem Menschen gesehen werden können, wobei bei der Risikoabschätzung die Fragen beantwortet werden müssen, was passieren kann und was passieren darf. Ausgehend von der Vornorm DIN V 19250 wird im Detail auf folgende Punkte eingegangen: Risikoparameter, Schadensausmaß, Häufigkeit, Aufenthaltsdauer im Gefahrenbereich, Gefahrenabwendung, Eintrittswahrscheinlichkeit, Bewertung der Eintrittsmöglichkeiten von Ereignissen, Restrisikoverkleinerung, Vorhersage von Schadensereignissen einschließlich Störfallauslöser. Die Demonstration erfolgt an Beispielen aus der Chemie.
Der Bericht beschreibt die Vorgehensweise für die Entwicklung von Hochleistungszweitaktmotoren beim Institut für Transportwesen und Motorentechnik (ITM). Die gezielte Auswertung von motorischen Daten bietet die Möglichkeit, Motorenentwicklungsprozesse in wichtigen Fragestellung zu unterstützen. Für die Auslegung von Bauteilen und Prozessen werden Simulationsprogramme eingesetzt. Diese Entwicklungswerkzeuge können effizienter angewandt werden, wenn die Berechnungsergebnisse einer Qualitätskontrolle unterliegen. Wichtig hierfür sind Bewertungskriterien, die aus der Erfahrung einer Vielzahl von Versuchen bestehen. Da in Produktion gegangene Motoren üblicherweise schon einen Evolutionsprozeß durchlaufen haben, kann vermutet werden, daß solche Kriterien von erfolgreichen und weniger erfolgreichen Produkten in der Weise abgeleitet werden können, wie dies hier vorgestellt wurde. Die Angabe von Trendfunktionen für konstruktive Merkmale und Betriebsparameter ist notwendig um eine bedarfsorientierte Vorauslegung von Antrieben durchführen zu können. Alle hier vorgestellten Ergebnisse sind natürlich von der Datenmenge abhängig, die zu den jeweiligen Fragestellungen ausgewertet werden kann. Dazu müssen alle durchgeführten Versuchsreihen in die Datenbank eingeführt und mit Ergebnissen der Simulationsrechnungen in Beziehung gesetzt werden.
In jüngster Zeit werden vermehrt größere thermische Solaranlagen zur Warmwassererzeugung und zur Heizungsunterstützung in größeren Mehrfamilienhäusern und Neubausiedlungen mit Einfamilien- bzw. Doppelhäusern eingesetzt. Während die hydraulische Einbindung der Solarenergie zur Heizungsunterstützung meist problemlos realisiert wird, entstehen bei der Warmwasserbereitung immer wieder Probleme hinsichtlich der Legionellenproblematik. Die Anforderungen im DVGW Arbeitsblatt W551, den gesamten Wasserinhalt der Vorwärmstufen einmal am Tag auf 60 Grad C zu erwärmen und damit zur Verminderung des Legionellenwachstums beizutragen, führen immer wieder dazu, daß durch fehlerhafte Konzepte, insbesondere im Bereich der hydraulischen Schaltungen in Verbindung mit den Regelkonzepten, der solare Deckungsgrad bei der Trinkwassererwärmung sehr gering bleibt. Anhand ausgewählter Ausführungsbeispiele wird die Problematik ausführlich behandelt und Lösungsmöglichkeiten aufgezeigt. Abschließend werden funktionsgerechte Anlagentechniken verschiedener Ausführungsvarianten besprochen.
Kompaktkurs Regelungstechnik
(2001)
Der vorliegende "Kompaktkurs Regelungstechnik" wendet sich an Studierende der Fachrichtungen Maschinenbau, Elektrotechnik und der allgemeinen Ingenieurwissenschaften von Berufsakademien, Fachhochschulen und Technischen Universitäten sowie an die in der Praxis stehenden Ingenieure, die ihre regelungstechnischen Kenntnisse auffrischen, vertiefen oder erweitern wollen. Das Buch entstand aus Erfahrungen des Autors in Vorlesungen und Praktika mit Studierenden des Maschinenbaues und der Elektrotechnik an der Fachhochschule Offenburg und an der Berufsakademie Karlsruhe. Deshalb wurde auch dem eigentlichen Thema die beiden mathematischen Kapitel "Einführung in die komplexe Zahlen und Funktionen" und "Einführung in die LAPLACE Transformation" vorangestellt, weil das hier vorgestellte und besprochene Formelwerk ein wichtiges und unerläßliches Werkzeug bei der Beschreibung und Lösung regelungstechnischer Aufgaben darstellt. Die Stoff auswahl stellt einen Auszug aus der Fülle von Methoden und Verfahren dar, die heute zu den Grundlagen der Regelungstechnik zählen.
High performance thin layer chromatography (HPTLC) is a frequently used separation technique which works well for quantification of caffeine and quinine in beverages. Competing separation techniques, e.g. high-performance liquid chromatography (HPLC) or gas chromatography (GC), are not suitable for sugar-containing samples, because these methods need special pretreatment by the analyst. In HPTLC, however, it is possible to separate ‘dirty’ samples without time-consuming pretreatment, because disposable HPTLC plates are used. A convenient method for quantification of caffeine and quinine in beverages, without sample pretreatment, is presented below. The basic theory of in-situ quantification in HPTLC by use of remitted light is introduced and discussed. Several linearization models are discussed.
A home-made diode-array scanner has been used for quantification; this, for the first time, enables simultaneous measurements at different wavelengths. The new scanner also enables fluorescence evaluation without further equipment. Simultaneous recording at different wavelengths improves the accuracy and reliability of HPTLC analysis. These aspects result in substantial improvement of in-situ quantitative densitometric analysis and enable quantification of compounds in beverages.
A new diode-array scanner in combination with a computer-controlled application system meets all the demands of modern HPTLC measurement. Automatic application, simultaneous measurements at different wavelengths, and different linearization models enable appropriate evaluation of all analytical questions. The theory of error propagation recommends quantification at reflectance values smaller than 0.8; this can be verified only by use of diode-array scanning. The same theory also recommends quantification by use of peak height data, because the theory predicts best precision only for peak height evaluation. Diode-array scanning with reflectance monitoring enables appropriate validation in TLC and HPTLC analysis. All these aspects result in substantial improvement of in-situ quantitative densitometric analysis, and simultaneous recording at different wavelengths opens the way for chemometric evaluation, e.g. peak purity monitoring, which improves the accuracy and reliability of HPTLC analysis.
Fluorescence Enhancement of Pyrene Measured by Thin-Layer Chromatography with Diode-Array Detection
(2003)
In-situ densitometry for qualitative or quantitative purposes is a key step in thin-layer chromatography. It offers a simple way of quantifying by measuring the optical density of the separated spots directly on the plate. A new TLC scanner has been developed which is able to measure TLC plates or HPTLC plates, at different wavelengths simultaneously, without destroying the plate surface. The system enables absorbance and fluorescence measurements in one run. Fluorescence measurements are possible without filters or other adjustments.
The measurement of fluorescence from a TLC plate is a versatile means of making TLC analysis more sensitive. Fluorescence measurements with the new scanner are possible without filters or special lamps. Improvement of the signal-to-noise ratio is achieved by wavelength bundling. During plate scanning the scattered light and the fluorescence are both emitted from the surface of the TLC plate and this emitted light provides the desired spectral information from substances on the TLC plate. The measurement of fluorescence spectra and absorbance spectra directly from a TLC plate is based on differential measurement of light emerging from sample-free and sample-containing zones.
The literature recommends dipping TLC plates in viscous liquids to enhance fluorescence. Measurement of the fluorescence and absorbance spectra of pyrene spots reveals the mechanism of enhancement of plate dipping in viscous liquids—blocked contact of the fluorescent molecules with the stationary phase or other sample molecules is responsible for the enhanced fluorescence at lower concentrations.
In conclusion, dipping in TLC analysis is no miracle. It is based on similar mechanisms observable in liquids. The measured TLC spectra are also very similar to liquid spectra and this makes TLC spec-troscopy an important tool in separation analysis.
Vorgestellt wird die Dioden-Array-Dünnschichtchromatographie als eine moderne und preiswerte Messmethode zur densitometrischen Erfassung von Substanzen auf einer DC- oder einer HPTLC-Platte. Sicher identifizierbar sind auch Substanzen mit schwachem Chromophor. Die Kubelka-Munk-Gleichung beschreibt einen linearen Zusammenhang zwischen Remissionslicht und lichtabsorbierender Stoffmenge auf der Platte. Die Auswertung im Spektralbereich von 316 bis 334 nm zeigt den Zusammenhang zwischen transformiertem Messsignal und aufgetragener Substanzmasse. Die schnelle Aufnahme von UV/vis-Spektren eröffnet der HPTLC den gesamten Bereich der Methodenvalidierung auf dem Niveau, auf welchem heute die HPLC-Analytik durchgeführt wird.
A new formula is presented for transforming fluorescence measurements in accordance with Kubelka-Munk theory. The fluorescence signals, the absorption signals, and data from a selected reference are combined in one expression. Only diode-array techniques can measure all the required data simultaneously to linearize fluorescence data correctly. To prove the new theory HPTLC quantification of the analgesic flupirtine was performed over the mass range 300 to 5000 ng per spot. The fluorescence calibration curve was linear over the whole range. The transformation of fluorescence measurements into linear mass-dependent data extends the technique of in-situ fluorescence analysis to the high concentration range. It also extends Kubelka-Munk theory from absorption to fluorescence analysis. The results presented also emphasize the importance of Kubelka-Munk theory for in-situ measurements in scattering media, especially in planar chromatography.
In thin-layer chromatography, fiber-bundle arrays have been introduced for spectral absorption measurements in the UV-region. Using all-silica fiber bundles, the exciting light will be detected after re-emission on the plate with a fiberoptic spectrometer. In addition, fluorescence light can be detected which will be masked by the re-emitted light. Therefore, it is helpful to separate the absorption and fluorescence on the TLC-plate. A modified three-array assembly has been developed: using one array for detection, the two others are used for excitation with broadband band deuterium-light and with UV-LEDs adjusted to the substances under test. As an example, the quantification of glucosamine in nutritional supplements or spinach leaf extract will be described. Using simply heating of the amino-plate for derivation, the reaction product of Glucosamine can be detected sensitively either by light absorption or by fluorescence, using the new fiber-optic assembly. In addition, the properties of the new 3-row fiber-optic array and the commercially available UV-LEDs will be shown, in the interesting wavelength region for excitation of fluorescence, from 260 nm to 360 nm. The squint angle having an influence on coupling efficiency and spatial resolution will be measured with the inverse farfield method. Some properties of UV-LEDs for analytical applications will be described and discussed, too.
Previous studies of the hyphenation of gas chromatographic separation and spectrophotometric detection in the ultraviolet wavelength range between 168 and 330 nm showed a high potential for applications where the analysis of complex samples is required. Within this paper the development of a state-of-the-art detection system for compounds in the vapour phase is described, offering an improved behaviour compared to previous systems: Dependent on the requirements of established detection systems hyphenated with gas chromatography, the main components of the system have to be designed for optimum performance and reliability of the spectrophotometric detector: A deuterium lamp as a broadband light source has been selected for improved stability in the measurements. A new-type absorption cell based on fiber-optics has been developed considering the dynamic necessary to compete with existing techniques. In addition, the influence of the volume of the cell on the chromatogram needs to be analyzed. Tests for determining the performance of the absorption cell in terms of chemical and thermal influences have been carried out. A new spectrophotometer with adequate spectral resolution in the wavelength range, offering improved stability and dynamic for an efficient use in this application was developed. Furthermore, the influence of each component on the performance, reliability and stability of the sensor system will be discussed. An overview and outlook over the potential applications in the environmental, scientific and medical field will be given.
In this paper a practical way for fatigue life prediction of rubber products under multiaxial loads is shown. This is done by means of fracture mechanical concepts and the energy release rate as the failure criterion. Due to a FEA post-processor the potential energy release rate might be calculated at every material point supposed there was a crack. And therefore the risk of failure and with the help of a strain number curve the time to fatigue is able to be calculated by FEA. This concept is applied for an estimation of the life time of a test specimen with tensile loading from fatigue data of a shear loaded specimen of different design. This rather more theoretical concept of the energy release rate is complemented by experimental crack growth data by a Tear Fatigue Analyzer with its great advantage of reduction of testing time and costs compared to those of fatigue tests. For some materials a thorough characterization of crack growth and fatigue behavior is presented and is applied to estimate the time to fatigue by FEA for a real component under multiaxial loads.
Der Gesetzgeber verfolgt mit dem Gesetz über den Vorrang Erneuerbarer Energien (EEG) anders als die Vorläuferregelung das Ziel, den Anteil Erneuerbarer Energien an der Stromversorgung deutlich zu erhöhen. Unternehmen mit einem hohen Strombedarf sind von den damit verbundenen Kosten besonders betroffen.
Durch die Besondere Ausgleichsregelung des § 16 EEG sollen die Stromkosten von privilegierten Unternehmen mit einem hohen Strombedarf reduziert werden. Sie können unter bestimmten Voraussetzungen weitgehend von den durch die Vergütung des EEG entstehenden Kosten befreit werden.
Der nachfolgende Beitrag verdeutlicht am Beispiel von Unternehmen des produzierenden Gewerbes, dass dieses Regelungsziel für neu gegründete Unternehmen nachhaltig verfehlt wird. Entgegen der Ankündigung des Bundesumweltministeriums ist davon auszugehen, dass auch die geplante Novellierung des EEG diesbezüglich keine geeignete Abhilfe schaffen wird.
The authors present an abiotically catalyzed glucose fuel cell and demonstrate its application as energy harvesting power source for a cardiac pacemaker. This is enabled by an optimized DC-DC converter operating at 40 % conversion efficiency, which surpasses commercial low-power DC-DC converters. The required fuel cell surface area can thus be reduced from about 125 cm2 to 18 cm2, which would allow for its direct integration onto the pacemaker casing.
Having 22 GW of nominal power installed Germany is the leading nation in wind energy conversion. While the number of suitable installation sites ashore is limited, and the average windspeed and thus the utilization level offshore is significantly higher, more and more offshore wind farms are planned. In order to reduce the cost of building the foundations and of connecting the wind turbines to the power grid, the single plant is designed as powerful as possible and therefore the components become huge and weighty. For instance: In order to lift the nacelle with around 500 tons of weight up on the tower - which can be up to 120 m above the water level - at the time special ships and cranes are designed and built. But those firstly will be very expensive and secondly will be available only on a limited scale. Hence the installation cost of those huge wind turbines significantly influence the rentability of a wind farm. Against this background a joint research project supported by the German Federal Ministry for the Environment, Nature Conservation and Nuclear Safety (BMU) was started comprising the project partners Ed. Züblin AG, Berg-idl GmbH (an engineering company and a maker of special purpose machines in Altlußheim, Germany), the IPEK (institute for product development) at the university of Karlsruhe and the Hochschule Offenburg, university of applied science. Project target is the conceptual design of a heavy-duty elevator, which can be used to install the tower segments and the nacelle of a wind turbine offshore without a crane. The most relevant challenges in this context result of holding up extreme loads by means of comparatively filigree carrying structures. The paper shows some examples of structural analysis and optimization work accomplished during the project. For the structural analysis of the heavy loaded components ANSYS workbench was used. The development process was also supported by optimization tools like TOSCA and OPTIMUS. The linking of the FE solver and the optimizer provides important hints concerning improvement of the topology and the dimensions of the components. Examples of designs illustrate the development process and the methods applied.
Grundkurs Regelungstechnik
(2009)
Komprimierte, mathematisch ausgerichtete Einführung in Grundlagen der Regelungstechnik für Studierende der Ingenieurwissenschaften an Fachhochschulen und Universitäten. Neuausgabe von "Kompaktkurs Regelungstechnik" (ID 17/02), die um ca. 50 Seiten erweitert (Abschnitt über betriebliche Systeme) und durchgehend aktualisiert wurde. Ist jetzt auf Bachelorstudiengänge ausgerichtet und enthält zahlreiche Übungsaufgaben und durchgerechnete Beispiele. Die alte Ausgabe sollte ersetzt werden.
Today, thermoforming moulds are mostly produced using conventional mould-building technologies (e.g. milling and drilling) and are made of metal (e.g. aluminium or steel) or hardwood. The tools thus produced are very robust, but are only cost-effective in mass production. For the production of small batches of thermoformed parts, there is a need for moulds which can be produced quickly and economically. A new approach which significantly reduces the production time and cost is the 3D printing process (3DP). The use of this technology to produce thermoforming moulds offers many new options in the geometries which can be manufactured, and in manufacturing time and costs. In a case study of a thermoformed part (a scaled automotive model), the pre-processing of the CAD model of a mould is demonstrated. The mould can be printed within a few hours, and is sufficiently heat-resistant for moulding processes. The important advantages of moulds printed in 3D, in comparison to moulds built using conventional technologies, are the ability to create any shape of channels for the vacuum and the simplification in the production of tool mock-ups. This paper also discusses the economics of the technique, such as a comparison of material costs and manufacturing costs in relation to conventional production technologies and materials.
The series of conferences on Environmental Best Practices (EBP) was inaugurated at the University of Warmia and Mazury in Olsztyn, Poland in 2006 and continued at the Jagiellonian University in Kraków, Poland in 2009. This year the University of Applied Sciences Offenburg produly hosted the third event (EPB3).
We will present the first example of a two-dimensional scanned TLC-plate, measured by use of a diode-array scanner. A spatial resolution of 250 µm was achieved on plate. The system provides real 2D fluorescence and absorption spectra in the wavelength-range from 190 to 1000 nm with a spectral resolution of greater than 1 nm. A mixture of 12 sulphonamides was separated by using a cyanopropyl-coated silica gel plate (Merck, 1.16464) with the solvent mix of methyl tert-butyl ether-methanol-dichloromethane-cyclohexane-NH3 (25%) (48:2:2:1:1, v/v) in the first and with a mixture of water-acetonitrile-dioxane-ethanol (8:2:1:1, v/v) in the second direction. Both developments were carried out over a distance of 70 mm. A separation number (spot capacity) of 259 was calculated. We discussed a new formula for its calculation in 2D-TLC separations. The drawback of this method is that measuring a 2D-TLC plate needs more than 3 h measurement time.
Für langfaserverstärkte Thermoplaste (LFT) wird ein repräsentatives Volumenelement (RVE) für FEM-Simulationen generiert. Dies geschieht unter Berücksichtigung von mikrostrukturellen Kenngrößen wie Faserorientierungsverteilung, -volumengehalt und -längenverteilung, die für einen charakteristischen Werkstoffzustand experimentell ermittelt wurden. Mittels Mikrostruktursimulationen wird das Kriechverhalten von LFT untersucht. Das viskoelastische Verhalten der Matrix wird experimentell an Substanzproben aus Polypropylen ermittelt und in die RVE-Simulationen mit einem modifizierten Burgers-Modell implementiert. Schließlich werden die Rechnungen mit verschiedenen, fiktiven sowie experimentell ermittelten Faserlängenverteilungen mit Kriechversuchen am LFT verglichen. Es zeigt sich eine starke Abhängigkeit des Kriechverhaltens von der Faserlänge und eine hohe Prognosegüte der Simulationen, die die experimentell ermittelte Längenverteilung berücksichtigen.
Grundkurs Regelungstechnik
(2013)
Das Lehr- und Übungsbuch enthält in komprimierter Form neben einer kurzen Einführung in die Grundlagen eines Regelkreises bzw. der komplexen Zahlen und Laplace-Transformation, lineare kontinuierliche Systeme im Zeit- und Frequenzbereich. Weitere Themen sind die Entwürfe einer Regelung im Zeit- bzw. Frequenzbereich und Regelung ökonomischer Systeme, die zeigen, dass Geschäftsvorgänge in Unternehmen auch regelungstechnisch beschrieben und gedeutet werden können. Jeweils am Ende eines Kapitels werden erläuternde Beispiele und Übungsaufgaben mit Ergebnissen vorgestellt.
Weg- und Winkelsensoren
(2014)
Weg- und Winkelaufnehmer werden überall dort benötigt wo veränderliche Positionen, (Abstände, Längen oder Winkel) erfasst werden müssen, um entweder als reiner Messwert ausgegeben zu werden oder in einem Regelkreis zumeist die Regelgröße als Messwert zur Verfügung zu stellen. Grundsätzlich unterscheidet man zwischen berührenden (tastenden) und berührungslosen Aufnehmern. Zu den berührenden Sensoren zählen dabei alle Aufnehmer, die ein spezielles Messobjekt als Weg- oder Winkelvermittler benötigen, das während der Messung fest mit dem eigentlichen Messobjekt verbunden ist. Diese Bezeichnung gilt auch dann, wenn die eigentliche Messung gegen das vermittelnde Objekt im Endeffekt berührungslos erfolgt. Berührungslose Weg- und Winkelaufnehmer können ohne einen solchen Vermittler direkt gegen das zu vermessende Objekt messen.
Moderne, intelligente Schraubmontagesysteme sind heutzutage in der Lage, streckgrenzengesteuerte Anziehverfahren für die prozesssichere Verschraubung zur Verfügung zu stellen. Insbesondere im Hochmomentenbereich bis 200.000 Nm ist diese Technologie erst seit kurzem etabliert. Entwicklungsbedarf besteht jedoch, sobald Bauteile im Kraftfluss liegen, die im Lastbereich ein nichtlineares Materialverhalten zeigen, wie zum Beispiel Korrosionsschutz-Lackschichten. Im Bereich der Schraubmontage gibt es nahezu unzählige Einflussfaktoren auf das Erreichen der angestrebten Montagevorspannkraft. Diese sind nicht mit vertretbarem Aufwand vollständig in einem entsprechenden Berechnungs- oder Simulations-Modell zur Auslegung von Schraubenverbindungen abbildbar. Ausserdem hat jede Applikation ihre spezifischen individuellen Eigenheiten. Modelle und Simulationen von Schraubenverbindungen sind daher nur mit eingeschränktem Maße für andere Applikationen wiederverwendbar. Zur Reduzierung von Entwicklungszeiten und Einhaltung der normativen Forderungen sollte zukünftig ein schneller Abgleich der Modelle mit den Daten der gesamten Schraubenverbindung aus realitätsnahen Versuchen angestrebt werden. Normative Forderungen wie beispielsweise die VDI/VDE 2645, welche eine Maschinenfähigkeitsuntersuchung der verwendeten Schraubtechnik zum Schraubfall vom Anwender fordert, zeigen unter anderem die Notwendigkeit auf. Idealerweise finden entsprechende Messungen unter realen Bedingungen statt. Die ermittelten Daten beinhalten nicht nur die Eigenschaftsdaten der Schrauben und die der Plattenbauteile, sondern die des ganzen Systems inkl. aller individuellen Einflussfaktoren bis hin zum Werkzeug selbst. Moderne, intelligente Schraubmontagesysteme können diese Aufgabe erfüllen. Rechtzeitig eingesetzt liefern sie die Daten zur Optimierung von Berechnung, Auslegung sowie Simulation von Schraubenverbindungen und sichern somit den Berechnungsprozess ab. Damit ist es zum einem möglich, bis an die Grenzen des technisch maximal Möglichen zu gehen, zum anderen im Echt-Test Schwachstellen der Auslegung oder Materialfehler bereits vor der Serieneinführung zu erkennen. Dieser Beitrag soll Ihnen vermitteln, dass Sie mit Hilfe intelligenter Schraubmontagesysteme die Berechnung, Auslegung und Simulation von Schraubenverbindungen mit dem Produktions- und Montageprozess abgleichen können, und dies nicht nur über den Anziehfaktor αa - dem sog. "Montage-Unsicherheitsbeiwert". Der konkrete Nutzen liegt in der Erweiterung der bisherigen Auslegung von Schraubenverbindungen mit Lackierungen im Hochmomentenbereich, die von einem breiten Anwenderkreis verwendet werden wird. Damit gelingt es, bereits in der frühen Entwicklungsphase vor Serienfreigabe übermäßige Vorspannkraftverluste zu vermeiden, was für zukünftige optimierte Berechnungen und Konstruktionen sehr wichtig ist.
The main focus of this chapter is the theoretical and instrumental processes that underpin densitometric methods widely used in thin-layer chromatography (TLC). Densitometric methods include UV–vis, luminescence and fluorescence optical measurements as well as infrared and Raman spectroscopic measurements. The chapter is divided in two general parts: a theoretical part and a practical part. The systems for direct radioactivity measurements and the combination of TLC with mass spectrometry are also discussed. All these systems allow measuring an intensity distribution directly on a TLC plate. We call this “in situ detection” because no analyte is removed from the plate.
Der Beitrag behandelt ausgewählte Themenkomplexe im Zusammenhang mit der Vorspannung von Schraubenverbindungen im Stahlbau. Es werden verschiedene Anwendungen und damit verbundene Aspekte beleuchtet und diskutiert, zum Beispiel die Schraubensicherung durch Vorspannung oder die Steifigkeit der Verbindung. Dem vorangestellt ist eine kurze Einführung in die mechanische Wirkung der Vorspannung in der Verbindung sowie eine Vorstellung der Vorspannverfahren.
In this study the dynamics and stability of thin and electrically conductive aqueous films under the influence of a time-periodic electric field are explored. With the help of analytical linear stability analysis for long wavelength disturbances, the stability threshold of the system as a function of various electrochemical parameters and transport coefficients is presented. The contributions of parameters like surface tension, disjoining pressure, electric double layer (Debye length and interfacial zeta potential), and unsteady Maxwell and viscous stresses are highlighted with the help of appropriate dimensionless groups. The physical mechanisms affecting the stability of thin films are detailed with the above-mentioned forces and parametric dependence of stability trends is discussed.
Bud type carbon nanohorns (CNHs) are composed of carbon and have a closed conical tip at one end protruding from an aggregate structure. By employing a simple oxidation process in CO2 atmosphere, it is possible to open the CNH tips which increases their specific surface area by four fold. These tip opened CNHs combine the microporous nature of activated carbons and the crystalline mesoporous character of carbon nanotubes. The results for the high pressure CO2 gas adsorption of tip opened CNHs are reported herein for the first time and are found to be superior to traditional CO2 adsorbents like zeolites. The modified CNHs are also found to be promising materials for lithium ion batteries and the performance is found to be on a par with carbon nanotubes and carbon nanofibers.
In diesem Beitrag werden die Bereitstellungskosten flexibler Systemkomponenten im deutschen Stromsystem analysiert, zu deren Quantifizierung eine einheitliche Methodik entwickelt wird. Dabei ist das Ziel des Beitrags, zeitlich differenzierte Kostenpotenzialkurven für die Jahre 2015 und 2030 zu erarbeiten, anhand derer die energiespezifischen Kosten der markt- und systemdienlichen Flexibilitätsbereitstellung verglichen und die einzelnen Flexibilitätsoptionen in einen Gesamtkontext eingeordnet werden können.
Der Einsatz flexibler Systemkomponenten wird hierzu in die drei Hauptphasen (1) Vorhaltung, (2) Abruf und (3) Einsatzfolgen unterteilt, woraus sich drei kongruente Kostengruppen ableiten lassen, nach denen die einzelnen Kostenbestandteile identifiziert und als Ergebnis die Bereitstellungskosten quantifiziert werden. Neben fossil-thermischen Kraftwerken werden dabei bspw. die Kraft-Wärme-Kopplung, Biogasanlagen, Pumpspeicher- und Laufwasserkraftwerke sowie steuerbare Lasten untersucht.
Zur anschließenden Abbildung der teils negativen Bereitstellungskosten wird die herkömmliche Darstellungsform der Merit Order entlang der Ordinate um die Abbildung negative Werte erweitert und die Abszisse für die Abbildung negativer Flexibilität in umgekehrter Reihenfolge angeordnet. Das Ergebnis sind zwei zusammenhängende Graphen, mittels derer sich die Bereitstellungskosten verschiedener Flexibilitätsoptionen gegenüberstellen und anschaulich vergleichen lassen.
Durch die Festlegung eines Rahmenszenarios zur Entwicklung des deutschen Stromsystems bis zum Jahr 2030 wird anschließend auch die zukünftige Perspektive der Flexibilitätsbereitstellung in Deutschland analysiert. Aus den Ergebnissen lässt sich ableiten, dass der deutsche Kraftwerkspark mit einem fortschreitenden Rückbau der Kohlekraftwerke nur dann zunehmend flexibler wird und auf höhere Schwankungen im Stromnetz reagieren kann, wenn von einem gleichzeitigen Zubau moderner erdgasbetriebener Kraftwerke ausgegangen wird. In diesem Fall steigen die Bereitstellungskosten positiver Flexibilität, was sich beispielsweise durch zukünftig steigende Brennstoffpreise bergründen lässt. Jedoch kann bspw. durch die Transformation der Kraft-Wärme-Kopplung hin zu einer grundsätzlich stromgeführten Fahrweise zukünftig eine vergleichsweise kostengünstige Flexibilitätsbereitstellung erschlossen und somit auch ein gleichbleibendes oder oftmals sogar höheres Flexibilitätsniveau am Markt erreicht werden.
In den letzten Jahren sind verstärkt große Batteriespeichersysteme in der Mittel- und Hochspannungsebene in Deutschland installiert worden. Neben dem Einsatz für lokale Anwendungszwecke wie Eigenverbrauchsmaximierung oder Lastspitzenkappung sind seit 2016 etwa 250 MW aus Batteriespeichern für die Teilnahme am Markt für Primärregelleistung (PRL) präqualifiziert worden. Damit können bereits 40 % des aktuellen Bedarfs der deutschen Übertragungsnetzbetreiber (ÜNB) gedeckt werden. Für einen zuverlässigen Betrieb von Batteriespeichern sind intelligente Betriebsstrategien erforderlich, die im Rahmen dieser Analyse vorgestellt werden.
The present document is aimed to propose a suitable thermal model for the cooling down process of a one piston air cooled reciprocating compressor. In order to achieve this, a thermographic camera is used to record the temperature of different measuring points throughout different operating conditions. This data is later analyzed, with statistical tools and graphical visualization. The thermal phenomena present in the thermal process is characterized according to the compressors' geometry. Finally, using the analysis and taking into consideration the thermal phenomena the optimal thermal model is selected. This paper belongs to a bigger project and the last step is to simulate the compressor and the accuracy of the proposed model.
As society continues to age, the implementation of hip stems increases every year. However, there are a variety of different hip stem designs.
The aim of this project is to analyze which hip stem design implemented in a femur is most effective under different static loading conditions such as gait and sideways falling. In addition, a four-point-bending test was carried out. Therefore, the tech-niques were simulated in silico by FEA with Abaqus/CAE 2019.
A short stem, a straight stem and an anatomical stem were tested. All prosthesis are cementless press-fit stems. Each hip stem was examined in physiological and osteoporotic bone applying all three tests. To compare the stems the tests were also applied on a native bone model as a reference. Boundary conditions were used in order to simulate the tests.
The average von Mises stress, tension, compression and the risk of fracture were extracted and compared.
Biomechanical results show that the straight stem induces higher von Mises stresses compared to the anatomical stem. The risk of fracture is higher for osteo-porotic bone than for physiological bone. However, there is no risk of fracture as all the results are below the risk of value.
Micronization of biochar (BC) may ease its application in agriculture. For example, fine biochar powders can be applied as suspensions via drip-irrigation systems or can be used to produce grnulated fertilizers. However, micronization may effect important physical biochar properties like the water holding capacity (WHC) or the porosity.
Energietechnik
(2022)
Dieses Lehrbuch vermittelt ein grundlegendes, dennoch kurz gefasstes Verständnis für die Zusammenhänge der Energieumwandlungsprozesse und umfasst dabei die gesamte Bandbreite der Energietechnik. Die Schwerpunkte reichen von der kompletten Beschreibung der konventionellen und vor allem nachhaltigen, erneuerbaren Energietechniken, über Gas- und Dampfturbinen-Kraftwerke sowie Kraft-Wärme-Kälte-Kopplungsanlagen bis hin zur Energiespeicherung, Energieverteilung und abschließend zu einem Abriss der Globalen Erwärmung mit zugehöriger Klimapolitik.
In der aktuellen Auflage wurden mehrere Kapitel von neuen Autoren überarbeitet und teils grundlegend neu verfasst. Die aktuellen politischen Änderungen wurden u. a. in den verschiedenen Kapiteln der erneuerbaren Techniken, der Energieverteilung sowie der Marktliberalisierung und Energiewende durch sorgfältige Überarbeitungen eingebracht.
Unter fossilen Energieträgern verstehen sich energie- und kohlenstoffhaltige Stoffe, die in mehreren Millionen Jahren aus Biomassen unter dafür günstigen Bedingungen (Sauerstoffausschluss) gebildet wurden. Das geologische Alter von Steinkohle beträgt über 250 Millionen Jahre, das von Braunkohle ca. 50 Millionen. Derzeit werden deutlich mehr fossile Energieträger verbraucht als nachgebildet. Während in Deutschland die Stilllegung von Dampfkraftwerken, die mit Steinkohle befeuert werden, begonnen hat, steigt global der Verbrauch dieser Brennstoffe weiterhin an. Die Steinkohleförderung erreichte im Jahr 2019 weltweit den Wert von 7,3 Milliarden Tonnen, mit einer Steigerung von immerhin fast 3 % gegenüber dem Vorjahr 2018 nach [1]. Dieser Anstieg erfolgte hauptsächlich in China und Indonesien – in Deutschland ging der Kohleverbrauch in diesem Zeitraum zurück.
Diese Arbeit beschäftigt sich mit der simulativen Untersuchung von Strömung und Wärmeübergang im Kontext von Vorkammerzündsystemen. Dies geschieht im Rahmen der Entwicklung eines Gasmotors mit gasgespülter Vorkammer. Entscheidene Größen für die Strömung und Arbeitsweise in einer Vorkammerzündkerze sind die Geometrie und Anordnung der Überströmbohrungen, das Vorkammervolumen und die Form der Vorkammer. Die Betrachtung wird dafür aufgeteilt in die Themen Spaltströmungen, Wärmeübergang und drallbehaftete Strömungen. Diese werden zunächst isoliert betrachtet und letztendlich in einem Anwendungsfall zusammengeführt. Für die Betrachtung von Spaltströmungen werden unterschiedliche Platten mit Bohrlöchern zu verschiedenen Drücken, Durchmessern und Plattenstärken durchströmt und der Wärmeübergang und der Drall werden mithilfe einer durch Leitbleche gelenkte Strömung in einem beheizten Rohr untersucht. Die Zusammenführung der Themen wird anhand einer Anströmvorrichtung für Brenngase auf Motorzylinder durchgeführt. Dabei erreichen die Gase hohe Temperaturen und aufgrund von hohen Drücken und Spaltströmungen große Geschwindigkeiten.
Für die Simulation werden die Programme Ansys Fluent und Ansys Forte verwendet. Während ersteres primär für die Simulation von Strömungen verwendet wird, ist Forte speziell aufgebaut, um in Verbrennungsmotoren neben der Berechnung der Strömung auch die Einspritzung von Kraftstoff, die Verbrennung dessen und die resultierenden Schadstoffe zu berechnen. Da die Ergebnisse aus Forte eine große Gewichtung in der Beurteilung der Entwicklungsarbeit des Gasmotors hat, muss Forte selbst validiert werden. Dies wird durchgeführt anhand der angesprochenen Teilthemen und verglichen mit Messungen aus der Literatur und Simulationsergebnissen in Fluent.
In this paper, the effect of the polycrystalline microstructure on crack-tip opening displacement and crack closure is investigated for microstructural short plane strain fatigue cracks using the finite-element method. To this end, cracks are introduced in synthetically generated microstructures and the grain properties are described using a single crystal plasticity model with kinematic hardening. Additionally, finite-element calculations without resolved microstructure and von Mises plasticity with kinematic hardening are performed. Fully-reversed strain-controlled cyclic loadings are considered under large-scale yielding conditions as typical for low-cycle fatigue problems. The crack opening stress and the cyclic crack-tip opening displacement are significantly influenced by the local grain structure. While the stabilized crack opening stresses obtained with the microstructure-based finite-element model are in good accordance with the von Mises plasticity results, the differences in the cyclic crack opening displacement are addressed to the asymmetric plastic strain fields in the plastic wake behind the crack-tip of the microstructure-based model. The asymmetric plastic strain fields result in discontinuous and premature contact of the crack flanks.
In this paper, the influence of the material hardening behavior on plasticity-induced fatigue crack closure is investigated for strain-controlled loading and fully plastic, large-scale yielding conditions by means of the finite element method. The strain amplitude and the strain ratio are varied for given Ramberg–Osgood material properties representing materials with different hardening behavior. The results show a pronounced influence of the hardening behavior on crack closure, while no significant effect is found from the considered strain amplitude and strain ratio. The effect of the hardening behavior on the crack opening stress cannot be described by existing crack opening stress equations.
Diese Bachelorarbeit behandelt die Konstruktion eines Vakuumtisches, welcher zum Fixieren dünner, flexibler Materialien in Lasermaschinen verwendet wird. Das Hauptaugenmerk der Arbeit liegt auf der methodischen Konstruktion des Vakuumtisches, welche anhand einer detaillierten Anforderungsliste erfolgt. Es wird eine Konzeptidee ausgearbeitet, welche den preislichen Rahmen nicht einhalten kann. Durch Vereinfachung der in der Baugruppe enthaltenen Komponenten wie auch der physikalischen Wirkprinzipien in der Baugruppe kann in einem zweiten Konzept eine deutlich preiswertere Konstruktion realisiert werden. Anhand eines Prototypen wird die Funktion und das Verhalten des Vakuumtisches erprobt und bewertet.
Linear acceleration is a key performance determinant and major training component of many sports. Although extensive research about lower limb kinetics and kinematics is available, consistent definitions of distinctive key body positions, the underlying mechanisms and their related movement strategies are lacking. The aim of this ‘Method and Theoretical Perspective’ article is to introduce a conceptual framework which classifies the sagittal plane ‘shin roll’ motion during accelerated sprinting. By emphasising the importance of the shin segment’s orientation in space, four distinctive key positions are presented (‘shin block’, ‘touchdown’, ‘heel lock’ and ‘propulsion pose’), which are linked by a progressive ‘shin roll’ motion during swing-stance transition. The shin’s downward tilt is driven by three different movement strategies (‘shin alignment’, ‘horizontal ankle rocker’ and ‘shin drop’). The tilt’s optimal amount and timing will contribute to a mechanically efficient acceleration via timely staggered proximal-to-distal power output. Empirical data obtained from athletes of different performance levels and sporting backgrounds are required to verify the feasibility of this concept. The framework presented here should facilitate future biomechanical analyses and may enable coaches and practitioners to develop specific training programs and feedback strategies to provide athletes with a more efficient acceleration technique.
Decarbonisation Strategies in Energy Systems Modelling: Biochar as a Carbon Capture Technology
(2022)
The energy system is changing since some years in order to achieve the climate goals from the Paris Agreement which wants to prevent an increase of the global temperature above 2 °C. Decarbonisation of the energy system has become for governments a big challenge and different strategies are being stablished. Germany has set greenhouse gas reduction limits for different years and keeps track of the improvement made yearly. The expansion of renewable energy systems (RES) together with decarbonisation technologies are a key factor to accomplish this objective.
This research is done to analyse the effect of introducing biochar, a decarbonisation technology, and study how it will affect the energy system. Pyrolysis is the process from which biochar is obtained and it is modelled in an open-source energy system model. A sensibility analysis is made in order to assess the effect of changing the biomass potential and the costs for pyrolysis.
The role of pyrolysis is analysed in the form of different future scenarios to evaluate the impact. The CO2 emission limits from the years 2030 and 2045 are considered to create the scenarios, as well as the integration of flexibility technologies. Four scenarios in total are assessed and the result from the sensibility analysis considering pyrolysis are always compared to the reference scenario, where pyrolysis is not considered.
Results show that pyrolysis has a bigger impact in the energy system when the CO2 limit is low. Biochar can be used to compensate the emissions from other conventional power plant and achieve an energy transition with lower costs. Furthermore, it was also found that pyrolysis can also reduce the need of flexibility. This study also shows that the biomass potential and the pyrolysis costs can affect a lot the behaviour of pyrolysis in the energy system.
In this work, time-independent and time-dependent plasticity models are presented that are well suited for the calculation of stresses and strains with the finite-element method to assess the low-cycle and thermomechanical fatigue life of engineering components. The focus are plasticity models that are available in finite-element programs nowadays as standard material models and describe isotropic and kinematic hardening, strain-rate dependency as well as static recovery of hardening. For the presented models, aspects relevant for the application of the models are addressed as the determination of the material properties and the numerical implementation. Nevertheless, the plasticity models are also embedded in the thermodynamic framework used for the derivation of thermodynamically consistent plasticity models. Only uniaxial formulations are used to achieve a good readability and preventing the use of tensors.
Im Projekt „BioMeth“ wurden zwei neuartige und bislang noch nicht für die biologische Methanisierung beschriebene Anlagenkonzepte entwickelt. Der neuentwickelte Invers-Membranreaktor (IMR) ermöglicht es, den Eintrag der erforderlichen Eduktgase Wasserstoff H2 und Kohlendioxid CO2 über kommerziell erhältliche Ultrafiltrationsmembranen und den Entgasungsbereich für den Methanaustrag räumlich zu trennen und zusätzlich einen hydraulischen Druck zur Steigerung des Wasserstoffeintrages zu nutzen. Ein Vorteil des Verfahrens ist, dass perspektivisch sowohl das CO2 aus klassischem Biogas als auch CO2-Quellen aus industriellen Abluftströmen, z. B. aus der Zementindustrie als Kohlenstoffquelle genutzt werden können.
Über die biologische Methanisierung hinaus eignet sich der Invers-Membranreaktor der Einschätzung der Autoren nach auch generell zur biotechnologischen Herstellung nicht-flüchtiger Wertstoffe ausgehend von gasförmigen Substraten. Im IMR kann z. B. ein Membranmodul zum Eintrag der Eduktgase verwendet werden, während ein weiteres Hohlmembranmodul zur zyklischen oder kontinuierlichen Abtrennung der wertstoffhaltigen Reaktionslösung unter Rückhaltung der Mikrobiologie im Sinne eines In-situ Product Recovery (ISPR)-Konzeptes genutzt werden kann.
Als herausragendes Ergebnis erwies sich während der Untersuchung des IMR, dass mit dem Konzept der Membranbegasung CH4-Konzentrationen von > 90 Vol.-% über eine einjährige Versuchsreihe kontinuierlich und mit flexiblem Gaseintrag erzielt werden konnten. Nach Inbetriebnahme war dabei außer der Zugabe von H2 und CO2 als Energie- bzw. C-Quelle lediglich eine zweimalige Ergänzung von Supplementen erforderlich. Die maximal erreichte membranflächen-spezifische Methanbildungsrate ohne Gaszirkulation lag bei 83 LN Methan pro m2 Membranfläche und Tag bei einer Produktgaszusammensetzung von 94 Vol.% Methan, 2 Vol.% H2, und 4 Vol.% CO2.
Das zweite noch in der frühen Testphase befindliche Verfahren nutzt Druckunterschiede in einer 10 m hohen gepackten Gegenstromblasensäule, die mit einem ebenfalls 10 m hohen separaten Entgasungs-Reaktor kombiniert wurde. Diese Verfahrenskonzept soll es ermöglichen, eine hohe Wasserstofflöslichkeit aufgrund des am Säulenfuß vorliegenden hydrostatischen Druckes zu erreichen und dabei gleichzeitig den Energiebedarf zu minimieren, die Investitionskosten zu reduzieren und optimale zeitliche und räumlichen Bedingungen für die mikrobiologische Umsetzung von H2 und CO2 zu schaffen. Erste Untersuchungen am Gegenstromblasensäulenreaktor zum Stoffübergang von Luft bestätigten eine gute Anreicherung der im Kreislauf geführten Flüssigkeit bereits bei verhältnismäßig niedrigen Gasleerrohrgeschwindigkeiten. In der zweiten Säule des Reaktoraufbaus sollte am Kopf aufgrund der Druckentspannung ein Ausgasen der im Vergleich zu Atmosphärendruck mit Gas übersättigten Flüssigkeit erfolgen. Das Ausgasen der Flüssigkeit konnte ebenfalls am Beispiel des Lufteintrages bestätigt werden.
Research is often conducted to investigate footwear mechanical properties and their effects on running biomechanics, but little is known about their influence on runner satisfaction, or how well the shoe is perceived. A tool to predict runner satisfaction in a shoe from its mechanical properties would be advantageous for footwear companies. Data in this study were from a database (n = 615 subject-shoe pairings) of satisfaction ratings (gathered after participants ran on a treadmill), and mechanical testing data for 87 unique subjects across 61 unique shoes. Random forest and elastic net logistic regression models were built to test if footwear mechanical properties and subject characteristics could predict runner satisfaction in 3 ways: degree-of-satisfaction on a 7-point Likert scale, overall satisfaction on a 3-point Likert scale, and willingness-to-purchase the shoe (yes/no response). Data were divided into training and validation sets, using an 80–20 split, to build the models and test their accuracy, respectively. Model accuracies were compared against the no-information rate (i.e. proportion of data belonging to the largest class). The models were not able to predict degree-of-satisfaction or overall satisfaction from footwear mechanical properties but could predict runner’s willingness to purchase with 68–75% accuracy. Midsole Gmax at the heel and forefoot appeared in the top five of variable importance rankings across both willingness-to-purchase models, suggesting its role as a major factor in purchase decisions. The negative regression coefficient for both heel and forefoot Gmax indicated that softer midsoles increase the likelihood of a shoe purchase. Future models to predict satisfaction may improve accuracy with the addition of more subject-specific parameters, such as running goals or foot proportions.
Rehabilitationsmaßnahmen nach Unfällen oder Krankheiten sind oft langwierig und häufig mit Schmerzen sowie Frustration verbunden – und Ähnliches gilt für Präventionstraining. Die spielerische Anreicherung des Trainings (im Folgenden: Gamification) kann dieser Entwicklung durch die Steigerung des Spaßfaktors entgegenwirken. Im Gegensatz zu regulären Spielen kann es durch die höhere Motivation und Immersion im Training allerdings zu einer verminderten Schmerzwahrnehmung und damit einer Verschlechterung des Gesundheitszustands bis hin zu einer erneuten Verletzung kommen. Daher war es bislang erforderlich, solche Ansätze kontinuierlich therapeutisch zu begleiten. Für eine autonome Intervention, zur Entlastung von Therapeuten, aber auch im Heimbereich ist eine automatisierte Anpassung des Schwierigkeitsgrads des Bewegungstrainings und eine individualisierte Zielsetzung und -kontrolle von zentraler Bedeutung. Diese Herausforderung ist in bestehenden Ansätzen zu wenig adressiert bzw. beschrieben worden. Der Einsatz künstlicher Intelligenz kann hier einen entscheidenden Beitrag zu leisten – insbesondere hybride Ansätze, die expertenbasierte Entscheidungsbäume mit Verfahren des maschinellen Lernens kombinieren, könnten in der Zukunft einen wichtigen Beitrag zu einer erfolgreichen Rehabilitation und Prävention liefern.
Rising societies’ demands require more sustainable products and technologies. Although numerous methods and tools have been developed in the last decades to support environmental-friendly product and process development, an interdisciplinary knowledge base of eco-innovative examples linked to the eco-innovative problems and solution principles is lacking. The paper proposes an ontology of examples for eco-friendly products and technologies assigned to the Inventive Principles (IPs) of the TRIZ methodology in accordance with the German TRIZ Standard VDI 4521. The examples of sustainable technologies and products build a database for sharing and reusing eco-innovation knowledge. The ontology acts as a tool for systematic solving of specific environmental problems in typical life cycle phases, for different environmental impact categories and engineering domains. Finally, the paper defines a future research agenda in the field of the TRIZ-based systematic eco-innovation.
Eco-Feasibility Study and Application of Natural Inventive Principles in Chemical Engineering Design
(2022)
The early stages of the front-end process development are critical for the future success of projects involving new technologies. The application of eco-inventive principles identified in natural systems to the design of chemical processes and equipment allows one to find ways to mitigate or avoid secondary ecological problems such as, for example, higher consumption of raw materials or energy, generation of hazardous waste and pollution of the environment by toxic chemicals. However, before implementing a new technology in a real operational environment, it is necessary to completely investigate its undesirable ecological impact and to evaluate the future viability of this technology. Therefore, the research paper presents a study of ecological feasibility of an innovative process design utilising natural eco-inventive principles and analyses the correlations between applied inventive principles. Such eco-feasibility study can be considered as an important decision gate to determine whether the technology implementation should be moved forward. Furthermore, the study evaluates the practicability of natural inventive principles to the eco-friendly process design and is illustrated with an example of a sustainable technology for nickel extraction from pyrophyllite.
Running footwear is continuously being modified and improved; however, running-related overuse injury rates remain high. Nevertheless, novel manufacturing processes enable the production of individualized running shoes that can fit the individual needs of runners, with the potential to reduce injury risk. For this reason, it is essential to investigate functional groups of runners, a collective of runners who respond similarly to a footwear intervention. Therefore, the objective of this study was to develop a framework to identify functional groups based on their individual footwear response regarding injury-specific running-related risk factors for Achilles tendinopathy, Tibial stress fractures, Medial tibial stress syndrome, and Patellofemoral pain syndrome. In this work, we quantified the footwear response patterns of 73 female and male participants when running in three different footwear conditions using unsupervised learning (k-means clustering). For each functional group, we identified the footwear conditions minimizing the injury-specific risk factors. We described differences in the functional groups regarding their running style, anthropometric, footwear perception, and demographics. The results implied that most functional groups showed a tendency for a single footwear condition to reduce most biomechanical risk factors for a specific overuse injury. Functional groups often differed in their hip and pelvis kinematics as well as their subjective rating of the footwear conditions. The footwear intervention only partially affected biomechanical risk factors attributed to more proximal joints. Due to its adaptive nature, the framework could be applied to other footwear interventions or performance-related biomechanical variables.
This review provides an overview on the production and analysis techniques of antioxidative peptides from food proteins. Regarding the production of antioxidative peptides, interlinked factors must be considered. Depending on the protein substrate, different peptidases or peptidase systems containing multiple enzymes as well as a specific production process must be chosen. The antioxidative peptides might be produced in a batch process including multiple pre- and post-treatments, besides the hydrolyses with peptidases itself. As an alternative, the potential of continuous production systems is discussed in this review. Furthermore, robust analyses tools are needed to gain control of the process and final product properties. With no standardized methodology available for antioxidative peptide evaluation, pros and cons of various strategies for peptide separation and antioxidative measurement are discussed in this review. Therefore, this review provides a roadmap for antioxidative peptide generation from various sources for research and development as well as for potential industrial use.
BACKGROUND
Various neutral and alkaline peptidases are commercially available for use in protein hydrolysis under neutral to alkaline conditions. However, the hydrolysis of proteins under acidic conditions by applying fungal aspartic peptidases (FAPs) has not been investigated in depth so far. The aim of this study, thus, was to purify a FAP from the commercial enzyme preparation, ROHALASE® BXL, determine its biochemical characteristics, and investigate its application for the hydrolysis of food and animal feed proteins under acidic conditions.
RESULTS
A Trichoderma reesei derived FAP, with an apparent molecular mass of 45.8 kDa (sodium dodecyl sulfate–polyacrylamide gel electrophoresis; SDS-PAGE) was purified 13.8-fold with a yield of 37% from ROHALASE® BXL. The FAP was identified as an aspartate protease (UniProt ID: G0R8T0) by inhibition and nano-LC-ESI-MS/MS studies. The FAP showed the highest activity at 50°C and pH 4.0. Monovalent cations, organic solvents, and reducing agents were tolerated well by the FAP. The FAP underwent an apparent competitive product inhibition by soy protein hydrolysate and whey protein hydrolysate with apparent Ki-values of 1.75 and 30.2 mg*mL−1, respectively. The FAP showed promising results in food (soy protein isolate and whey protein isolate) and animal feed protein hydrolyses. For the latter, an increase in the soluble protein content of 109% was noted after 30 min.
CONCLUSION
Our results demonstrate the applicability of fungal aspartic endopeptidases in the food and animal feed industry. Efficient protein hydrolysis of industrially relevant substrates such as acidic whey or animal feed proteins could be conducted by applying fungal aspartic peptidases. © 2022 Society of Chemical Industry.
Acoustic waves are investigated which are guided at the edge (apex line) of a wedge-shaped elastic body or at the edge of an elastic plate. The edges contain a periodic sequence of modifications, consisting either of indentations or inclusions with a different elastic material which gives rise to high acoustic mismatch. Dispersion relations are computed with the help of the finite element method. They exhibit zero-group velocity points on the dispersion branches of edge-localized acoustic modes. These special points also occur at Bloch-Floquet wavenumbers away from the Brillouin zone boundary. Deep indentations lead to flat branches corresponding to largely non-interacting, Einstein-oscillator like vibrations of the tongues between the grooves of the periodic structure. Due to the nonlinearity of the elastic media, quantified by their third-order elastic constants, an acoustic mode localized at a periodically modified edge generates a second harmonic which partly consists of surface and plate modes propagating into the elastic medium in the direction vertical to the edge. This acoustic radiation at the second-harmonic frequency is investigated for an elastic plate and a truncated sharp-angle wedge with periodic inclusions at their edges. Unlike nonlinear bulk wave generation by surface acoustic waves in an interdigital structure, surface and plate mode radiation by edge-localized modes can be visualized directly in laser-ultrasound experiments.
In den letzten 100 Jahren hat sich die mittlere Temperatur der Erdoberfläche um etwa 0,6 bis 0,8 °C erhöht. Diese Temperatur korreliert mit der Zunahme der CO2-Konzentration in der Erdatmosphäre. CO2 sowie verschiedene andere Gase erzeugen eine Erwärmung der Atmosphäre, da diese das sichtbare Licht (kurzwellige elektromagnetische Wellen) in Wärme umwandeln (längerwellige elektromagnetische Wellen, Infrarot-Strahlung), die weniger gut in das Weltall abgestrahlt wird und somit die Atmosphäre langfristig erwärmt. Dieser Effekt wird für die solare Erwärmung der Gewächshäuser bzw. Treibhäuser (Greenhouses) genutzt.
Die Eigenschaften von Fluiden sind zur Beschreibung von Strömungsvorgängen mit den Erhaltungssätzen für Masse, Impuls und Energie notwendig. Für inkompressible Fluide wird die Grenze der Dichteänderung in Abhängigkeit der Machzahl angegeben. Die Rheologie behandelt die Fließeigenschaften der Fluide bei Deformationen in Strömungen. Die Viskosität tritt beim newtonschen Schubspannungsansatz auf. Das Verhalten von Druck und Dichte in der Hydro- und Aerostatik wird beschrieben.
Ausgehend von eindimensionalen reibungsfreien Strömungen wird die Bernoulli-Gleichung und die Energiebilanz hergeleitet. Mit der Eulerschen Betrachtungsweise wird der Unterschied zwischen stationären und zeitabhängigen Strömungen verdeutlicht und an zahlreichen Beispielen angewandt. Die zweidimensionalen reibungsfreien und inkompressiblen Strömungen werden mit der Potenzialtheorie behandelt. Die Lösungseigenschaften werden am Beispiel der Zylinderumströmung ohne und mit Zirkulation aufgezeigt.
Die Navier-Stokes Gleichungen bilden mit der Energiegleichung die Basis zur Beschreibung reibungsbehafteter Strömungen. Kennzahlen bilden die Grundlage der Ähnlichkeitsbetrachtungen und Modellgesetze. Lösungen werden für laminare und turbulente Strömungen ermittelt. Der Impulssatz dient zur Berechnung von Kraftwirkungen. Druckverluste bei Durchströmungen und Strömungswiderstände bei Umströmungen werden an Beispielen ermittelt. Die Grenzschichttheorie findet bei hohen Reynoldszahlen Anwendung.
Gasdynamik
(2022)
Für kompressible Strömungen werden die Erhaltungssätze für Masse, Impuls und Energie hergeleitet. Die Eigenschaften der Stoßgleichungen wie Rankine-Hugoniot-Relation und Rayleigh-Gerade werden betrachtet. Zur Berechnung der Kräfte auf umströmte Körper werden die Auftriebs- und Widerstandsbeiwerte ermittelt. Auf der Basis der Stromfadentheorie wird die Auslegung von Lavaldüsen behandelt. Das physikalische Verhalten linearer Unter- und Überschallströmungen und transsonischer Profilumströmungen wird analysiert.
Die Kombination von Reibung und Kompressibilität wird bei der Rohrströmung, der Kugelumströmung und der laminaren und turbulenten Plattengrenzschicht untersucht. Das Auftreten von Verdichtungsstößen führt zur Stoß-Grenzschicht-Interferenz und auf den Tsien-Parameter. Die Mach-Reynoldszahl Ähnlichkeit in der Gasdynamik führt zur Abgrenzung der verschiedenen Strömungsbereiche. Resultate von Windkanaluntersuchungen sowie analytischen und numerischen Berechnungen werden für das Rhombusprofil und das NACA 0012 Profil analysiert.
Gasturbinen-Kraftwerke
(2022)
Das Wort Gasturbine rührt nicht vom Brennstoff her, der gasförmig, flüssig oder sogar fest sein kann, sondern vom gasförmigen Arbeitsmedium, das bei üblichen offenen Gasturbinen Luft und nach der inneren Verbrennung Luft-Rauchgas ist. Der Brennstoff wird dem angesaugten Arbeitsmedium Luft zugeführt, so dass eine innere Verbrennung stattfindet. Das Abgas wird bei den üblichen offenen Gasturbinen in die Atmosphäre abgegeben.
Kombinationskraftwerke
(2022)
Kolbenmotoren finden in der Energieversorgung vielfältig Verwendung als Notstromaggregate, als Antrieb für Pumpen in Großkraftwerken und in dezentralen Blockheizkraftwerken (BHKW). Motoren für Notstromaggregate und zum Antrieb von Arbeitsmaschinen werden meist mit Diesel-Kraftstoff betrieben. In BHKW dominieren Gasmotoren, wobei Erdgas, Bio-, Deponie- oder Klärgas bevorzugt sind. Die wesentliche Thermodynamik der Otto-, Diesel- und Stirling-Motoren wird in Kürze behandelt, während die Gasmotoren tiefere Behandlung finden. Die Motoren für die Energieversorgung stammen i. Allg. von mobilen Anwendungen ab und werden an die energietechnischen Anwendungen angepasst. Technische Details der Motoren sind in der Fachliteratur zu finden, z. B. [1]. Die Website [2] gibt einen umfassenden Überblick über Hersteller und deren Kolbenmotoren.
Die thermischen Wirkungsgrade von Kraftwerken zur Stromerzeugung sind relativ gering. Beispielsweise erreichen moderne Kohlekraftwerke heute bis etwa 45 %, Gasturbinen maximal 40 % sowie Diesel-und Gas-Motoren bis ca. 50 %. Kombinations-Kraftwerke, d. h. Gas- und Dampfturbinen-Prozesse, können über 60 % thermischen Wirkungsgrad bei der Umwandlung der zugeführten Wärme in mechanische bzw. elektrische Energie erzielen. Ein ähnlich hoher Wert wird in Zukunft von den Brennstoffzellen erwartet. Der nicht in Arbeit umgewandelte Anteil der zugeführten Wärme fällt als Abwärme an und geht ungenutzt in die Umgebung. Ein Teil dieser Abwärme lässt sich durch entsprechende Installationen bei allen Kraftwerksprozessen zur Wassererwärmung oder zur Dampferzeugung für industrielle Zwecke nutzen. Für Heiz- und Prozesswärme genügt eine Temperatur der Abwärme von 60 bis 80 °C, während die Erzeugung von Industriedampf deutlich höhere Temperaturen voraussetzt.
Wasserkraftwerke
(2022)
Die Wasserkraft ist global die bedeutendste erneuerbare Energiequelle zur Stromerzeugung. Sie hat in Deutschland allerdings einen stagnierenden Anteil von nur ca. 3,5 % der gesamten Stromerzeugung. In Deutschland wurde die Wasserkraft bei der Stromerzeugung durch die Windkraft, Photovoltaik und sogar von der Biomassevergasung überholt. Die Wasserkraft ist allerdings eine gut berechenbare Energiequelle und unterliegt nicht den nur kurzfristig vorhersehbaren Schwankungen der Wind- und Solarenergien.
Solartechnik
(2022)
Die Erde ist ein Empfänger für kosmische Strahlungen. Sie empfängt nur einen winzigen Bruchteil der von der Sonne ausgesendeten elektromagnetischen Strahlung. Dieser Bruchteil ist im Wesentlichen bestimmt durch den Abstand zwischen Sonne und Erde und durch das Verhältnis der Durchmesser von Erde und Sonne. Außerhalb der Erdatmosphäre, also extraterrestrisch, werden vom World Radiation Center WRC je Quadratmeter horizontaler Empfängerfläche 1,367 kW/m2 ± 1 % konstant über das gesamte Jahr gemessen.
Das Wort Geothermie kommt aus dem Griechischen und setzt sich aus „Geo“ = Erde und „Thermie“ = Wärme zusammen. Bei der Geothermie wird die Wärme des warmen Untergrunds genutzt. Geothermie ist eine regenerative (CO2 freie), stetig verfügbar, von Witterungseinflüssen, Tages- und Jahreszeiten unabhängige Energiequelle, was sie von anderen regenerativ/erneuerbaren Energien wie z. B. Wind und Photovoltaik unterscheidet. Tiefengeothermische Kraftwerke sind grundlastfähig und können andere CO2 intensive Grundlastkraftwerke wie Steinkohlekraftwerke ersetzen. Es wird die oberflächennahe (0–400 m) und die tiefe Geothermie (> 400 m) unterschieden. Oberflächennahe Geothermie wird zur Wärmeversorgung von Gebäuden eingesetzt. Tiefe Geothermie kommt zur Strom- und Wärmeerzeugung zum Einsatz.
Energetische Müllverwertung
(2022)
In den 1970er-Jahren entstand in der Bundesrepublik Deutschland das Bewusstsein für die Problematik von Mülldeponien mit ihren Sickerwässern und entweichenden Gasen. Die lokalen Müllkippen wurden zugunsten weniger zentraler, überwachter Anlagen geschlossen (Faustregel: Eine Zentraldeponie pro Landkreis).
Energiespeicherung
(2022)
Der Endverbraucher erwartet die Energielieferung direkt an den Verbrauchsort. Er unterhält für die elektrische Energie und das Erdgas keine Vorratshaltung, weshalb diese bedarfsgleich geliefert werden müssen. Energiespeicher entkoppeln die Primärenergiegewinnung, z. B. im Bergbau, und die Energieumwandlung beim Versorger einerseits und den Energieverbrauch mit seinen zeitlichen Variationen andererseits.
Im Fokus dieser Arbeit steht die Analyse der mechanischen Eigenschaften von Gitterstrukturen. Die Gitterstrukturen werden aus einem niedrig legierten Stahl und mit Hilfe des L-PBF-Verfahrens gefertigt. Ein Teil der Gitterstrukturen wird im Prozess durch eine Doppelbelichtung wärmebehandelt. In einer weiteren Versuchsreihe wird die in-Situ-Wärmebehandlung nur lokal an Strebenelementen angewandt. Die Werkstoffeigenschaften der Gitterelemente werden durch die Methoden Dichtemessung und Härteprüfung charakterisiert sowie mit Hilfe der Elektronenrückstreubeugung metallografische untersucht. In dem Versuchsspektrum werden die Strebenwinkel, von 35° bis 60° und die Strebendurchmesser von 0,5 mm bis 2,25 mm variiert. Hierbei wird untersucht, ob sich die Werkstoffeigenschaften verändern.
In dieser Arbeit wird eine relative Dichte von über 99,7 % bei den Gitterstrukturen erreicht. Im Vergleich zu den einfachbelichteten Gitterelementen wird durch die in-Situ-Wärmebehandlung die Makrohärte signifikant gesteigert. Im Versuchsspektrum werden durch die Variation der Geometrie keine signifikanten Veränderungen der Makrohärte und der Mikrotextur des Gefüges festgestellt. Im Randbereich der Streben wird eine Reduzierung der Härte von bis zu 250 HV0,1 beobachtet. Eine messbare Veränderung der Mikrotextur ergibt sich nicht. Als Grund sind Anlasseffekte wahrscheinlich, welche bei der metallografischen Untersuchung im Randbereich festgestellt werden.