Refine
Year of publication
Document Type
- Conference Proceeding (1184) (remove)
Conference Type
- Konferenzartikel (945)
- Konferenz-Abstract (156)
- Sonstiges (42)
- Konferenz-Poster (32)
- Konferenzband (13)
Language
- English (926)
- German (256)
- Multiple languages (1)
- Russian (1)
Is part of the Bibliography
- yes (1184) (remove)
Keywords
- RoboCup (32)
- Gamification (12)
- Machine Learning (12)
- injury (10)
- Biomechanik (9)
- Kommunikation (9)
- Assistive Technology (8)
- Finite-Elemente-Methode (8)
- Produktion (8)
- TRIZ (8)
Institute
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (394)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (286)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (211)
- Fakultät Wirtschaft (W) (164)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (117)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (112)
- INES - Institut für nachhaltige Energiesysteme (59)
- IMLA - Institute for Machine Learning and Analytics (46)
- ACI - Affective and Cognitive Institute (40)
- Fakultät Medien (M) (ab 22.04.2021) (33)
Open Access
- Open Access (497)
- Closed Access (456)
- Closed (217)
- Bronze (154)
- Diamond (29)
- Grün (13)
- Gold (6)
- Hybrid (6)
Die Wichtigkeit des Faches FEM ist sicher unumstritten. Um in der gegebenen Zeit eine ausreichende Einarbeitung in die Methode und die Uebung am Rechner durchfuehren zu koennen, ist der Einsatz eines auf PC lauffaehigen FE-Lernprogramms eine gute Hilfe. Sind die Grundlagen da, weiss der Student, welche Eingaben bei einem FE-Programm zu machen sind. Fuer manche Fachgebiete genuegt schon die Arbeit mit einem solchen Programm. Sind entsprechende Uebungen mit dem Lernprogramm erfolgt, kann auf professionellen Programmen wie z.B. CAEDS das Zusammenspiel CAD/FEM ernsthaft betrieben werden. Es sollte ein Fachsemester ausgesucht werden, in dem CAD und FE angeboten wird. Dieses Fachsemester sollte, um den Nutzen der FEM in moeglichst vielen Fachgebieten zu haben, zum Ende des Grundstudiums, spaetestens aber zu Beginn des Hauptstudiums liegen.
Im Rahmen eines GPS-Projektes ist an der Fachhochschule Offenburg ein Konzept für einen experimentellen Navigationsempfänger entstanden. Hierfür wurde der digitale Teil entwickelt und aufgebaut. Für die Realisierung der Schaltung sollten benutzerprogrammierbare Gate Arrays von Xilinx (LCAs) verwendet werden, die sich schon bei einer anderen Arbeit an der Fachhochschule bewährt hatten.
Nachfolgend möchte ich dem Leser einen Überblick über das GPS-System und die Entwicklung der LCAs geben.
Die Elektronikindustrie bietet für die Realisierung digitaler Logik eine Vielzahl integrierter Bausteine an, die ein Höchstmaß an Zuverlässigkeit als auch Integrationsdichte ermöglichen.
Je nach Integrationsdichte unterscheidet man hierbei zwischen Standardlogik (TTL,CMOS,DTL...), programmierbarer Logik (PLA, GAL...), Gate Arrays und ASIC-Bausteinen. Mit steigender Integrationsdichte werden Systemeigenschaften verbessert, wie Leistungsverbrauch, Platzbedarf, und Zuverlässigkeit.
Jedoch steht ihr auch ein stark erhöhter Kosten- und Entwicklungsaufwand gegenüber, der den Einsatz hochintegrierter Bausteine in Einzelfertigung bzw. Kleinserien verhindert.
Xilinx bietet nun mit seiner LCA-Produktreihe (logic cell array) eine Alternative zu bestehender hochintegrierbarer Logik an, mit der es möglich sein soll, Vorteile der genannten Einzelproduktgruppen zu übernehmen, und deren Nachteile zu beseitigen.
Im Rahmen einer Diplomarbeit wurde ein solcher LCA-Baustein (XC3020) eingesetzt. Anhand der gegebenen konkreten Anwendung konnte hierbei untersuch twerden, wie schnell sich ein solcher Baustein in bestehende Hardware eingliedern läßt, und welche Integrationsdichte er ermöglicht.
Im Folgenden sollen nun als Schwerpunkte das Einsatzgebiet, die Entwicklung und die Simulation des LCA bei vorliegender Aufgabenstellung aufgezeigt werden.
An der FH Offenburg arbeiten seit Ende 1989 in einem Team die Professoren Dr. Jansen, Dr. Schüssele, die wissenschaftlichen Mitarbeiter Bernd Reinke, Martin Jörger und die Diplomanden Hans Fiesel, Otmar Feißt an dem Entwurf eines Nachrichtenempfängers. Im Rahmen dieses Projekts, genannt GPS-Projekt (GPS = Global Positioning System), wurde im Herbst 1990 ein experimenteller Empfänger in Betrieb genommen. Nachdem die Testergebnisse gezeigt hatten,daß das Konzept der Anlage stimmte, ging es nun um die Miniaturisieriung, Integration und Optimierung der Schaltung. Außerdem sollte der bisher verwendete PC durch einen auf der Platine befindlichen Mikroprozessor ersetzt werden. Im Zusammenhang mit dem GPS-Projekt wurden bisher im Offenburger ASIC-Labor eine Analogschaltung auf einem B500, drei LCA Designs und diverse GAL's entwickelt.
Zur Zeit arbeiten mehrere Diplomanden an der zweiten Generation des Empfängers. Meine Aufgabe besteht darin, die dort noch in drei LCA's untergebrachte digitale Logik sowie einen Teil des bisherigen PC-Interface in einem IMS Gate Forrest zu integrieren. Außerdem muß die Logik von 8 Bit auf einen 16 Bit breiten Datenbus umgestellt und an die neue Peripherie des Mikroprozessors angepasst werden. Damit soll die jetzige Digital-Platine noch weiter verkleinert werden. Wesentlich ist dabei die Umsetzung der zahlreichen Zähler- und Registerstrukturen in einem Gate Forrest. Als Arbeitsmittel stehen Apollo Workstations mit Mentor Software zur Verfügung.
Seit einiger Zeit wird an der Fachhochschule in Offenburg ein Entwicklungsprojekt verfolgt, an dessen Ende ein GPS Empfänger stehen soll. Dabei handelt es sich um einen Satellitenempfänger, mit dem weltweit eine genaue dreidimensionale Standortbestimmung durchgeführt werden kann. Für diesen Empfänger sollte ein Großteil der Analogschaltung, bestehend aus ZF Verstärker, Costas Loop Synchrondemodulator und Pegeldetektor, in das Transistorarray B500a von AEG intgriert werden. Das Chipdesign wurde im Labor für ASIC Design an der FH Offenburg während des Wintersemesters 1990/91 erstellt. Gefertigt wurde der Chip von der Firma AEG in Ulm, wobei die Fertigungszeit des ASIC 6 Wochen betragen hat.
Die Fachhochschule Offenburg bietet seit dem Wintersemester 1990/91 den Studenten des Fachbereichs Nachrichtentechnik das Wahlpflichtfach ASIC-Design an. Schon kurz nach der Errichtung des ASIC-Design-Centers im Frühjahr 1990 ermöglicht sie damit künftigen Ingenieuren eine Ausbildung in einem Bereich, der in der modernen Schaltungsentwicklung nicht mehr wegzudenken ist.
An investigation is underway regarding the usefulness of altazimuth-mounting telescopes' incorporation of laser gyros for pointing and fiber gyros with extremely small random-walk coefficient for telescope inertial stabilization during tracking. A star tracker is expected to help stabilize long-term gyro bias. Gyro and telescope specifications have been derived by means of computer simulations and systems analyses.
Digitaler Phasenreglerkreis mit numerisch gesteuertem Oszillator als LCA-Microcontroller Kombination
(1992)
Am Beispiel einer Schrittmotor-Indexerschaltung wird der effektive Einsatz von konfigurierbaren Logic Cell Arrays in Zusammenwirkung mit einem Mikrokontroller demonstriert, wobei die hohe Arbeitsgeschwindigkeit des LCAs den Bereich der Schaltung übernimmt und im Regelkreis die arithmetrische Berechnung durchführt. Die Konfiguration des LCA aus dem EPROM des Controllers führt zu einer ungewöhnlichen Flexibilität des Entwurfs und ermöglicht zahlreiche andere Anwendungen mit dieser Architektur.
Die Fachhochschule Offenburg bietet den Studenten des Fachbereichs Nachrichtentechnik seit Ende 1990 das Wahlfach "Entwicklung integrierter Anwenderschaltkreise (ASIC)" an. Ziel des Wahlfachs ist es, den Studenten Grundkenntnisse im Entwurf eines ASIC's zu vermitteln, und wie im folgenden Beitrag aufgezeigt, die Möglichkeit zu bieten, den gesamten Entwurfszyklus von der Schaltungsentwicklung bis hin zur Fertigungsmaske zu durchlaufen.
Bei thermischen Konvektionsströmungen ist der Einfluß von Geometrie und Randbedingungen für die Strömungsform und den konvektiven Wärmetransport von wesentlicher Bedeutung. Mit Hilfe der optischen Strömungsmeßtechnik (Differentialinterferometrie) wurde die freie Konvektion in einem quaderförmigen Behälter mit seitlicher Beheizung untersucht. Der Aufbau und die Experimente werden beschrieben. Die quantitative Auswertung von Dichte- und Temperaturfeldern aus den Differentialinterferogrammen wird aufgezeigt und der Einfluß unterschiedlicher Randbedingungen wie feste und freie Oberfläche auf die Strömungsform und den Wärmetransport dargelegt. Die eingesetzte Differentialinterferometrie zeigt aufgrund ihrer Anpassungsfähigkeit an die jeweiligen Versuchsbedingungen und durch den einfachen Aufbau spezifische Vorteile gegenüber dem Mach-Zehnder Interferometer.
Mit zunehmend komplexer werdenden Schaltungen wachsen auch die Anforderungen an die Entwicklung einer entsprechenden Leiterplatte. Mit der BOARD-Station von MENTOR-Graphics können professionelle Leiterplatten entwickelt werden.
Im Rahmen dreier Entwicklungsprojekte an der Fachhochschule Offenburg wurden mehrere aufwendige Layoutentwürfe mit der BOARD-Station in verschiedenen Diplomarbeiten durchgeführt. Im Folgenden wird über die dabei gewonnenen Erfahrungen berichtet.
Erstellen von Hardmakros und Aufbau einer Zellbibliothek unter Verwendung des ES2-Library-Kits
(1993)
Es wird eine Anleitung zur Erstellung von Hardmakros mit der Mentor-Graphics-Software gegeben. Die Hardmakros werden mit Standardzellen aus der ES2-Bibliothek der Firma EUROCHIP aufgebaut. Die Hardmakros werden in eine eigenständige Bibliothek abgelegt und können in neuen Chip-Designs verwendet werden.
Für die Implementation in ASIC's wurde ein kompakter Mikroprozessor-Kernel als Standardzellen-Makro entworfen. Durch konsequenten Einsatz von Hochsprachen und CAE-Werkzeugen (VHDL, Synthese) konnte ein vollständiges Design in nur vier Monaten durchgeführt werden. Der Prozessor wird in einem Testchip erprobt.
Bei einem neuen Kühldeckensystem wird die Luft im Deckenhohlraum oberhalb der abgehängten Decke durch Konvektoren gekühlt, wobei die Wärmeübertragung ausschließlich durch freie Konvektion und Strahlung erfolgt. Die abgehängte Decke nimmt durch Strahlung und freie Konvektion Wärme aus dem darunterliegenden Büroraum auf und gibt sie über freie Konvektion an die Luft im Deckenhohlraum sowie durch Strahlung an die Begrenzungsflächen des Deckenhohlraumes ab. Die vom Kühlwasser durchströmten Rippenrohre nehmen ihrerseits Wärme aus der Luft im Hohlraum auf, die infolge der freien Konvektion durch die Rippenrohre strömt. Zur Aufnahme des bei starker Belastung und Dauerbetrieb anfallenden Kondensats ist unterhalb des Konvektors eine Kondensatauffangwanne angebracht. Mit dem von Rutsch erstellten Rechenprogramm ist es möglich, für verschiedenste Randbedingungen die Rippenrohre auf maximale Kühlleistung zu optimieren. Voraussetzung für die direkte Anwendung dieses Berechnungsverfahrens sind jedoch ungestörte An- und Abströmbedingungen der Luft am Konvektor. Neben der Optimierung der Rippenrohre auf Kühlleistung ist für den Aufbau der eigentlichen Decke die Luftströmung im Deckenhohlraum und die Austrittstemperatur aus den Konvektoren von entscheidender Bedeutung. Die maximale Kühlleistung der Rippenrohre kann nur erreicht werden, wenn alle Einzelrippenrohre nahezu gleichmäßig durchströmt werden und günstige Abströmverhältnisse vorhanden sind. Die Strömungsverhältnisse im Deckenhohlraum und innerhalb der Konvektoren wurden durch Rauch sichtbar gemacht und auf Video aufgezeichnet. Entscheidenden Einfluß auf die Temperaturverteilung an der Kühldecke haben die Breite des Konvektors, die Konstruktion der Kondensatauffangwanne, der Abstand der Konvektoren voneinander und der Konvektortyp. Direkt unterhalb der Kondensatauffangwanne beträgt die Temperaturdifferenz ca. 3 K. Der Temperaturgradient im Abströmbereich liegt bei ca. 0,2 bis 0,3 K/m.
A polarization mode dispersion measurement set-up based on a Mach-Zehnder Interferometer was realized. Measurements were carried out on short high-birefringent fibers and on long standard telecommunication single-mode fibers. In order to ensure high accurate results, special emphasis was placed on the evaluation of the interference pattern. The procedure will be described in detail and practical measurement results will be presented.
The prototype of an optical gyro encoder (OGE) has been successfully tested on the NTT telescope in September '93. The OGE consists of a ring laser gyro and a fiber optic gyro with their input axis parallel. The gyro outptu signals are compensated for earth rotation and misalignment and are subsequently integrated to get the angles. An adaptive digital control loop locks the fiber optic gyro to the laser gyro data. Thus the combined output has the precision of the laser gyro and the low noise of the fiber optic gyro. Specifically, the bias stability is better than 2 X 10-3 deg/h, the scale factor accuracy better than 1 ppm, the random walk coefficient better than 5 X 10-4 deg/(root)h and the resolution better than 3 X 10-4 arcsec. The OGE has been mounted in the altitude and in the azimuthy axis of the telescope. The data were compared with the telescope disk encoder data. The test data show that the pointing accuracy is about 1 arcsec and the tracking accuracy 0.1 arcsec over a time of 30 seconds. This accuracy is sufficient for the very large telescope, for instance.
This paper treats the Brillouin backscattering in a single mode optical fiber and its implications on the Brillouin Ring Laser Gyroscope (BRLG). The BRLG consists of a fiber ring cavity in which stimulated Brillouin scattering is induced and provides two resonant counterpropagating backscattered waves. If this cavity is rotating around its axis, the backscattered waves get different resonant frequencies because of the Sagnac effect. The frequency difference is proportional to the rotation rate (Omega) by inducing a frequency offset between the counterpropagating waves. Some reported Brillouin spectra exhibit several peaks, which means that one pump wave provides at least two backscattered waves with distinguishable frequencies. In order to understand this multi-backscattering and to take advantage of it for the BRLG, we present results of a simulation of the Brillouin backscattering in a single mode optical fiber.
Massiv- Heiz-/Kühldecken bestehen im wesentlichen aus in der tragenden Deckenkonstruktion eingegossenen Kunststoffrohren, die je nach Jahreszeit von Heiz- bzw. Kühlwasser durchströmt verden. Das instationäre Verhalten wurde mit dem Anlagen und Simulationsprogramm TRNSYS untersucht. Anhand ausgesuchter Ergebnisse können die Anforderungen an die notwendigen Regelkonzepte abgeleitet werden. Es eignen sich für derartige Systeme, insbesondere wegen ihrer großen Speicherfähigkeit und damit Trägheit, modifizierende selbstadaptierende Regler. Aufgrund der großen Trägheit der Massivdecke ist eine direkte außentemperaturgeführte Vorlauftemperaturregelung des Wasserstromes nicht sinnvoll. Es sollte ein selbstadaptierendes Regelsystem verwendet werden, das anhand der vorangegangenen Lastverläufe die Gebäudekonstante und damit das Speicherverhalten der Räume ermittelt. Damit der Regelaufwand reduziert werden kann, sollen mehrere Räume als Gruppe zusammengefaßt werden. Als weitere Größe für das Regelkonzept ist die Speichertemperatur am Ende der Ladezeit zu messen und in das Programm mit einzubinden.
Die Untersuchungen wurden im Raumlufttechnischen Labor der Fachhochschule Offenburg zur Beurteilung der Effizienz der Schadstoffabfuhr unter Einhaltung der thermischen Behaglichkeit beim Einsatz verschiedener Luftführungssysteme- Quellauslaß, Deckendrallauslaß und Fußbodenauslaß- in Verbindung mit einer Kühldecke durchgeführt. Die Ergebnisse zeigen, daß keine signifikanten Vorteile für ein bestimmtes RLT-Konzept bestehen. Je nach Wahl der Randbedingungen der Untersuchungen liegen die erreichbaren Kühlleistungen innerhalb einer Systemkombination weiter auseinander als im Verhältnis zu den Vergleichssystemen. Insgesamt ist hinsichtlich der von beiden Systemen zusammen abgebbaren, maximalen Kühlleistung die Kombination Kühldecke mit Deckendralluftauslaß vorteilhaft.
Vortex breakdown phenomena in rotating fluids are investigated both theoretically and experimentally. The fluid is contained in a cone between two spherical surfaces. The primary swirling motion is induced ba the rotating lower boundary. The upper surface can be fixed with non-slip condition or can be a stress-free surface. Depending on these boundary conditions and on the Reynolds number, novel structures of recirculation zones are realized. The axisymmetric flow patterns are simulated numerically by a finite difference method. Experiments are done to visualize the topological structure of the flow pattern and to observe the existence ranges of the different recirculating flows. The comparison between theory and experiment shows good agreement with respect to the topological structure of the flow.
An der Fachhochschule Offenburg wurde im Sept. 93 das Projekt eines implantierbaren 16 Bit Mikroprozessor-Kernels FHOP ins Leben gerufen. Ausgehend von dem in einem Testchip erfolgreich erprobten umstrukturierten Entwurf wurde durch gezielten Einsatz von strukturiertem Routen unter Nutzung der Fähigkeiten zum hierarchischen Arbeiten in der MENTOR-IC-Station eine erheblich verkleinerte und flächenmäßig optimierte Struktur abgeleitet, die sich mit 4 Quadratmilimetern Fläche durchaus mit kommerziellen Mikroprozessor-Kerneln vergleichen läßt.
FHOP-Mikroprozessor-Kernel
(1995)
Die Geschäftsleitung und Führungskräfte von Eller Repro+Druck beschlossen im Juli 1994 die Teilnahme am damls noch neuen EU-Öko-Audit. Die Durchführung des Audits ist für 1996 geplant. Zwei Diplomanden der FH Offenburg wurde die Möglichkeit gegeben, als externe Berater für Eller Repro+Druck ihre Diplomarbeit über die Vorbereitung zum Öko-Audit zu schreiben. Der Betrieb (170 Mitarbeiter) verfügt über elektronische Bildverarbeitung auf Scitex- und Mac-Schiene, derzeit noch konventionelle Plattenkopie und -entwicklung, fünf Offsetrotationen sowie Weiterverarbeitung mit Sammelheftern und Falzmaschinen. Der Referent berichtet über die Erfahrungen, die sein Unternehmen bis zum Herbst 1995 mit der Vorbereitung zum Öko-Audit gemacht hat, und gibt Praxistips. Zusammen mit den Beratern wurden eine Aufnahme der betrieblichen Situation durchgeführt, Maßnahmen geplant und zum Teil durchgeführt.
Nach dem Nachweis der Funktionalität des an der Fachhochschule Offenburg entwickelten Mikroprozessorkernels FHOP (First Homemade Operational Processor), wird eine Anwendung des Kernels in einem Applikationschip beschrieben.
Der Thermologger-ASIC soll mit Hilfe eines Temperatursensors die Umgebungstemperatur bei technischen Prozessen in regelmäßigen Zeitabständen erfassen und abspeichern. Die Meßwerte werden bei Bedarf ber eine serielle Schnittstelle des Thermologger-ASICs an einen PC übertragen und ausgewertet. Zur Verringerung der Leistungsaufnahme wird zwischen zwei Temperaturmessungen in einen Power-Down-Mode geschaltet.
Der ASIC soll später in einer Chipkarte integriert werden.
Im Frühjahr 1995 entstand die Idee, einen Lottozahlengenerator als Demonstrations- und Studienobjekt, für die Anwendung komplexer digitaler Entwurfsmethoden, zu entwerfen. Mit Hilfe der Schaltung ist es möglich, 6 verschiedene Zahlen zufällig aus 49 Zahlen zu ermitteln. Bei der Ziehung der einzelnen Zahlen werden verschiedene Töne und Melodien erzeugt. Die Schaltung ist so konzipiert, daß eine einfache Bedienung möglich ist. Der Chip wurde als Standardzellen-Entwurf mit einer Fläche von ca. 7 um² geroutet.
Als Fortsetzung des FHOP-Projektes wurde an der Fachhochschule Offenburg auf Basis des bestehenden Mikroprozessorkerns im Rahmen einer Diplomarbeit ein Mikrocontroller in ES2-0.7 μm-Technologie entworfen. Der Controller wurde modular aufgebaut mit den Komponenten: FHOP-Mikroprozessor, Buscontroller, Waitstate-Chipselect-Einheit, 16x16 Bit Multiplizierer, 2KB ROM, 256 Byte RAM, Watchdog, PIO mit 16 konfigurierbaren Ports, SIO, 2 Timer und ein Interruptcontroller für 8 Interrputquellen.
Der Chip benötigt bei einer Komplexität von ca. 65400 Transistoren eine Siliziumfläche von etwa 27 mm². Er wurde im September 1996 zur Fertigung gegeben und mittlerweile erfolgreich getestet. Das interne ROM des Mikrocontrollers enthält das BIOS sowie ein Testprogramm. Zur Erstellung der Software steht eine komplette Entwicklungsumgebung zur Verfügung. Sämtliche Komponenten stehen im FHOP-Design-Kit in Kürze zur Verfügung.
Durch den verstärkten Einsatz von EDV-Geräten an den Arbeitsplätzen in Büroräumen stiegen die flächenbezogenen inneren Kühllasten deutlich an. Für die Arbeitsplätze in Fensternähe müssen EDV-gerechte Lichtverhältnisse vorhanden sein. Es werden Versuchsergebnisse eines neu entwickelten Kühlkonvektors im Fensterbereich im Zusammenhang mit Innenjalousien vorgestellt. Dieser Kühlkonvektor eignet sich auch für den kombinierten Einsatz mit Kühldecken und raumlufttechnischen (RLT)-Anlagen, wie weitere Versuche bestätigen. Der Kühlkonvektor kann auch beim Ersatz von Induktionsgeräten angewandt werden, die z.B. nach dem 4-Leiter-Prinzip angeschlossen sind. Die Untersuchungen haben gezeigt, daß mit der Kombination von Kühldecke, Kühlkonvektor und RLT-Anlage große flächenbezogene Kühllasten abgeführt werden können, ohne daß dadurch die thermische Behaglichkeit negativ beeinflußt wird. Der Luftstrom läßt sich auf das hygienisch bzw. auf das zur Entfeuchtung notwendige Maß reduzieren, wodurch sich die Betriebskosten senken. Der Anteil der drei Komponenten an der gesamten Kühllast beträgt im Mittel: 15 % RLT-Anlage, 15 % Kühlkonvektor und 70 % Kühldecke.
Im Institut für angewandte Forschung (IAF) der FH Offenburg wird derzeit eine Chipkarte entwickelt, mit der Temperaturzeitreihen über längere Zeiträume aufgezeichnet werden können. Die zur Datenerfassung erforderlichen Systemkomponenten sind auf nur einem Halbleiterchip zusammengefaßt, wodurch sich bei großen Produktionsstückzahlen ein sehr niedriger Herstellpreis erzielen läßt. Die 'Thermologger' genannte Chipkarte kann zudem mit Standard-Chipkartenlesern und einer dedizierten Software auf jedem PC konfiguriert, gelesen und ausgewertet werden.
Bei modernen Lokomotiven mit Drehstrom-Asynchronmotoren und mit bis zu 7 Megawatt Leistung, neigt das Antriebssystem bei nicht ausreichendem Kraftschluß zwischen Treibradsatz und Schiene zum 'Durchdrehen'. Bei diesem Vorgang wird nahezu die gesamte Energie zur Beschleunigung des Radsatzes eingesetzt, was zu mechanischen Schäden an den Rädern und Schienen führen kann. Beim Bremsen ist dies ähnlich, die Räder gleiten auf den Schienen, wenn zuviel Bremskraft gefordert wird. Die übertragbaren Zug- und Bremskräfte werden primär durch die Radsatzlast und den Kraftschlußbeiwert bestimmt, wobei der Verlauf der Kraftschlußkennlinie als Funktion des Schlupfs oder der Schlupfgeschwindigkeit im wesentlichen durch den Schienenzustand (naß oder trocken) bestimmt wird. Eine hohe Kraftschlußnutzung wird dann erreicht, wenn man laufend denjenigen Schlupfwert einstellt, der zum jeweiligen Kraftschlußmaximum führt. Hierzu werden in der Praxis verschiedene Konzepte und Methoden eingesetzt, es ist bis heute jedoch keine Methode bekannt, den Verlauf der Kraftschlußkennlinie meßtechnisch laufend zu erfassen oder rechentechnisch zu bestimmen. Bei der hier vorgestellten Vorgehensweise wurde der mechanische Antrieb zusammen mit dem Rad-Schiene-Kontakt als Zustandsraumodell beschrieben. Die Betrachtungen beruhen dann auf einer Frequenzganguntersuchung des eingeführten linearen Zustandsraummodells. Aufgrund der Linearisierung gelten die Ergebnisse der Frequenzgangsberechnung nur für den jeweiligen Betriebspunkt der Kraftschlußkennlinie, also für eine bestimmte Steigung. Variiert man nun die Steigung, so läßt sich der Einfluß der nichtlinearen Kraftschlußkennlinien ermitteln. Zur Messung von Frequenzgängen eignen sich insbesondere Verfahren der Orthogonalen Korrelation. Die technische Realisierung wird skizziert. Die Meßinformation ist dann die Basis für eine Regelung, die ein permanentes optimales Fahren im Kraftschlußmaximum zuläßt und zwar beim Beschleunigen und beim Bremsen. Das beschriebene Meß- und Regelungsverfahren ist derzeit in der Schweiz in der Betriebserprobung.
In den Unternehmen der Automobilbranche herrscht ein beträchtlicher Rationalisierungsdruck mit einem daraus folgenden hohen Automatisierungsgrad. Den erheblichen Investitionen in modernste Fertigungstechnologien und Montageanlagen steht zunehmend die Forderung eines Return of Investment mit zweistelligen Prozentsätzen gegenüber. Betriebliche Abläufe und Fertigungsprozesse werden daher sehr detailliert geplant, wobei 'minutiöse' Planungen oftmals nur die Beherrschung komplexer Prozeßabläufe vortäuschen. Ungeplante Einflußfaktoren und Störungen lassen manche Planung schnell zu Makulatur verkommen.
Geschäftsprozeßmodellierung und dynamische Simulationen von Fertigungsprozessen mittels zeitbewerteter Petri-Netze, bieten ausgezeichnete Möglichkeiten, komplexe Zusammenhänge transparenter zu machen und neue Erkenntnisse über die Einflüsse von Störungen oder Qualitätsschwankungen auf die Produkt- und Prozeßqualität zu erhalten. In einem Teilbereich der Produktion der Daimler-Benz AG in Gaggenau wurden Qualitätsstörungen und ihre Wirkungen auf den Fertigungsprozeß von Drehmomentwandlern untersucht. Die im Fertigungsverlauf auftretenden qualitätsbeeinflussenden Störungen wurden in Petri-Netz-Modellen abgebildet und in diversen Szenerien simuliert. Die Auswirkungen auf die Anlagenverfügbarkeit, Durchlaufzeiten, Lagerstrategien und die Kostensituationen wurden verdeutlicht und erste Maßnahmen mit den zugehörigen Voraussetzungen aufgezeigt.
Die hochfrequente, feldnumerische Analyse mit der Finite-Differenzen Methode erfordert die Diskretisierung der zu untersuchenden Struktur in einem nichtäquidistanten Gitter. Vorschriften zur Diskretisierung kreiszylindrischer Strukturen wie sie z.B. bei Durchkontaktierungen auftreten, werden untersucht und eine optimierte Lösung vorgestellt.
Moderne strombetriebene Wärmepumpenanlagen sind im Hinblick auf die Umweltbilanz und die Jahresenergiekosten selbst gegenüber den effizientesten gasbefeuerten und ölbefeuerten Heizanlagen deutlich im Vorteil. Um diesen Vorteil auch in der Praxis zu erreichen, muss der Auswahl und Dimensionierung der Wärmepumpe einschliesslich der Wärmequelle besondere Beachtung geschenkt werden. Hinsichtlich des Temperaturniveaus bietet sich als Wärmequelle besonders das Erdreich an, beispielsweise durch Erdsonden erschlossen. Abhängig von den hydrogeologischen Rahmenbedingungen ist insbesondere auf die längenbezogene Wärmeentzugsleistung der Erdsonden zu achten. Hierfür hat das Ministerium für Umwelt und Verkehr des Landes Baden-Württemberg einheitliche Grundlagen für die Beurteilung und Bearbeitung geschaffen. Ausgehend von einer Wärmepumpenheizanlage, von der bereits Messungen vorliegen, wurde diese Anlage mit dem Simulationsprogramm TRNSYS nachgebildet und die wesentlichen Temperaturverhältnisse in verschiedenen Erdreichtiefen und Erdsondenabständen ermittelt. Mit diesen Erdreichtemperaturen werden mit Hilfe eines vereinfachten Energiebilanzverfahrens die Jahresarbeitszahlen ermittelt. Dabei zeigt sich, dass neben der Hydraulik der Heizanlage der Art der Trinkwassererwärmung besondere Bedeutung zukommt, da dies sich entscheidend auf die Jahresarbeitszahl und damit auch auf die mögliche Reduzierung des CO2-Ausstosses auswirkt.
Virtual-Reality-Darstellung elektromagnetischer Felder in dreidimensionalen Mikrowellenstrukturen
(2000)
Untersuchungen haben gezeigt, daß der Mensch ein Vielfaches an Informationen in Form von visuellen Eindrücken, im Gegensatz zur textuellen Darstellung, verarbeiten kann. Mit Hilfe des numerischen Feld-Simulationsprogramms F3D können Mikrowellenstrukturen auf die Wechselwirkung mit elektromagnetischen Feldern untersucht werden. Das Programm F3D2VRML stellt die Ergebnisse in einer dreidimensionalen Virtual-Reality-Darstellung (VR) dar.
Damit ist es dem Betrachter möglich, mehr Informationen aufzunehmen, da die Informationen mit Formen und Farben im dreidimensionalen Raum visualisiert werden.
A system for the on-line/in-line measurement of soot particle sizes and concentrations in the undiluted exhaust gas of diesel engines was developed and successfully tested. The unit uses the individual attenuations of three different laser wavelengths and is combined with an optical cell (white principle) with adjustable path lengths from 2.5 to 15 meters.
The title expresses goals the Kansas Geological Survey (KGS) has been working toward for some time. This report extends concepts and objectives developed while working on an earlier effort for effective interactive digital maps on the Internet. That work was reported to the 1998 DMT Workshop in Champaign, Illinois (Ross, 1998). The current project goes beyond previous efforts that focused on methods for serving the contents of a geographic information system (GIS); the points, lines, and polygons representing features of the digital geologic map and the data in the attribute tables of the GIS describing those features.
Die Verarbeitung analoger Signale durch digitale Techniken ist durch die enorme Leistungsfähigkeit der Prozessoren zwischenzeitlich zum Standard geworden. Eine hinreichende Genauigkeit der digitalen Verarbeitung kann durch Wahl der notwendigen Wortbreite relativ einfach bewerkstelligt werden, wobei der Aufwand mit zunehmender Wortbreite linear, teilweise auch quadratisch steigt. Zum Flaschenhals in der Verarbeitung wird aber häufig die Wandlung der analog vorliegenden Signale in digitale Signale, ebenso die Rückwandlung der digitalen Signale in analoge Spannungs- oder Stromverläufe. Der Aufwand für diese teils analogen, teils digitalen Systeme steigt oft exponentiell mit der geforderten Genauigkeit bzw. Auflösung der Systeme und erfordert in konventioneller Technik bei hoher Auflösung aufwendige Maßnahmen auf dem Chip. Oversampling- und Rauschfärbungs-Methoden sind in der Verarbeitung von Audio-Signalen schon seit langem probate Mittel, um die Auflösung mit moderatem Aufwand zu erhöhen. Derartige Techniken werden zwischenzeitlich auch gerne im Bereich der Antriebstechnik, wo die Anforderungen an die erforderliche Positioniergenauigkeit zunehmen, eingesetzt. Ziel des Vortrags ist eine leicht verständliche Einführung in die Themengebiete der Überabtastung und der Rauschfärbung und ihre Anwendung im Hinblick auf Rundungsvorgänge im digitalen Bereich, in D/A-Wandlern und A/D-Wandlern vom Delta-Sigma-Typ.
Der Bericht beschreibt die Vorgehensweise für die Entwicklung von Hochleistungszweitaktmotoren beim Institut für Transportwesen und Motorentechnik (ITM). Die gezielte Auswertung von motorischen Daten bietet die Möglichkeit, Motorenentwicklungsprozesse in wichtigen Fragestellung zu unterstützen. Für die Auslegung von Bauteilen und Prozessen werden Simulationsprogramme eingesetzt. Diese Entwicklungswerkzeuge können effizienter angewandt werden, wenn die Berechnungsergebnisse einer Qualitätskontrolle unterliegen. Wichtig hierfür sind Bewertungskriterien, die aus der Erfahrung einer Vielzahl von Versuchen bestehen. Da in Produktion gegangene Motoren üblicherweise schon einen Evolutionsprozeß durchlaufen haben, kann vermutet werden, daß solche Kriterien von erfolgreichen und weniger erfolgreichen Produkten in der Weise abgeleitet werden können, wie dies hier vorgestellt wurde. Die Angabe von Trendfunktionen für konstruktive Merkmale und Betriebsparameter ist notwendig um eine bedarfsorientierte Vorauslegung von Antrieben durchführen zu können. Alle hier vorgestellten Ergebnisse sind natürlich von der Datenmenge abhängig, die zu den jeweiligen Fragestellungen ausgewertet werden kann. Dazu müssen alle durchgeführten Versuchsreihen in die Datenbank eingeführt und mit Ergebnissen der Simulationsrechnungen in Beziehung gesetzt werden.
In jüngster Zeit werden vermehrt größere thermische Solaranlagen zur Warmwassererzeugung und zur Heizungsunterstützung in größeren Mehrfamilienhäusern und Neubausiedlungen mit Einfamilien- bzw. Doppelhäusern eingesetzt. Während die hydraulische Einbindung der Solarenergie zur Heizungsunterstützung meist problemlos realisiert wird, entstehen bei der Warmwasserbereitung immer wieder Probleme hinsichtlich der Legionellenproblematik. Die Anforderungen im DVGW Arbeitsblatt W551, den gesamten Wasserinhalt der Vorwärmstufen einmal am Tag auf 60 Grad C zu erwärmen und damit zur Verminderung des Legionellenwachstums beizutragen, führen immer wieder dazu, daß durch fehlerhafte Konzepte, insbesondere im Bereich der hydraulischen Schaltungen in Verbindung mit den Regelkonzepten, der solare Deckungsgrad bei der Trinkwassererwärmung sehr gering bleibt. Anhand ausgewählter Ausführungsbeispiele wird die Problematik ausführlich behandelt und Lösungsmöglichkeiten aufgezeigt. Abschließend werden funktionsgerechte Anlagentechniken verschiedener Ausführungsvarianten besprochen.
The importance of obtaining simultaneous particle size and concentration values has grown up with continuing discussion of the health effects, of internal combustion engine generated particulate emissions and in particular of Diesel soot emissions. In the present work an aerosol measurement system is described that delivers information about particle size and concentration directly from the undiluted exhaust gas.
Using three laser diodes of different wavelengths which form one parallel light beam, each spectral attenuation is analysed by a single detector and the particle diameter and concentration is evaluated by the use of the Mie theory and shown on-line at a frequency of 1 Hz. The system includes an optical long-path-cell (White principle) with an adjustable path length from 2.5 to 15 m, which allows the analysis within a broad concentration range.
On-line measurements of the particulate emissions in the hot, undiluted exhaust of Diesel engines are presented under stationary and transient engine’s load conditions. Mean particle diameters well below 100 nm are detected for modern Diesel engines. The measured particle concentration corresponds excellently with the traditional gravimetrical measurements of the diluted exhaust. Additionally, measurements of particle emissions (mostly condensed hydricarbons) from a two-stroke engine are presented and discussed.
A prototype multiwavelength sensor able to characterise soot emissions in Diesel exhaust in terms of size and concentration has been tested against other methods for diesel particle measurements like electrical mobility sizing (SMPS) and raw exhaust gravimetric sampling (RES). Measurements carried out with the prototype sensor were correlated with the SMPS by assuming spherical and/or fractal aggregate morphology of the particles. Correlation of RES gravimetric data against the sensor and the SMPS led to the calculation of the solid density for soot particles to be 2.3 gr/cm3.
HPTLC (High Performance Thin Layer Chromatography) is a well known and versatile separation method which shows many advantages when compared to other separation techniques. The method is fast and inexpensive and does not need time-consuming pretreatments. For visualisation of the sample distribution on a HPTLC-plate we developed a new and sturdy HPTLC-scanner. The scanner allows simultaneous registrations of spectra in a range from 198 nm to 612 nm with a spectral resolution of better than 0.8 nm. The on-plate spatial resolution is better than 160 μm. The measurement of 450 spectra in one separation track does not need more than two minutes. The new diode-array scanner offers a fast survey over a TLC-separation and makes various chemometric applications possible. For compound identification a cross-correlation function is described to compare UV sample spectra with appropriate library data. The cross-correlation function herein described can also be used for purity testing. Unresolved peaks can be virtually separated by use of a least squares fit algorithm. In summary, the diode arry system delivers much more information than the commonly used TLC-scanner.
iSign - internet based simulation of guided wave propagation - ist eine Lernumgebung für Online-Laborversuche. Die Client-Serverarchitektur nutzt server-seitig das Tool F3D, das elektromagnetische Felder in 3D-Strukturen berechnet. Ein Apache-Webserver (unter Linux) bedient den Theorie-/Aufgaben-Teil und die Lernsystemadministration. Ein HPUX Simulationsserver steuert und kontrolliert den mehrstufigen Simulationsvorgang. Eine MySQL-Datenbank erlaubt dynmaische Webseiten-Generierung und Simulations-, Projekt- und Userdatenhaltung. Java-Applets, JavaServer Pages und JavaBeans erzeugen die interaktive Client-Oberfläche zur Eingabe, Ergebnisdarstellung und für Online-Virtual Reality. Die einheitlich gestaltete Benutzeroberfläche verbirgt die Systemkomplexität.
Vom Tragverhalten und von der Geometrie (eben oder gekrümmt, linien- oder flächenhaft ausgeprägt) her unterscheidet man Sandwich-Balken, Sandwich-Platten, -Scheiben und -Schalen. Im Normalfall hat man ein Zusammenwirken aus drei Schichten: Den zug- bzw. druckaufnehmenden Deckschichten und der schubbelasteten Kernschicht. Die Klebverbindung von Kern- und der jeweiligen Deckschicht hat mindestens die kraftübertragende Eigenschaft der schwächsten Schicht (d.h. der Schicht mit dem kleinsten E-Modul) aufzuweisen. Dies ist in der Regel die Kernschicht. Diese Eigenschaft der Verklebung muss über die Lebensdauer des Tragwerkes erhalten bleiben. Bei rein statischer Belastung sind die Verklebung in ihrer Zeitfestigkeit und das Lastkriechen der schubaufnehmenden Kernschicht zu beachten. Bei dynamischer Belastung sind die entsprechenden Wöhler-Kurven zu beachten. Viele Klebstoffe sind dynamisch belastbar. Wenn man die Festigkeits- und Steifigkeitsberechnung durchführen möchte, kann die so genannte exakte Berechnungsmethode über gekoppelte partielle Differenzialgleichungen zum Ziel führen. Neben der Berechnung der Verformungen und Spannungen infolge Platten- und Scheibenwirkung kommen bei hochbelasteten gekrümmten Sandwich-Bauteilen auch die Koppelgleichungen von Platte und Scheibe zur Schale hinzu. Außerdem kommt bei dünnen, unter Druck stehenden Deckschichten die Abschätzung der Knitterspannungen hinzu, die ja nach der Bettung der Deckschicht auf der Kernschicht weitestgehend von der Dehnsteifigkeit der Kernschicht abhängt. Seit den 60-er Jahren hat sich die Finite-Elemente-Methode als eine computergestützte Berechnungsmethode etabliert, die zwar als Näherungsmethode definiert ist aber eine hervorragende Genauigkeit in der Spannungs- und Steifigkeitsberechnung bietet.
Ein neuer Ansatz wurde für mobile Roboter zur gleichzeitigen 3D (Drei-Dimensionaler) Kartierung und Lokalisierung vorgestellt. Die Grundlage bilden attributierte Flächenmodelle, die z.B. von segmentierten Laserscanner-Tiefenbildern stammen. Zur Optimierung der Gesamtähnlichkeit zwischen Flächenmodellen unter Zeitbedingungen werden mehrere Verfahren (Beschränkte Baumsuche, Iterative Verfeinerung, Evolutionäralgorithmus) kombiniert. Es wird speziell anhand der Ähnlichkeitsmaße gezeigt, wie das Wissen über die Lage stufenweise generiert und verwendet wird. Erste Messungen an realen segmentierten Tiefenbildfolgen zeigen, dass das Verfahren unbekannte übelappung, Verdeckung und Segmentierungsfehler toleriert sowie Echtzeitpotenzial besitzt.
HPTLC (High Performance Thin Layer Chromatography) is a well known and versatile separation method which shows a lot of advantages and options in comparison to other separation techniques. The method is fast and inexpensive and does not need time-consuming pretreatments. Using fiber-optic elements for controlled light-guiding, the TLC-method was significantly improved: the new HPTLC-system is able to measure simultaneously at different wavelengths without destroying the plate surface or the analytes on the surface. For registration of the sample distribution on a HPTLC-plate we developed a new and sturdy diode-array HPTLC- scanner which allows registration of spectra on the TLC- plates in the range of 198 nm to 610 nm with a spectral resolution better than 1.2 nm. The spatial resolution on plate is better than 160 micrometers . In the spectral mode, the new HPTLC-scanner delivers much more information than the commonly used TLC-scanner. The measurement of 450 spectra of one separation track does not need more than three minutes. However, in the fixed wavelength mode the contour plot can be measured within 15 seconds. In this case, the signal will be summarized and averaged over a spectral range having FWHM from 10 nm to 25 nm depending on the substance under test. The new diode-array HPTLC-scanner makes various chemometric applications possible. The new method can be used easily in clinical diagnostic systems easily, e.g. for blood and uring investigations. In addition, new applications are possible. For example, the rich structured PAHs were studied. Although the separation is incomplete the 16 compounds can be quantified using suitable wavelengths.
Time Resolved Measurements of Soot Concentrations and Mean Particle Sizes during EUDC and ECE Cycles
(2002)
The central purpose of this paper is to present a novel framework supporting the specification, the implementation and retrieval of media streaming services. It provides an integrated service development environment comprising of a streaming service model, a service specification language and several implementation and retrieval tools. Our approach is based on a clear separation of a streaming service specification, and its implementation by a distributed application and can be used for different streaming paradigms, e.g. push and pull services.