Refine
Year of publication
Document Type
- Conference Proceeding (1253) (remove)
Conference Type
- Konferenzartikel (950)
- Konferenz-Abstract (156)
- Konferenzband (77)
- Sonstiges (42)
- Konferenz-Poster (32)
Language
- English (934)
- German (317)
- Multiple languages (1)
- Russian (1)
Keywords
- Mikroelektronik (62)
- RoboCup (32)
- Gamification (12)
- Machine Learning (12)
- injury (10)
- Biomechanik (9)
- Finite-Elemente-Methode (9)
- Kommunikation (9)
- Assistive Technology (8)
- Produktion (8)
Institute
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (453)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (286)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (213)
- Fakultät Wirtschaft (W) (164)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (120)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (113)
- INES - Institut für nachhaltige Energiesysteme (59)
- IMLA - Institute for Machine Learning and Analytics (46)
- ACI - Affective and Cognitive Institute (40)
- Fakultät Medien (M) (ab 22.04.2021) (33)
Open Access
- Open Access (560)
- Closed Access (456)
- Closed (223)
- Bronze (214)
- Diamond (29)
- Grün (13)
- Gold (6)
- Hybrid (6)
Printed circuit boards (PCB) are a foundation of electronical devices in modern society. The fabrication of these boards requires various processes and machines. The utilisation of a robot with multiple tools can shorten the process chain compared to screen printing. In this paper a system is presented, which utilises an industrial six axis robot to manufacture
PCBs. The process flow and conversion process of the Gerber format into robot specific commands is presented. The advantages and challenges applying a robot to print circuits are discussed.
Digital, virtual environments and the metaverse are rapidly taking shape and will generate disruptive changes in the areas of ethics, privacy, safety, and how the relationships between human beings will be developed. To uncover some of some of the implications that will impact those areas, this study investigates the perceptions of 101 younger people from the generations Y and Z. We present a first exploratory analysis of the findings, focusing on knowledge and self-perception. Results show that these young generations are seriously doubting their knowledge on the metaverse and virtual worlds – regarding both the definition and the usage. It is interesting to see only a medium confidence level, considering that the participants are young and from an academic environment, which should increase their interest in and the affinity towards virtual worlds. Males from both generations perceive themselves as significantly more knowledgeable than females. Regarding a fitting definition, almost 40% agreed on the metaverse as a “universal and immersive virtual world that is made accessible using virtual reality and augmented reality technologies”. Regarding the topic in general, several participants (almost 40%) considered themselves sceptics or “just” users (38%). Interestingly, generation Y participants were more likely than the younger generation Z participants to identify themselves as early adopters or innovators. In result, the considerable amount of “mixed feelings” regarding digital, virtual environments and the metaverse shows that in-depth studies on the perception of the metaverse as well as its ethical and integrity implications are required to create more accessible, inclusive, safe, and inclusive digital, virtual environments.
Als Fortsetzung des FHOP-Projektes wurde an der Fachhochschule Offenburg auf Basis des bestehenden Mikroprozessorkerns im Rahmen einer Diplomarbeit ein Mikrocontroller in ES2-0.7 μm-Technologie entworfen. Der Controller wurde modular aufgebaut mit den Komponenten: FHOP-Mikroprozessor, Buscontroller, Waitstate-Chipselect-Einheit, 16x16 Bit Multiplizierer, 2KB ROM, 256 Byte RAM, Watchdog, PIO mit 16 konfigurierbaren Ports, SIO, 2 Timer und ein Interruptcontroller für 8 Interrputquellen.
Der Chip benötigt bei einer Komplexität von ca. 65400 Transistoren eine Siliziumfläche von etwa 27 mm². Er wurde im September 1996 zur Fertigung gegeben und mittlerweile erfolgreich getestet. Das interne ROM des Mikrocontrollers enthält das BIOS sowie ein Testprogramm. Zur Erstellung der Software steht eine komplette Entwicklungsumgebung zur Verfügung. Sämtliche Komponenten stehen im FHOP-Design-Kit in Kürze zur Verfügung.
Nach dem Nachweis der Funktionalität des an der Fachhochschule Offenburg entwickelten Mikroprozessorkernels FHOP (First Homemade Operational Processor), wird eine Anwendung des Kernels in einem Applikationschip beschrieben.
Der Thermologger-ASIC soll mit Hilfe eines Temperatursensors die Umgebungstemperatur bei technischen Prozessen in regelmäßigen Zeitabständen erfassen und abspeichern. Die Meßwerte werden bei Bedarf ber eine serielle Schnittstelle des Thermologger-ASICs an einen PC übertragen und ausgewertet. Zur Verringerung der Leistungsaufnahme wird zwischen zwei Temperaturmessungen in einen Power-Down-Mode geschaltet.
Der ASIC soll später in einer Chipkarte integriert werden.
Im Frühjahr 1995 entstand die Idee, einen Lottozahlengenerator als Demonstrations- und Studienobjekt, für die Anwendung komplexer digitaler Entwurfsmethoden, zu entwerfen. Mit Hilfe der Schaltung ist es möglich, 6 verschiedene Zahlen zufällig aus 49 Zahlen zu ermitteln. Bei der Ziehung der einzelnen Zahlen werden verschiedene Töne und Melodien erzeugt. Die Schaltung ist so konzipiert, daß eine einfache Bedienung möglich ist. Der Chip wurde als Standardzellen-Entwurf mit einer Fläche von ca. 7 um² geroutet.
An der Fachhochschule Offenburg wurde im Sept. 93 das Projekt eines implantierbaren 16 Bit Mikroprozessor-Kernels FHOP ins Leben gerufen. Ausgehend von dem in einem Testchip erfolgreich erprobten umstrukturierten Entwurf wurde durch gezielten Einsatz von strukturiertem Routen unter Nutzung der Fähigkeiten zum hierarchischen Arbeiten in der MENTOR-IC-Station eine erheblich verkleinerte und flächenmäßig optimierte Struktur abgeleitet, die sich mit 4 Quadratmilimetern Fläche durchaus mit kommerziellen Mikroprozessor-Kerneln vergleichen läßt.
FHOP-Mikroprozessor-Kernel
(1995)
Für die Implementation in ASIC's wurde ein kompakter Mikroprozessor-Kernel als Standardzellen-Makro entworfen. Durch konsequenten Einsatz von Hochsprachen und CAE-Werkzeugen (VHDL, Synthese) konnte ein vollständiges Design in nur vier Monaten durchgeführt werden. Der Prozessor wird in einem Testchip erprobt.
Erstellen von Hardmakros und Aufbau einer Zellbibliothek unter Verwendung des ES2-Library-Kits
(1993)
Es wird eine Anleitung zur Erstellung von Hardmakros mit der Mentor-Graphics-Software gegeben. Die Hardmakros werden mit Standardzellen aus der ES2-Bibliothek der Firma EUROCHIP aufgebaut. Die Hardmakros werden in eine eigenständige Bibliothek abgelegt und können in neuen Chip-Designs verwendet werden.
Mit zunehmend komplexer werdenden Schaltungen wachsen auch die Anforderungen an die Entwicklung einer entsprechenden Leiterplatte. Mit der BOARD-Station von MENTOR-Graphics können professionelle Leiterplatten entwickelt werden.
Im Rahmen dreier Entwicklungsprojekte an der Fachhochschule Offenburg wurden mehrere aufwendige Layoutentwürfe mit der BOARD-Station in verschiedenen Diplomarbeiten durchgeführt. Im Folgenden wird über die dabei gewonnenen Erfahrungen berichtet.
Digitaler Phasenreglerkreis mit numerisch gesteuertem Oszillator als LCA-Microcontroller Kombination
(1992)
Am Beispiel einer Schrittmotor-Indexerschaltung wird der effektive Einsatz von konfigurierbaren Logic Cell Arrays in Zusammenwirkung mit einem Mikrokontroller demonstriert, wobei die hohe Arbeitsgeschwindigkeit des LCAs den Bereich der Schaltung übernimmt und im Regelkreis die arithmetrische Berechnung durchführt. Die Konfiguration des LCA aus dem EPROM des Controllers führt zu einer ungewöhnlichen Flexibilität des Entwurfs und ermöglicht zahlreiche andere Anwendungen mit dieser Architektur.
Die Fachhochschule Offenburg bietet den Studenten des Fachbereichs Nachrichtentechnik seit Ende 1990 das Wahlfach "Entwicklung integrierter Anwenderschaltkreise (ASIC)" an. Ziel des Wahlfachs ist es, den Studenten Grundkenntnisse im Entwurf eines ASIC's zu vermitteln, und wie im folgenden Beitrag aufgezeigt, die Möglichkeit zu bieten, den gesamten Entwurfszyklus von der Schaltungsentwicklung bis hin zur Fertigungsmaske zu durchlaufen.
Die Fachhochschule Offenburg bietet seit dem Wintersemester 1990/91 den Studenten des Fachbereichs Nachrichtentechnik das Wahlpflichtfach ASIC-Design an. Schon kurz nach der Errichtung des ASIC-Design-Centers im Frühjahr 1990 ermöglicht sie damit künftigen Ingenieuren eine Ausbildung in einem Bereich, der in der modernen Schaltungsentwicklung nicht mehr wegzudenken ist.
Im Rahmen eines GPS-Projektes ist an der Fachhochschule Offenburg ein Konzept für einen experimentellen Navigationsempfänger entstanden. Hierfür wurde der digitale Teil entwickelt und aufgebaut. Für die Realisierung der Schaltung sollten benutzerprogrammierbare Gate Arrays von Xilinx (LCAs) verwendet werden, die sich schon bei einer anderen Arbeit an der Fachhochschule bewährt hatten.
Nachfolgend möchte ich dem Leser einen Überblick über das GPS-System und die Entwicklung der LCAs geben.
An der FH Offenburg arbeiten seit Ende 1989 in einem Team die Professoren Dr. Jansen, Dr. Schüssele, die wissenschaftlichen Mitarbeiter Bernd Reinke, Martin Jörger und die Diplomanden Hans Fiesel, Otmar Feißt an dem Entwurf eines Nachrichtenempfängers. Im Rahmen dieses Projekts, genannt GPS-Projekt (GPS = Global Positioning System), wurde im Herbst 1990 ein experimenteller Empfänger in Betrieb genommen. Nachdem die Testergebnisse gezeigt hatten,daß das Konzept der Anlage stimmte, ging es nun um die Miniaturisieriung, Integration und Optimierung der Schaltung. Außerdem sollte der bisher verwendete PC durch einen auf der Platine befindlichen Mikroprozessor ersetzt werden. Im Zusammenhang mit dem GPS-Projekt wurden bisher im Offenburger ASIC-Labor eine Analogschaltung auf einem B500, drei LCA Designs und diverse GAL's entwickelt.
Zur Zeit arbeiten mehrere Diplomanden an der zweiten Generation des Empfängers. Meine Aufgabe besteht darin, die dort noch in drei LCA's untergebrachte digitale Logik sowie einen Teil des bisherigen PC-Interface in einem IMS Gate Forrest zu integrieren. Außerdem muß die Logik von 8 Bit auf einen 16 Bit breiten Datenbus umgestellt und an die neue Peripherie des Mikroprozessors angepasst werden. Damit soll die jetzige Digital-Platine noch weiter verkleinert werden. Wesentlich ist dabei die Umsetzung der zahlreichen Zähler- und Registerstrukturen in einem Gate Forrest. Als Arbeitsmittel stehen Apollo Workstations mit Mentor Software zur Verfügung.
Die Elektronikindustrie bietet für die Realisierung digitaler Logik eine Vielzahl integrierter Bausteine an, die ein Höchstmaß an Zuverlässigkeit als auch Integrationsdichte ermöglichen.
Je nach Integrationsdichte unterscheidet man hierbei zwischen Standardlogik (TTL,CMOS,DTL...), programmierbarer Logik (PLA, GAL...), Gate Arrays und ASIC-Bausteinen. Mit steigender Integrationsdichte werden Systemeigenschaften verbessert, wie Leistungsverbrauch, Platzbedarf, und Zuverlässigkeit.
Jedoch steht ihr auch ein stark erhöhter Kosten- und Entwicklungsaufwand gegenüber, der den Einsatz hochintegrierter Bausteine in Einzelfertigung bzw. Kleinserien verhindert.
Xilinx bietet nun mit seiner LCA-Produktreihe (logic cell array) eine Alternative zu bestehender hochintegrierbarer Logik an, mit der es möglich sein soll, Vorteile der genannten Einzelproduktgruppen zu übernehmen, und deren Nachteile zu beseitigen.
Im Rahmen einer Diplomarbeit wurde ein solcher LCA-Baustein (XC3020) eingesetzt. Anhand der gegebenen konkreten Anwendung konnte hierbei untersuch twerden, wie schnell sich ein solcher Baustein in bestehende Hardware eingliedern läßt, und welche Integrationsdichte er ermöglicht.
Im Folgenden sollen nun als Schwerpunkte das Einsatzgebiet, die Entwicklung und die Simulation des LCA bei vorliegender Aufgabenstellung aufgezeigt werden.
Seit einiger Zeit wird an der Fachhochschule in Offenburg ein Entwicklungsprojekt verfolgt, an dessen Ende ein GPS Empfänger stehen soll. Dabei handelt es sich um einen Satellitenempfänger, mit dem weltweit eine genaue dreidimensionale Standortbestimmung durchgeführt werden kann. Für diesen Empfänger sollte ein Großteil der Analogschaltung, bestehend aus ZF Verstärker, Costas Loop Synchrondemodulator und Pegeldetektor, in das Transistorarray B500a von AEG intgriert werden. Das Chipdesign wurde im Labor für ASIC Design an der FH Offenburg während des Wintersemesters 1990/91 erstellt. Gefertigt wurde der Chip von der Firma AEG in Ulm, wobei die Fertigungszeit des ASIC 6 Wochen betragen hat.
In this paper, we propose an approach for gait phase detection for flat and inclined surfaces that can be used for an ankle-foot orthosis and the humanoid robot Sweaty. To cover different use cases, we use a rule-based algorithm. This offers the required flexibility and real-time capability. The inputs of the algorithm are inertial measurement unit and ankle joint angle signals. We show that the gait phases with the orthosis worn by a human participant and with Sweaty are reliably recognized by the algorithm under the condition of adapted transition conditions. E.g., the specificity for human gait on flat surfaces is 92 %. For the robot Sweaty, 95 % results in fully recognized gait cycles. Furthermore, the algorithm also allows the determination of the inclination angle of the ramp. The sensors of the orthosis provide 6.9 and that of the robot Sweaty 7.7 when walking onto the reference ramp with slope angle 7.9.
Selbsttests in Lernmanagementsystemen (LMS) ermöglichen es Studierenden, den eigenen Lernfortschritt einzuschätzen. Im Gegensatz zur Einreichung und Korrektur vollständig ausformulierter Aufgabenlösungen nutzen LMS überwiegend die Eingabe der Lösung im Antwort-Auswahl-Verfahren (Single-Choice). Nach didaktischen Ansatz „Physik durch Informatik“ geben die Lernenden stattdessen ihre Aufgabenlösungen in einer Programmiersprache ins LMS ein, was eine automatisierte Rückmeldung erleichtert und das Erreichen einer höheren Kompetenzstufe fördert. Es wurden zehn LMS-Selbsttests erstellt, bei denen die Lösungen zu einer Lehrbuch-Aufgabenstellung jeweils durch Eingabe in einer Programmiersprache und von einer Kontrollgruppe im Antwort-Auswahl-Verfahren abgefragt wurden. Ergebnisse aus dem ersten Einsatz dieser Selbsttests für die Lehrveranstaltung Physik im Studiengang Biotechnologie werden vorgestellt.
Current Harmonics Control Algorithm for inverter-fed Nonlinear Synchronous Electrical Machines
(2023)
Current harmonics are a well known challenge of electrical machines. They can be undesirable as they can cause instabilities in the control, generate additional losses and lead to torque ripples with noise. However, they can also be specifically generated in new methods in order to improve the machine behavior. In this paper, an algorithm for controlling current harmonics is proposed. It can be described as a combination of different PI controllers for defined angles of the machine with repetitive control characteristics for whole revolutions. The controller design is explained and important points where linearization is necessary are shown. Furthermore, the limits are analyzed and, for validation, measurement results with a permanently excited synchronous machine on the test bench are considered.
In this paper we report on further success of our work to develop a multi-method energy optimization which works with a digital twin concept. The twin concept serves to replicate production processes of different kinds of production companies, including complex energy systems and test market interactions to then use them for model predictive optimizing. The presented work finally reports about the performed flexibility assessment leading to a flexibility audit with a list of measures and the impact of energy optimizations made related to interactions with the local power grid i.e., the exchange node of the low voltage distribution grid. The analysis and continuous exploration of flexibilities as well as the exchange with energy markets require a “guide” leading to continuous optimization with a further tool like the Flexibility Survey and Control Panel helping decision-making processes on the day-ahead horizon for real production plants or the investment planning to improve machinery, staff schedules and production
infrastructure.
Mathematik lässt sich in vielen Objekten finden. Sei es die lineare Steigung eines Handlaufs zum Schulgebäude oder die nahezu zylindrische Form einer Litfaßsäule in der Innenstadt. Das Bestreben, Schüler*innen diese Zusammenhänge entdecken zu lassen, steht im Zentrum des MathCityMap Projekts (Ludwig et al., 2013). Auf sogenannten mathematischen Wanderpfaden (bzw. Mathtrails) werden Schüler*innen durch eine App zu Mathematikaufgaben an realen Objekten bzw. in realen Situationen ihrer Umwelt geleitet. Um die Aufgaben zu lösen, werden Daten erhoben, z. B. durch Messungen oder Zählen. Entscheidend ist, dass die Aufgaben so gestellt sind, dass der Schritt der Datenbeschaffung nur vor Ort stattfinden kann und somit direkt mit dem Objekt bzw. der Situation verknüpft wird.
Voice User Experience
(2023)
Sprachassistenten wie Alexa, Google Assistant, Siri, Cortana, Magenta und Bixby erfreuen sich dank ihrer intuitiven, schnellen und bequemen Interaktionsmöglichkeiten zunehmender Beliebtheit und bieten deshalb spannende Möglichkeiten für die Weiterentwicklung des digitalen Kundendialogs. Doch ob die Technologie wirklich breite Akzeptanz finden wird, hängt nicht nur mit ihrer technischen Qualität oder Usability zusammen. Auch die User Experience, die neben den Reaktionen der Nutzer*innen während der Anwendung auch ihre Erwartungen und Wahrnehmungen vor und nach der Anwendung umfasst, spielt eine zentrale Rolle. Die Messung der Qualität der Voice User Experience (Voice UX) ist daher von großem Interesse für die Bewertung und Optimierung von Sprachapplikationen. Die Frage, wie die Voice UX von sprachgesteuerten Systemen gemessen werden kann, ist jedoch noch offen. Aktuelle Methoden stützen sich häufig auf UX-Forschung zu grafischen Benutzeroberflächen, obwohl die sprachbasierten Interaktionsformen in der Regel weder visuell noch haptisch greifbar sind. In unserem Beitrag möchten wir den aktuellen Status quo der deutschen Voice User Experience untersuchen. Folgende Fragen stehen dabei im Mittelpunkt: Wie können Sprachanwendungen zu einem erfolgreichen Kundendialog beitragen? Welche Nutzerirritationen treten aktuell bei der Anwendung von Sprachassistenten auf? Mit welchen Methoden lässt sich die Voice User Experience messen?
The present paper addresses the research question: What recommendations for action and potential adjustments should an online magazine for beauty and fashion implement in order to make affiliate articles in these sections even more appealing to the target group and provide added value for them?
To be able to answer this research question, three hypotheses were defined and tested with using qualitative and quantitative research. The qualitative research consisted of user experience testings, where four affiliate articles in the fields of beauty and fashion were tested with 13 participants. The quantitative research involved collecting, analyzing and evaluating data from the four affiliate articles conducted with the company's real-life target group. Based on these results, recommendations for action were derived, which should not only improve the quality of the content in the future, but also increase the efficiency of the implementation of those articles.
In order to attract new students, German universities must provide quick and easy access to relevant information. A chatbot can help increase the efficiency in academic advising for prospective students. In this study we evaluate the acceptance and effects of chatbots in German student-university communication. We conducted a qualitative UX-Study with the chatbot prototype of Offenburg University of Applied Sciences (HSO), in order to determine which features are particularly relevant and which requirements are made by the users. The results show that acceptance increases if the chatbot offers quick and adequate assistance, furthermore, our participants preferred an informal communication style and valued friendly and helpful personality traits for chatbots.
Ensuring that software applications present their users the most recent version of data is not trivial. Self-adjusting computations are a technique for automatically and efficiently recomputing output data whenever some input changes.
This article describes the software architecture of a large, commercial software system built around a framework for coarse-grained self-adjusting computations in Haskell. It discusses advantages and disadvantages based on longtime experience. The article also presents a demo of the system and explains the API of the framework.
Erlang is a functional programming language with dynamic typing. The language offers great flexibility for destructing values through pattern matching and dynamic type tests. Erlang also comes with a type language supporting parametric polymorphism, equi-recursive types, as well as union and a limited form of intersection types. However, type signatures only serve as documentation; there is no check that a function body conforms to its signature.
Set-theoretic types and semantic subtyping fit Erlang’s feature set very well. They allow expressing nearly all constructs of its type language and provide means for statically checking type signatures. This article brings set-theoretic types to Erlang and demonstrates how existing Erlang code can be statically type checked without or with only minor modifications to the code. Further, the article formalizes the main ingredients of the type system in a small core calculus, reports on an implementation of the system, and compares it with other static type checkers for Erlang.
Turbocharger housings in internal combustion engines are subjected to severe mechanical and thermal cyclic loads throughout their life-time or during engine testing. The combination of thermal transients and mechanical load cycling results in a complex evolution of damage, leading to thermo-mechanical fatigue (TMF) of the material. For the computational TMF life assessment of high temperature components, the DTMF model can provide reliable TMF life predictions. The model is based on a short fatigue crack growth law and uses local finite-element (FE) results to predict the number of cycles to failure for a technical crack. In engine applications, it is nowadays often acceptable to have short cracks as long as they do not propagate and cause loss of function of the component. Thus, it is necessary to predict not only potential crack locations and the corresponding number of cycles for a technical crack, but also to determine subsequent crack growth or even a possible crack arrest. In this work, a method is proposed that allows the simulation of TMF crack growth in high temperature components using FE simulations and non-linear fracture mechanics (NLFM).
A NLFM based crack growth simulation method is described. This method starts with the FE analysis of a component. In this paper, the method is demonstrated for an automotive turbocharger housing subjected to TMF loading. A transient elastic-viscoplastic FE analysis is used to simulate four heating and cooling cycles of an engine test. The stresses, inelastic strains, and temperature histories from the FEA are then used to perform TMF life predictions using the standard DTMF model. The crack position and the crack plane of critical hotspots are then identified. Simulated cracks are inserted at the hotspots. For the model demonstrated, cracks were inserted at two hotspot locations. The ΔJ integral is computed as a fracture mechanics parameter at each point along the crack-front, and the crack extension of each point is then evaluated, allowing the crack to grow iteratively. The paper concludes with a comparison of the crack growth curves for both hotspots with experimental results.
Cast aluminum cylinder blocks are frequently used in gasoline and diesel internal combustion engines because of their light-weight advantage. However, the disadvantage of aluminum alloys is their relatively low strength and fatigue resistance which make aluminum blocks prone to fatigue cracking. Engine blocks must withstand a combination of low-cycle fatigue (LCF) thermal loads and high-cycle fatigue (HCF) combustion and dynamic loads. Reliable computational methods are needed that allow for accurate fatigue assessment of cylinder blocks under this combined loading. In several publications, the mechanism-based thermomechanical fatigue (TMF) damage model DTMF describing the growth of short fatigue cracks has been extended to include the effect of both LCF thermal loads and superimposed HCF loadings. This approach is applied to the finite life fatigue assessment of an aluminum cylinder block. The required material properties related to LCF are determined from uniaxial LCF tests. The additional material properties required for the assessment of superimposed HCF are obtained from the literature for similar materials. The predictions of the model agree well with engine dyno test results. Finally, some improvements to the current process are discussed.
This paper describes the magmaOffenburg 3D simulation team trying to qualify for RoboCup 2013. While last year’s TDP focused on different ways how robot behavior can be defined in the magmaOffenburg framework this year we focus on how we statistically evaluate new features on distributed systems. We also show some results gained through such analysis.
This paper describes the magmaOffenburg 3D simulation team trying to qualify for RoboCup 2012. While last year’s TDP focused on the tool set created for 3D simulation and the support for heterogeneous robot models, this year we focus on the different ways how robot behavior can be defined in the magmaOffenburg framework and how those behaviors can be improved by learning.
This paper describes the magmaOffenburg 3D simulation team trying to qualify for RoboCup 2011. While last year’s TDP focused on the tool set created for 3D simulation in this year we describe the further improvement in this tools as well as some new features we implemented focusing on heterogeneous robot models which seem to be used in RoboCup 2012.
An additional tool was written to simply generate situation-dependent strategies. Furthermore some tools, described last year, are now integrated in one single GUI to easy things up.
This paper describes the magmaOffenburg 3D simulation team trying to qualify for RoboCup 2010. While last year’s TDP focused on decisions making using extended behavior networks and on its software architecture and implementation in this year we describe the tool set that was created for RoboCup 3D. It contians a GUI for agent- and world state visualization, for evaluation of localization algorithms and benchmarks in general, a visual editor for Extended Behavior Networks creation and debugging, a live movement tool to interact with the joints and finally a tool for editing behavior motor files.
This paper describes the magmaOffenburg 3D simulation team trying to qualify for RoboCup 2009. It focuses on two distinctive features of the team: decisions making using extended behavior networks and its software architecture and implementation in Java to open the simulation for the Java community.
Team description papers of magmaOffenburg are incremental in the sense that each year we address a different topic of our team and the tools around our team. In this year’s team description paper we focus on the architecture of the software. It is a main factor for being able to keep the code maintainable even after 15 years of development. We also describe how we make sure that the code follows this architecture.
In many application areas, Deep Reinforcement Learning (DRL) has led to breakthroughs. In Curriculum Learning, the Machine Learning algorithm is not randomly presented with examples, but in a meaningful order of increasing difficulty. This has been used in many application areas to further improve the results of learning systems or to reduce their learning time. Such approaches range from learning plans created manually by domain experts to those created automatically. The automated creation of learning plans is one of the biggest challenges.In this work, we investigate an approach in which a trainer learns in parallel and analogously to the student to automatically create a learning plan for the student during this Double Deep Reinforcement Learning (DDRL). Three Reward functions, Friendly, Adversarial, and Dynamic based on the learner’s reward are compared. The domain for evaluation is kicking with variable distance, direction and relative ball position in the SimSpark simulated soccer environment.As a result, Statistic Curriculum Learning (SCL) performs better than a random curriculum with respect to training time and result quality. DDRL reaches a comparable quality as the baseline and outperforms it significantly in shorter trainings in the distance-direction subdomain reducing the number of required training cycles by almost 50%.
To improve the building’s energy efficiency many parameters should be assessed considering the building envelope, energy loads, occupation, and HVAC systems. Fenestration is among the most important variables impacting residential building indoor temperatures. So, it is crucial to use the most optimal energy-efficient window glazing in buildings to reduce energy consumption and at the same time provide visual daylight comfort and thermal comfort. Many studies have focused on the improvement of building energy efficiency focusing on the building envelope or the heating, ventilation, and cooling systems. But just a few studies have focused on studying the effect of glazing on building energy consumption. Thus, this paper aims to study the influence of different glazing types on the building’s heating and cooling energy consumption. A real case study building located under a semi-arid climate was used. The building energy model has been conducted using the OpenStudio simulation engine. Building indoor temperature was calibrated using ASHRAE’s statistical indices. Then a comparative analysis was conducted using seven different types of windows including single, double, and triple glazing filled with air and argon. Tripleglazed and double-glazed windows with argon space offer 37% and 32% of annual energy savings. It should be stressed that the methodology developed in this paper could be useful for further studies to improve building energy efficiency using optimal window glazing.
The variable refrigerant flow system is one of the best heating, ventilation, and air conditioning systems (HVAC) thanks to its ability to provide thermal comfort inside buildings. But, at the same time, these systems are considered one of the most energy-consuming systems in the building sector. Thus, it is crucial to well size the system according to the building’s cooling and heating needs and the indoor temperature fluctuations. Although many researchers have studied the optimization of the building energy performance considering heating or cooling needs, using air handling units, radiant floor heating, and direct expansion valves, few studies have considered the use of multi-objective optimization using only the thermostat setpoints of VRF systems for both cooling and heating needs. Thus, the main aim of this study is to conduct a sensitivity analysis and a multi-objective optimization strategy for a residential building containing a variable refrigerant flow system, to evaluate the effect of the building performance on energy consumption and improve the building energy efficiency. The numerical model was based on the EnergyPlus, jEPlus, and jEPlus+EA simulation engines. The approach used in this paper has allowed us to reach significant quantitative energy saving by varying the cooling and heating setpoints and scheduling scenarios. It should be stressed that this approach could be applied to several HVAC systems to reduce energy-building consumption.
Robotic Process Automation (RPA) is a technology for automating business processes and connecting systems by means of software robots in organizations that is gaining traction and growing out of its infancy. Thus, it is no longer just a question of what is technologically feasible, but rather how this technology can be used most profitably. However, business models for RPA remain underinvestigated in literature. Existing work is highly heterogenous, lacking structure and applicability in practice. To close this gap, we present an approach to sustainably establish RPA as a driver of digitization and automation within a company based on an iterative, holistic view of business models with the Business Model Canvas as analysis tool.
Complex tourism products with intangible service components are difficult to explain to potential customers. This research elaborates the use of virtual reality (VR) in the field of shore excursions. A theoretical research model based on the technology acceptance model was developed, and hypotheses were proposed. Cruise passengers were invited to test 360° excursion images on a landing page. Data was collected using an online questionnaire. Finally, data was analyzed using the PLS-SEM method. The results provide theoretical implications on technology acceptance model (TAM) research in the field of cruise tourism. Furthermore, the results and implications indicate the potential of virtual 360° shore excursion presentations for the cruise industry.
Plastics are used today in many areas of the automotive, aerospace and mechanical engineering industries due to their lightweight potential and ease of processing. Additive manufacturing is applied more and more frequently, as it offers a high degree of design freedom and eliminates the need for complex tools. However, the application of additively manufactured components made of plastics have so far been limited due to their comparatively low strength. For this reason, processes that offer additional reinforcement of the plastic matrix using fibers made of high-strength materials have been developed. However, these components represent a composite of different materials produced on the basis of fossil raw materials, which are difficult to recycle and generally not biodegradable.
Therefore, this paper will explore the potential for new composite materials whose matrix consists of a bio-based plastic. In this investigation, it is assumed that the matrix is reinforced with a fibrous material made of natural fiber to significantly increase the strength. This potential material should offer a lightweight yet strong structure and be biodegradable after use under controlled conditions. Therefore, the state of the art in the use of bio-based materials in 3D printing is first presented. In order to determine the economic boundary conditions, the growth potentials for bio-based materials are analyzed. Also, the recycling prospects for bio-based plastics will also be highlighted. The greenhouse gas emissions and land use to be expected when using bio-based materials are also estimated. Finally, the degradability of the composites is discussed.
Additive manufacturing enables the production of lightweight and resilient components with extensive design freedom. In the low-cost sector, material extrusion (e.g. Fused Deposition Modeling - FDM) has been the main method used to date. Thus, robust 3D printers and inexpensive 3D materials (polymer filaments) can be used. However, the printing times for FDM are very long and the quality of the dimensions and surfaces is limited. Recently, new processes from the field of Vat polymerization have entered the market. For example, masked stereolithography (mSLA) offers a significant improvement in component quality and build speed through the use of resins and large-area curing at still reasonable costs. Currently, there is only limited knowledge available on the optimal design of components using this young process. In this contribution, design guidelines are developed to determine the possibilities and limitations of mSLA from a design point of view. For this purpose, a number of test geometries are designed and investigated to obtain systematic insights into important design features, such as wall thickness, grooves and holes. In addition, typical problems in additive manufacturing, such as the design of overhangs and fits or the hollowing of components, are investigated. The evaluation of practical 3D printing tests thus provides important parameters that can be transferred to design guidelines of components for additive manufacturing using mSLA.
In 4D printing an additively manufactured component is given the ability to change its shape or function under the influence of an external stimulus. To achieve this, special smart materials are used that are able to react to external stimuli in a specific way. So far, a number of different stimuli have already been investigated and initial applications have been impressively demonstrated, such as self-folding bodies and simple grippers. However, a methodical specification for the selection of the stimuli and their implementation was not yet in the foreground of the development.
The focus of this work is therefore to develop a methodical approach with which the technology of 4DP can be used in a solution- and application-oriented manner. The developed approach is based on the conventional design methodology for product development to solve given problems in a structured way. This method is extended by specific approaches under consideration of the 4D printing and smart materials.
To illustrate the developed method, it is implemented in practice using a problem definition in the form of an application example. In this example, which represents the recovery of an object from a difficult-to-access environment, the individual functions of positioning, gripping and extraction are implemented using 4D printing. The material extrusion process is used for additive manufacturing of all components of the example. Finally, the functions are successfully tested. The developed approach offers an innovative and methodical approach to systematically solve technical complex problems using 4DP and smart materials.
Kundendaten im E-Commerce – Optimierungspotenzial im Checkout-Prozess des deutschen Online-Handels
(2023)
Die Gestaltung eines benutzungsfreundlichen Checkout-Prozesses ist für den Erfolg des E-Commerce von großer Bedeutung. Die Abfrage der Kundendaten bildet einen wichtigen Teil der Customer Journey. Auf der einen Seite wollen die Handelsunternehmen so viel wie möglich über ihre Kundschaft erfahren, um möglichst zielgenaue Angebote und Marketingmaßnahmen ausspielen und das perfekte Einkaufserlebnis generieren zu können. Auf der anderen Seite möchten sich die Kundinnen und Kunden beim Online-Shopping auf den Kauf konzentrieren und erwarten einen reibungslosen Ablauf. Der Checkout-Prozess ist in diesem Zusammenhang ein kritischer Punkt. Dies spiegelt sich auch in den hohen Warenkorbabbruchraten wider. Um Online-Shoppende nachhaltig zu begeistern, gibt es noch viel Raum für Verbesserungen. Mit dem Ziel, den Status quo im deutschen Online-Handel besser zu verstehen und Usability und User Experience für eine höhere Konvertierungsrate zu optimieren, untersuchte die hier vorgestellte Forschungsarbeit den Anmelde- und Checkout-Prozess der 100 umsatzstärksten Online-Shops in Deutschland. Es werden die Ergebnisse der Studie präsentiert und aufgezeigt, an welchen Stellen Optimierungspotenzial besteht – bspw. bei zu komplizierten Formularen, unnötigen Datenabfragen oder erzwungenen Registrierungen – sowie Vorschläge für die Praxis des Online-Handels diskutiert.
4D printing (4DP) is an evolutionary step of 3D printing, which includes the fourth dimension, in this case the time. In different time steps the printed structure shows different shapes, influenced by external stimuli like light, temperature, pH value, electric or magnetic field. The advantage of 4DP is the solution of technical problems without the need for complex internal energy supply via cables or pipes. Previous approaches to 4D printing with magnetoresponsive materials only use materials with limited usability (e.g. hydrogels) and complex programming during the manufacturing process (e.g. using magnets on the nozzle). The 4D printing using unmagnetized particles and the later magnetization allows the use of a standard 3D printer and has the advantage of being easily reproducible and relatively inexpensive for further application. Therefore, a magnetoresponsive feedstock filament is produced which shows elastic and magnetic properties. In a first step, pellets are produced by compounding polymer with magnetic particles. In a second step, those pellets are extruded in form of filament. This filament is printed using a conventional printing system for Material Extrusion (MEX-TRB/P). Various prototypes have been printed, deformed and magnetized, which is called programming. In comparison to shape memory polymers (SMP) the repeatability of the movement is better. The results show the possibilities of application and function of magnetoresponsive materials. In addition, an understanding of the behaviour of this novel material is achieved.
Organized by the Fraunhofer Additive Manufacturing Alliance, the bi-annual Direct Digital Manufacturing Conference brings together researchers, educators and practitioners from around the world. The conference covers the entire range of topics in additive manufacturing, starting with methodologies, design and simulation, right up to more application-specific topics, e.g. from the realm of medical engineering and electronics.
Evaluierung von Kalman Filter Konfigurationen zur Roboterlokaliserung mittels Sensordatenfusion
(2023)
In dieser Arbeit werden drei verschiedene Konfigurationen der von Tom Moore, für das Robot Operating System, entwickelte Kalman-Filter vorgestellt. Diese bilden die Grundlage für eine Lokalisierung mittels Sensorfusion in dem verwendeten ROS-Framework. Ziel dieser Arbeit ist der Aufbau und die Verifikation einer Lokalisierung für ein mobiles Robotersystem Husky A200 der Firma Clearpath Robotics. Hierzu wurden die Möglichkeiten des bestehenden Systems untersucht und mehrere Versionen von Lokalisierungsfiltern konfiguriert. Am an Ende, wird eine Verifikation der Ergebnisse in verschiedenen Szenarien gegeneinandergestellt. Hierzu werden die Ergebnisse einer Variante des Extended Kalman-Filters in 2D (EKF2D), eine Variante des Unscented Kalman-Filter in 2D (UKF2D) und eine Variante des Extended Kalman-Filters in 3D (EKF3D) verifiziert und verglichen. Die Untersuchungen ergaben das der EKF2D die besten und robustesten Ergebnisse für eine Lokalisierung erbringt, trotz, im Vergleich zu der UKF2D Variante, 17,3 % höhere Endpositionsabweichung aufweist. Die in diesem Projekt gewählte EKF3D Konfigurationsvariante eignet sich, wegen seinen starken Ungenauigkeiten in der Höhenbestimmung nicht für eine aussagekräftige Positionsbestimmung.
Die Positionierung mobiler Systeme mit hoher Genauigkeit ist eine Voraussetzung für intelligentes autonomes Verhalten, sowohl in der Feldrobotik als auch in industriellen Umgebungen. Dieser Beitrag beschreibt den Aufbau einer Roboterplattform und ihre Verwendung für den Test und die Bewertung von Kalman-Filter-Konfigurationen. Der Aufbau wurde mit einem mobilen Roboter Husky A200 und einem LiDAR-Sensor (Light Detection and Ranging) realisiert. Zur Verifizierung des vorgeschlagenen Aufbaus wurden fünf verschiedene Szenarien ausgearbeitet. Mit denen wurden die Filter auf ihre Leistungsfähigkeit hinsichtlich der Genauigkeit der Positionsbestimmung getestet.
The title expresses goals the Kansas Geological Survey (KGS) has been working toward for some time. This report extends concepts and objectives developed while working on an earlier effort for effective interactive digital maps on the Internet. That work was reported to the 1998 DMT Workshop in Champaign, Illinois (Ross, 1998). The current project goes beyond previous efforts that focused on methods for serving the contents of a geographic information system (GIS); the points, lines, and polygons representing features of the digital geologic map and the data in the attribute tables of the GIS describing those features.
The nonlinear behavior of inverters is largely impacted by the interlocking and switching times. A method for online identifying the switching times of semiconductors in inverters is presented in the following work. By being able to identify these times, it is possible to compensate for the nonlinear behavior, reduce interlocking time, and use the information for diagnostic purposes. The method is first theoretically derived by examining different inverter switching cases and determining potential identification possibilities. It is then modified to consider the entire module for more robust identification. The methodology, including limitations and boundary conditions, is investigated and a comparison of two methods of measurement acquisition is provided. Subsequently the developed hardware is described and the implementation in an FPGA is carried out. Finally, the results are presented, discussed, and potential challenges are encountered.
The present work describes an extension of current slope estimation for parameter estimation of permanent magnet synchronous machines operated at inverters. The area of operation for current slope estimation in the individual switching states of the inverter is limited due to measurement noise, bandwidth limitation of the current sensors and the commutation processes of the inverter's switching operations. Therefore, a minimum duration of each switching state is necessary, limiting the final area of operation of a robust current slope estimation. This paper presents an extension of existing current slope estimation algorithms resulting in a greater area of operation and a more robust estimation result.
The isolation measures adopted during the COVID-19 pandemic brought light to discussions related to the importance of meaningful social relationships as a basic need to human well-being. But even before the pandemic outbreak in the years 2020 and 2021, organizations and scholars were already drawing attention to the growing numbers related to lonely people in the world (World Economic Forum, 2019). Loneliness is an emotional distress caused by the lack of meaningful social connections, which affects people worldwide across all age groups, mainly young adults (Rook, 1984). The use of digital technologies has gained prominence as a means of alleviating the distress. As an example, studies have shown the benefits of using digital games both to stimulate social interactions (Steinfield, Ellison & Lampe, 2008) and to enhance the effects of digital interventions for mental health treatments, through gamification (Fleming et al., 2017). It is with these aspects in mind that the gamified app Noneliness was designed with the intention of reducing loneliness rates among young students at a German university. In addition to sharing the related works that supported the application development, this chapter also presents the aspects considered for the resource's design, its main functionalities, and the preliminary results related to the reduction of loneliness in the target audience.
Die Wichtigkeit des Faches FEM ist sicher unumstritten. Um in der gegebenen Zeit eine ausreichende Einarbeitung in die Methode und die Uebung am Rechner durchfuehren zu koennen, ist der Einsatz eines auf PC lauffaehigen FE-Lernprogramms eine gute Hilfe. Sind die Grundlagen da, weiss der Student, welche Eingaben bei einem FE-Programm zu machen sind. Fuer manche Fachgebiete genuegt schon die Arbeit mit einem solchen Programm. Sind entsprechende Uebungen mit dem Lernprogramm erfolgt, kann auf professionellen Programmen wie z.B. CAEDS das Zusammenspiel CAD/FEM ernsthaft betrieben werden. Es sollte ein Fachsemester ausgesucht werden, in dem CAD und FE angeboten wird. Dieses Fachsemester sollte, um den Nutzen der FEM in moeglichst vielen Fachgebieten zu haben, zum Ende des Grundstudiums, spaetestens aber zu Beginn des Hauptstudiums liegen.
Bei thermischen Konvektionsströmungen ist der Einfluß von Geometrie und Randbedingungen für die Strömungsform und den konvektiven Wärmetransport von wesentlicher Bedeutung. Mit Hilfe der optischen Strömungsmeßtechnik (Differentialinterferometrie) wurde die freie Konvektion in einem quaderförmigen Behälter mit seitlicher Beheizung untersucht. Der Aufbau und die Experimente werden beschrieben. Die quantitative Auswertung von Dichte- und Temperaturfeldern aus den Differentialinterferogrammen wird aufgezeigt und der Einfluß unterschiedlicher Randbedingungen wie feste und freie Oberfläche auf die Strömungsform und den Wärmetransport dargelegt. Die eingesetzte Differentialinterferometrie zeigt aufgrund ihrer Anpassungsfähigkeit an die jeweiligen Versuchsbedingungen und durch den einfachen Aufbau spezifische Vorteile gegenüber dem Mach-Zehnder Interferometer.
A polarization mode dispersion measurement set-up based on a Mach-Zehnder Interferometer was realized. Measurements were carried out on short high-birefringent fibers and on long standard telecommunication single-mode fibers. In order to ensure high accurate results, special emphasis was placed on the evaluation of the interference pattern. The procedure will be described in detail and practical measurement results will be presented.
Bei einem neuen Kühldeckensystem wird die Luft im Deckenhohlraum oberhalb der abgehängten Decke durch Konvektoren gekühlt, wobei die Wärmeübertragung ausschließlich durch freie Konvektion und Strahlung erfolgt. Die abgehängte Decke nimmt durch Strahlung und freie Konvektion Wärme aus dem darunterliegenden Büroraum auf und gibt sie über freie Konvektion an die Luft im Deckenhohlraum sowie durch Strahlung an die Begrenzungsflächen des Deckenhohlraumes ab. Die vom Kühlwasser durchströmten Rippenrohre nehmen ihrerseits Wärme aus der Luft im Hohlraum auf, die infolge der freien Konvektion durch die Rippenrohre strömt. Zur Aufnahme des bei starker Belastung und Dauerbetrieb anfallenden Kondensats ist unterhalb des Konvektors eine Kondensatauffangwanne angebracht. Mit dem von Rutsch erstellten Rechenprogramm ist es möglich, für verschiedenste Randbedingungen die Rippenrohre auf maximale Kühlleistung zu optimieren. Voraussetzung für die direkte Anwendung dieses Berechnungsverfahrens sind jedoch ungestörte An- und Abströmbedingungen der Luft am Konvektor. Neben der Optimierung der Rippenrohre auf Kühlleistung ist für den Aufbau der eigentlichen Decke die Luftströmung im Deckenhohlraum und die Austrittstemperatur aus den Konvektoren von entscheidender Bedeutung. Die maximale Kühlleistung der Rippenrohre kann nur erreicht werden, wenn alle Einzelrippenrohre nahezu gleichmäßig durchströmt werden und günstige Abströmverhältnisse vorhanden sind. Die Strömungsverhältnisse im Deckenhohlraum und innerhalb der Konvektoren wurden durch Rauch sichtbar gemacht und auf Video aufgezeichnet. Entscheidenden Einfluß auf die Temperaturverteilung an der Kühldecke haben die Breite des Konvektors, die Konstruktion der Kondensatauffangwanne, der Abstand der Konvektoren voneinander und der Konvektortyp. Direkt unterhalb der Kondensatauffangwanne beträgt die Temperaturdifferenz ca. 3 K. Der Temperaturgradient im Abströmbereich liegt bei ca. 0,2 bis 0,3 K/m.
Massiv- Heiz-/Kühldecken bestehen im wesentlichen aus in der tragenden Deckenkonstruktion eingegossenen Kunststoffrohren, die je nach Jahreszeit von Heiz- bzw. Kühlwasser durchströmt verden. Das instationäre Verhalten wurde mit dem Anlagen und Simulationsprogramm TRNSYS untersucht. Anhand ausgesuchter Ergebnisse können die Anforderungen an die notwendigen Regelkonzepte abgeleitet werden. Es eignen sich für derartige Systeme, insbesondere wegen ihrer großen Speicherfähigkeit und damit Trägheit, modifizierende selbstadaptierende Regler. Aufgrund der großen Trägheit der Massivdecke ist eine direkte außentemperaturgeführte Vorlauftemperaturregelung des Wasserstromes nicht sinnvoll. Es sollte ein selbstadaptierendes Regelsystem verwendet werden, das anhand der vorangegangenen Lastverläufe die Gebäudekonstante und damit das Speicherverhalten der Räume ermittelt. Damit der Regelaufwand reduziert werden kann, sollen mehrere Räume als Gruppe zusammengefaßt werden. Als weitere Größe für das Regelkonzept ist die Speichertemperatur am Ende der Ladezeit zu messen und in das Programm mit einzubinden.
Vortex breakdown phenomena in rotating fluids are investigated both theoretically and experimentally. The fluid is contained in a cone between two spherical surfaces. The primary swirling motion is induced ba the rotating lower boundary. The upper surface can be fixed with non-slip condition or can be a stress-free surface. Depending on these boundary conditions and on the Reynolds number, novel structures of recirculation zones are realized. The axisymmetric flow patterns are simulated numerically by a finite difference method. Experiments are done to visualize the topological structure of the flow pattern and to observe the existence ranges of the different recirculating flows. The comparison between theory and experiment shows good agreement with respect to the topological structure of the flow.
Die Untersuchungen wurden im Raumlufttechnischen Labor der Fachhochschule Offenburg zur Beurteilung der Effizienz der Schadstoffabfuhr unter Einhaltung der thermischen Behaglichkeit beim Einsatz verschiedener Luftführungssysteme- Quellauslaß, Deckendrallauslaß und Fußbodenauslaß- in Verbindung mit einer Kühldecke durchgeführt. Die Ergebnisse zeigen, daß keine signifikanten Vorteile für ein bestimmtes RLT-Konzept bestehen. Je nach Wahl der Randbedingungen der Untersuchungen liegen die erreichbaren Kühlleistungen innerhalb einer Systemkombination weiter auseinander als im Verhältnis zu den Vergleichssystemen. Insgesamt ist hinsichtlich der von beiden Systemen zusammen abgebbaren, maximalen Kühlleistung die Kombination Kühldecke mit Deckendralluftauslaß vorteilhaft.
Im Institut für angewandte Forschung (IAF) der FH Offenburg wird derzeit eine Chipkarte entwickelt, mit der Temperaturzeitreihen über längere Zeiträume aufgezeichnet werden können. Die zur Datenerfassung erforderlichen Systemkomponenten sind auf nur einem Halbleiterchip zusammengefaßt, wodurch sich bei großen Produktionsstückzahlen ein sehr niedriger Herstellpreis erzielen läßt. Die 'Thermologger' genannte Chipkarte kann zudem mit Standard-Chipkartenlesern und einer dedizierten Software auf jedem PC konfiguriert, gelesen und ausgewertet werden.
Bei modernen Lokomotiven mit Drehstrom-Asynchronmotoren und mit bis zu 7 Megawatt Leistung, neigt das Antriebssystem bei nicht ausreichendem Kraftschluß zwischen Treibradsatz und Schiene zum 'Durchdrehen'. Bei diesem Vorgang wird nahezu die gesamte Energie zur Beschleunigung des Radsatzes eingesetzt, was zu mechanischen Schäden an den Rädern und Schienen führen kann. Beim Bremsen ist dies ähnlich, die Räder gleiten auf den Schienen, wenn zuviel Bremskraft gefordert wird. Die übertragbaren Zug- und Bremskräfte werden primär durch die Radsatzlast und den Kraftschlußbeiwert bestimmt, wobei der Verlauf der Kraftschlußkennlinie als Funktion des Schlupfs oder der Schlupfgeschwindigkeit im wesentlichen durch den Schienenzustand (naß oder trocken) bestimmt wird. Eine hohe Kraftschlußnutzung wird dann erreicht, wenn man laufend denjenigen Schlupfwert einstellt, der zum jeweiligen Kraftschlußmaximum führt. Hierzu werden in der Praxis verschiedene Konzepte und Methoden eingesetzt, es ist bis heute jedoch keine Methode bekannt, den Verlauf der Kraftschlußkennlinie meßtechnisch laufend zu erfassen oder rechentechnisch zu bestimmen. Bei der hier vorgestellten Vorgehensweise wurde der mechanische Antrieb zusammen mit dem Rad-Schiene-Kontakt als Zustandsraumodell beschrieben. Die Betrachtungen beruhen dann auf einer Frequenzganguntersuchung des eingeführten linearen Zustandsraummodells. Aufgrund der Linearisierung gelten die Ergebnisse der Frequenzgangsberechnung nur für den jeweiligen Betriebspunkt der Kraftschlußkennlinie, also für eine bestimmte Steigung. Variiert man nun die Steigung, so läßt sich der Einfluß der nichtlinearen Kraftschlußkennlinien ermitteln. Zur Messung von Frequenzgängen eignen sich insbesondere Verfahren der Orthogonalen Korrelation. Die technische Realisierung wird skizziert. Die Meßinformation ist dann die Basis für eine Regelung, die ein permanentes optimales Fahren im Kraftschlußmaximum zuläßt und zwar beim Beschleunigen und beim Bremsen. Das beschriebene Meß- und Regelungsverfahren ist derzeit in der Schweiz in der Betriebserprobung.
Durch den verstärkten Einsatz von EDV-Geräten an den Arbeitsplätzen in Büroräumen stiegen die flächenbezogenen inneren Kühllasten deutlich an. Für die Arbeitsplätze in Fensternähe müssen EDV-gerechte Lichtverhältnisse vorhanden sein. Es werden Versuchsergebnisse eines neu entwickelten Kühlkonvektors im Fensterbereich im Zusammenhang mit Innenjalousien vorgestellt. Dieser Kühlkonvektor eignet sich auch für den kombinierten Einsatz mit Kühldecken und raumlufttechnischen (RLT)-Anlagen, wie weitere Versuche bestätigen. Der Kühlkonvektor kann auch beim Ersatz von Induktionsgeräten angewandt werden, die z.B. nach dem 4-Leiter-Prinzip angeschlossen sind. Die Untersuchungen haben gezeigt, daß mit der Kombination von Kühldecke, Kühlkonvektor und RLT-Anlage große flächenbezogene Kühllasten abgeführt werden können, ohne daß dadurch die thermische Behaglichkeit negativ beeinflußt wird. Der Luftstrom läßt sich auf das hygienisch bzw. auf das zur Entfeuchtung notwendige Maß reduzieren, wodurch sich die Betriebskosten senken. Der Anteil der drei Komponenten an der gesamten Kühllast beträgt im Mittel: 15 % RLT-Anlage, 15 % Kühlkonvektor und 70 % Kühldecke.
In den Unternehmen der Automobilbranche herrscht ein beträchtlicher Rationalisierungsdruck mit einem daraus folgenden hohen Automatisierungsgrad. Den erheblichen Investitionen in modernste Fertigungstechnologien und Montageanlagen steht zunehmend die Forderung eines Return of Investment mit zweistelligen Prozentsätzen gegenüber. Betriebliche Abläufe und Fertigungsprozesse werden daher sehr detailliert geplant, wobei 'minutiöse' Planungen oftmals nur die Beherrschung komplexer Prozeßabläufe vortäuschen. Ungeplante Einflußfaktoren und Störungen lassen manche Planung schnell zu Makulatur verkommen.
Geschäftsprozeßmodellierung und dynamische Simulationen von Fertigungsprozessen mittels zeitbewerteter Petri-Netze, bieten ausgezeichnete Möglichkeiten, komplexe Zusammenhänge transparenter zu machen und neue Erkenntnisse über die Einflüsse von Störungen oder Qualitätsschwankungen auf die Produkt- und Prozeßqualität zu erhalten. In einem Teilbereich der Produktion der Daimler-Benz AG in Gaggenau wurden Qualitätsstörungen und ihre Wirkungen auf den Fertigungsprozeß von Drehmomentwandlern untersucht. Die im Fertigungsverlauf auftretenden qualitätsbeeinflussenden Störungen wurden in Petri-Netz-Modellen abgebildet und in diversen Szenerien simuliert. Die Auswirkungen auf die Anlagenverfügbarkeit, Durchlaufzeiten, Lagerstrategien und die Kostensituationen wurden verdeutlicht und erste Maßnahmen mit den zugehörigen Voraussetzungen aufgezeigt.
Moderne strombetriebene Wärmepumpenanlagen sind im Hinblick auf die Umweltbilanz und die Jahresenergiekosten selbst gegenüber den effizientesten gasbefeuerten und ölbefeuerten Heizanlagen deutlich im Vorteil. Um diesen Vorteil auch in der Praxis zu erreichen, muss der Auswahl und Dimensionierung der Wärmepumpe einschliesslich der Wärmequelle besondere Beachtung geschenkt werden. Hinsichtlich des Temperaturniveaus bietet sich als Wärmequelle besonders das Erdreich an, beispielsweise durch Erdsonden erschlossen. Abhängig von den hydrogeologischen Rahmenbedingungen ist insbesondere auf die längenbezogene Wärmeentzugsleistung der Erdsonden zu achten. Hierfür hat das Ministerium für Umwelt und Verkehr des Landes Baden-Württemberg einheitliche Grundlagen für die Beurteilung und Bearbeitung geschaffen. Ausgehend von einer Wärmepumpenheizanlage, von der bereits Messungen vorliegen, wurde diese Anlage mit dem Simulationsprogramm TRNSYS nachgebildet und die wesentlichen Temperaturverhältnisse in verschiedenen Erdreichtiefen und Erdsondenabständen ermittelt. Mit diesen Erdreichtemperaturen werden mit Hilfe eines vereinfachten Energiebilanzverfahrens die Jahresarbeitszahlen ermittelt. Dabei zeigt sich, dass neben der Hydraulik der Heizanlage der Art der Trinkwassererwärmung besondere Bedeutung zukommt, da dies sich entscheidend auf die Jahresarbeitszahl und damit auch auf die mögliche Reduzierung des CO2-Ausstosses auswirkt.
Der Bericht beschreibt die Vorgehensweise für die Entwicklung von Hochleistungszweitaktmotoren beim Institut für Transportwesen und Motorentechnik (ITM). Die gezielte Auswertung von motorischen Daten bietet die Möglichkeit, Motorenentwicklungsprozesse in wichtigen Fragestellung zu unterstützen. Für die Auslegung von Bauteilen und Prozessen werden Simulationsprogramme eingesetzt. Diese Entwicklungswerkzeuge können effizienter angewandt werden, wenn die Berechnungsergebnisse einer Qualitätskontrolle unterliegen. Wichtig hierfür sind Bewertungskriterien, die aus der Erfahrung einer Vielzahl von Versuchen bestehen. Da in Produktion gegangene Motoren üblicherweise schon einen Evolutionsprozeß durchlaufen haben, kann vermutet werden, daß solche Kriterien von erfolgreichen und weniger erfolgreichen Produkten in der Weise abgeleitet werden können, wie dies hier vorgestellt wurde. Die Angabe von Trendfunktionen für konstruktive Merkmale und Betriebsparameter ist notwendig um eine bedarfsorientierte Vorauslegung von Antrieben durchführen zu können. Alle hier vorgestellten Ergebnisse sind natürlich von der Datenmenge abhängig, die zu den jeweiligen Fragestellungen ausgewertet werden kann. Dazu müssen alle durchgeführten Versuchsreihen in die Datenbank eingeführt und mit Ergebnissen der Simulationsrechnungen in Beziehung gesetzt werden.
We will present the first example of a two-dimensional scanned TLC-plate, measured by use of a diode-array scanner. A spatial resolution of 250 µm was achieved on plate. The system provides real 2D fluorescence and absorption spectra in the wavelength-range from 190 to 1000 nm with a spectral resolution of greater than 1 nm. A mixture of 12 sulphonamides was separated by using a cyanopropyl-coated silica gel plate (Merck, 1.16464) with the solvent mix of methyl tert-butyl ether-methanol-dichloromethane-cyclohexane-NH3 (25%) (48:2:2:1:1, v/v) in the first and with a mixture of water-acetonitrile-dioxane-ethanol (8:2:1:1, v/v) in the second direction. Both developments were carried out over a distance of 70 mm. A separation number (spot capacity) of 259 was calculated. We discussed a new formula for its calculation in 2D-TLC separations. The drawback of this method is that measuring a 2D-TLC plate needs more than 3 h measurement time.
Ein neuer Ansatz wurde für mobile Roboter zur gleichzeitigen 3D (Drei-Dimensionaler) Kartierung und Lokalisierung vorgestellt. Die Grundlage bilden attributierte Flächenmodelle, die z.B. von segmentierten Laserscanner-Tiefenbildern stammen. Zur Optimierung der Gesamtähnlichkeit zwischen Flächenmodellen unter Zeitbedingungen werden mehrere Verfahren (Beschränkte Baumsuche, Iterative Verfeinerung, Evolutionäralgorithmus) kombiniert. Es wird speziell anhand der Ähnlichkeitsmaße gezeigt, wie das Wissen über die Lage stufenweise generiert und verwendet wird. Erste Messungen an realen segmentierten Tiefenbildfolgen zeigen, dass das Verfahren unbekannte übelappung, Verdeckung und Segmentierungsfehler toleriert sowie Echtzeitpotenzial besitzt.
Die Verarbeitung analoger Signale durch digitale Techniken ist durch die enorme Leistungsfähigkeit der Prozessoren zwischenzeitlich zum Standard geworden. Eine hinreichende Genauigkeit der digitalen Verarbeitung kann durch Wahl der notwendigen Wortbreite relativ einfach bewerkstelligt werden, wobei der Aufwand mit zunehmender Wortbreite linear, teilweise auch quadratisch steigt. Zum Flaschenhals in der Verarbeitung wird aber häufig die Wandlung der analog vorliegenden Signale in digitale Signale, ebenso die Rückwandlung der digitalen Signale in analoge Spannungs- oder Stromverläufe. Der Aufwand für diese teils analogen, teils digitalen Systeme steigt oft exponentiell mit der geforderten Genauigkeit bzw. Auflösung der Systeme und erfordert in konventioneller Technik bei hoher Auflösung aufwendige Maßnahmen auf dem Chip. Oversampling- und Rauschfärbungs-Methoden sind in der Verarbeitung von Audio-Signalen schon seit langem probate Mittel, um die Auflösung mit moderatem Aufwand zu erhöhen. Derartige Techniken werden zwischenzeitlich auch gerne im Bereich der Antriebstechnik, wo die Anforderungen an die erforderliche Positioniergenauigkeit zunehmen, eingesetzt. Ziel des Vortrags ist eine leicht verständliche Einführung in die Themengebiete der Überabtastung und der Rauschfärbung und ihre Anwendung im Hinblick auf Rundungsvorgänge im digitalen Bereich, in D/A-Wandlern und A/D-Wandlern vom Delta-Sigma-Typ.
In jüngster Zeit werden vermehrt größere thermische Solaranlagen zur Warmwassererzeugung und zur Heizungsunterstützung in größeren Mehrfamilienhäusern und Neubausiedlungen mit Einfamilien- bzw. Doppelhäusern eingesetzt. Während die hydraulische Einbindung der Solarenergie zur Heizungsunterstützung meist problemlos realisiert wird, entstehen bei der Warmwasserbereitung immer wieder Probleme hinsichtlich der Legionellenproblematik. Die Anforderungen im DVGW Arbeitsblatt W551, den gesamten Wasserinhalt der Vorwärmstufen einmal am Tag auf 60 Grad C zu erwärmen und damit zur Verminderung des Legionellenwachstums beizutragen, führen immer wieder dazu, daß durch fehlerhafte Konzepte, insbesondere im Bereich der hydraulischen Schaltungen in Verbindung mit den Regelkonzepten, der solare Deckungsgrad bei der Trinkwassererwärmung sehr gering bleibt. Anhand ausgewählter Ausführungsbeispiele wird die Problematik ausführlich behandelt und Lösungsmöglichkeiten aufgezeigt. Abschließend werden funktionsgerechte Anlagentechniken verschiedener Ausführungsvarianten besprochen.
Vom Tragverhalten und von der Geometrie (eben oder gekrümmt, linien- oder flächenhaft ausgeprägt) her unterscheidet man Sandwich-Balken, Sandwich-Platten, -Scheiben und -Schalen. Im Normalfall hat man ein Zusammenwirken aus drei Schichten: Den zug- bzw. druckaufnehmenden Deckschichten und der schubbelasteten Kernschicht. Die Klebverbindung von Kern- und der jeweiligen Deckschicht hat mindestens die kraftübertragende Eigenschaft der schwächsten Schicht (d.h. der Schicht mit dem kleinsten E-Modul) aufzuweisen. Dies ist in der Regel die Kernschicht. Diese Eigenschaft der Verklebung muss über die Lebensdauer des Tragwerkes erhalten bleiben. Bei rein statischer Belastung sind die Verklebung in ihrer Zeitfestigkeit und das Lastkriechen der schubaufnehmenden Kernschicht zu beachten. Bei dynamischer Belastung sind die entsprechenden Wöhler-Kurven zu beachten. Viele Klebstoffe sind dynamisch belastbar. Wenn man die Festigkeits- und Steifigkeitsberechnung durchführen möchte, kann die so genannte exakte Berechnungsmethode über gekoppelte partielle Differenzialgleichungen zum Ziel führen. Neben der Berechnung der Verformungen und Spannungen infolge Platten- und Scheibenwirkung kommen bei hochbelasteten gekrümmten Sandwich-Bauteilen auch die Koppelgleichungen von Platte und Scheibe zur Schale hinzu. Außerdem kommt bei dünnen, unter Druck stehenden Deckschichten die Abschätzung der Knitterspannungen hinzu, die ja nach der Bettung der Deckschicht auf der Kernschicht weitestgehend von der Dehnsteifigkeit der Kernschicht abhängt. Seit den 60-er Jahren hat sich die Finite-Elemente-Methode als eine computergestützte Berechnungsmethode etabliert, die zwar als Näherungsmethode definiert ist aber eine hervorragende Genauigkeit in der Spannungs- und Steifigkeitsberechnung bietet.
The establishment of a software tool chain among requirements management tools, black box test approach tool CTE XL and RTRT is proposed in this paper. The use of Classification Tree Method ensures the reduction in the number of test cases and promises an increased efficiency when testing. The traceability of test cases and requirements is guaranteed by the established software tool chain with well defined interfaces. As the experimental results point out, a better test coverage can be achieved. Future work can be based on automatic generation of init and expected values for testing, requiring no interference from a software quality engineer. In conclusion, the tasks that need to be performed by the software quality engineers is to define the black box test cases using CTM/CTE XL, import the requirements from the requirements management tools, import the XML file to test tool RTRT. By giving the initial and expected values the testing can be performed in a comfortable way.
Experimental and numerical investigations into the forming of tailored strips and tailored tubes
(2008)
Through the application of tailored strips and tailored tubes, the wall thickness of components can be manufactured in a load-optimised manner. Thus, it is also possible to optimise component weight. Prior to the application of tailored products, wall thicknesses and the respective degree of deformation as well as the welding seam position can be determined in a FEM (finite element method) simulation. These results are then verified in test series on transfer presses and tube bending machines, with the necessary tool adaptations being determined in the process. This results in weight and cost reductions for deep-drawn components and tube sections. Moreover, this means that especially with regard to tubes, multiple sections can be combined in one component. A feasibility study shows that the level of possible weight and cost savings depends on the respective component geometry and load situation. Additional costs for the production of tailored products and - if necessary - tool modifications also need to be considered. Thus, the amount of savings possible for a part can only be determined on an individual basis.
In this paper a practical way for fatigue life prediction of rubber products under multiaxial loads is shown. This is done by means of fracture mechanical concepts and the energy release rate as the failure criterion. Due to a FEA post-processor the potential energy release rate might be calculated at every material point supposed there was a crack. And therefore the risk of failure and with the help of a strain number curve the time to fatigue is able to be calculated by FEA. This concept is applied for an estimation of the life time of a test specimen with tensile loading from fatigue data of a shear loaded specimen of different design. This rather more theoretical concept of the energy release rate is complemented by experimental crack growth data by a Tear Fatigue Analyzer with its great advantage of reduction of testing time and costs compared to those of fatigue tests. For some materials a thorough characterization of crack growth and fatigue behavior is presented and is applied to estimate the time to fatigue by FEA for a real component under multiaxial loads.
Having 22 GW of nominal power installed Germany is the leading nation in wind energy conversion. While the number of suitable installation sites ashore is limited, and the average windspeed and thus the utilization level offshore is significantly higher, more and more offshore wind farms are planned. In order to reduce the cost of building the foundations and of connecting the wind turbines to the power grid, the single plant is designed as powerful as possible and therefore the components become huge and weighty. For instance: In order to lift the nacelle with around 500 tons of weight up on the tower - which can be up to 120 m above the water level - at the time special ships and cranes are designed and built. But those firstly will be very expensive and secondly will be available only on a limited scale. Hence the installation cost of those huge wind turbines significantly influence the rentability of a wind farm. Against this background a joint research project supported by the German Federal Ministry for the Environment, Nature Conservation and Nuclear Safety (BMU) was started comprising the project partners Ed. Züblin AG, Berg-idl GmbH (an engineering company and a maker of special purpose machines in Altlußheim, Germany), the IPEK (institute for product development) at the university of Karlsruhe and the Hochschule Offenburg, university of applied science. Project target is the conceptual design of a heavy-duty elevator, which can be used to install the tower segments and the nacelle of a wind turbine offshore without a crane. The most relevant challenges in this context result of holding up extreme loads by means of comparatively filigree carrying structures. The paper shows some examples of structural analysis and optimization work accomplished during the project. For the structural analysis of the heavy loaded components ANSYS workbench was used. The development process was also supported by optimization tools like TOSCA and OPTIMUS. The linking of the FE solver and the optimizer provides important hints concerning improvement of the topology and the dimensions of the components. Examples of designs illustrate the development process and the methods applied.
The authors present an abiotically catalyzed glucose fuel cell and demonstrate its application as energy harvesting power source for a cardiac pacemaker. This is enabled by an optimized DC-DC converter operating at 40 % conversion efficiency, which surpasses commercial low-power DC-DC converters. The required fuel cell surface area can thus be reduced from about 125 cm2 to 18 cm2, which would allow for its direct integration onto the pacemaker casing.
In the recent two years the authors have developed a light weight and low power flight control system for model helicopters consisting of an attitude and heading reference system (AHRS), a navigator (INS) augmented with GPS, barometric altitude sensor and a magnetic sensor, a flight control computer (FCC) and bidirectional ground data links. The system has been tested on a commercial stunt flight model helicopter. The AHRS consists of three MEMS-gyros, two 2-axis MEMS accelerometers and a microcontroller performing the required sensor compensation and data processing to generate attitude angles and true rate and acceleration data of the flying platform. The heading angle is augmented with a 2-axis magnetic sensor. The AHRS is stunt flight capable. The INS integrates the acceleration data to obtain velocity and position data. All data are calculated in both the helicopter and the local earth frame with 50 Hz rate. The algorithm is augmented with GPS data for the lateral movement and with a barometric altitude sensor for the vertical movement. The barometric data are compensated for air pressure changes due to the helicopter main rotor. The FCC contains a set of control loops in order to stabilize the helicopter in all axis and to perform commanded velocity and position tasks. The sampling rate for the control loops is again 50 Hz allowing flight control with high bandwidth. Various safety features are implemented in the software. The bidirectional data link is based on a 2.4 GHz Bluetooth Class I RF-link with a 115 kbaud data rate. A dipole antenna is used on the helicopter, an automatically tracking patch antenna is used on the ground. For commanded velocity flight a standard 35 MHz RF-link is used. For data sampling, monitoring and mode control a laptop is used on the ground. Several operating modes are implemented ranging from commanded velocity flight to simple automatic stunt flight according to predefined flight tracks. The model helicopter is an ALIGN TREX 600 with 3 kg flight mass and a brushless electric motor. The rotor diameter is 1.40 m. The helicopter is able to carry a payload which mass depends on the size of the installed LiPo-cells and the purpose of the flight mission. The system has been tested in quite a few flight tests and missions. The helicopter is controlled safely up to wind loads of at least 5 Beaufort - 6 Beaufort. Data and video captures will be presented. If permission is granted, a demonstration flight will be performed on the premises of the conference.
A simple model is introduced that describes the interaction of surface acoustic waves (SAWs) with a 2D periodic array of objects on the surface that give rise to internal resonances. Such objects may be high-aspect ratio structures like micro-pillars fabricated of a material different from that of the substrate. The model allows for an approximate determination of the band structure for the acoustic modes in such systems. Results are presented for the dependence on structural parameters of a total bandgap in the non-radiative regime of a semi-infinite substrate, and it is shown how the frequency and radiation damping of vibrational modes can be determined that are associated with defects in the periodic 2D array.
Today, thermoforming moulds are mostly produced using conventional mould-building technologies (e.g. milling and drilling) and are made of metal (e.g. aluminium or steel) or hardwood. The tools thus produced are very robust, but are only cost-effective in mass production. For the production of small batches of thermoformed parts, there is a need for moulds which can be produced quickly and economically. A new approach which significantly reduces the production time and cost is the 3D printing process (3DP). The use of this technology to produce thermoforming moulds offers many new options in the geometries which can be manufactured, and in manufacturing time and costs. In a case study of a thermoformed part (a scaled automotive model), the pre-processing of the CAD model of a mould is demonstrated. The mould can be printed within a few hours, and is sufficiently heat-resistant for moulding processes. The important advantages of moulds printed in 3D, in comparison to moulds built using conventional technologies, are the ability to create any shape of channels for the vacuum and the simplification in the production of tool mock-ups. This paper also discusses the economics of the technique, such as a comparison of material costs and manufacturing costs in relation to conventional production technologies and materials.
Für langfaserverstärkte Thermoplaste (LFT) wird ein repräsentatives Volumenelement (RVE) für FEM-Simulationen generiert. Dies geschieht unter Berücksichtigung von mikrostrukturellen Kenngrößen wie Faserorientierungsverteilung, -volumengehalt und -längenverteilung, die für einen charakteristischen Werkstoffzustand experimentell ermittelt wurden. Mittels Mikrostruktursimulationen wird das Kriechverhalten von LFT untersucht. Das viskoelastische Verhalten der Matrix wird experimentell an Substanzproben aus Polypropylen ermittelt und in die RVE-Simulationen mit einem modifizierten Burgers-Modell implementiert. Schließlich werden die Rechnungen mit verschiedenen, fiktiven sowie experimentell ermittelten Faserlängenverteilungen mit Kriechversuchen am LFT verglichen. Es zeigt sich eine starke Abhängigkeit des Kriechverhaltens von der Faserlänge und eine hohe Prognosegüte der Simulationen, die die experimentell ermittelte Längenverteilung berücksichtigen.
A new miniaturized capsule with 32bit processor and bidirectional communication system is being developed for multitask application. The capsule is designed to be a platform for medical assistant application inside the body. The processor core SIRIUS has been developed, simulated, synthesized to a netlist and verified. The designed telemetry unit is a synchronous bidirectional communication block using continuous phase DQPSK of 115 kHz low carrier frequency for inductive data transmission suited for human body energy transfer. The communication system can assist the electronic pill to trigger an actuator for drug delivery, to record temperature, or to measure pH of the body. The complete system is designed to fit small-size mass medical application with low power consumption, size of 7x25 mm. The system is designed, simulated, emulated on FPGA, and routed in AMIS Technology.
This paper presents an enhancement on QPSK modulation technique for near field communication (NFC). The enhanced modulation is based on continuous-phase QPSK with Gaussian filtering during switch from one phase to the other. Signal processing is done digitally with minimum external discrete components for air interface. The telemetry system can be used to assist a smart capsule (slave) that can be swallowed to establish data communication with external device (master). The system is designed, simulated, and emulated on FPGA showing 20 dB attenuation on side-lobes of the spectrum.
Moderne, intelligente Schraubmontagesysteme sind heutzutage in der Lage, streckgrenzengesteuerte Anziehverfahren für die prozesssichere Verschraubung zur Verfügung zu stellen. Insbesondere im Hochmomentenbereich bis 200.000 Nm ist diese Technologie erst seit kurzem etabliert. Entwicklungsbedarf besteht jedoch, sobald Bauteile im Kraftfluss liegen, die im Lastbereich ein nichtlineares Materialverhalten zeigen, wie zum Beispiel Korrosionsschutz-Lackschichten. Im Bereich der Schraubmontage gibt es nahezu unzählige Einflussfaktoren auf das Erreichen der angestrebten Montagevorspannkraft. Diese sind nicht mit vertretbarem Aufwand vollständig in einem entsprechenden Berechnungs- oder Simulations-Modell zur Auslegung von Schraubenverbindungen abbildbar. Ausserdem hat jede Applikation ihre spezifischen individuellen Eigenheiten. Modelle und Simulationen von Schraubenverbindungen sind daher nur mit eingeschränktem Maße für andere Applikationen wiederverwendbar. Zur Reduzierung von Entwicklungszeiten und Einhaltung der normativen Forderungen sollte zukünftig ein schneller Abgleich der Modelle mit den Daten der gesamten Schraubenverbindung aus realitätsnahen Versuchen angestrebt werden. Normative Forderungen wie beispielsweise die VDI/VDE 2645, welche eine Maschinenfähigkeitsuntersuchung der verwendeten Schraubtechnik zum Schraubfall vom Anwender fordert, zeigen unter anderem die Notwendigkeit auf. Idealerweise finden entsprechende Messungen unter realen Bedingungen statt. Die ermittelten Daten beinhalten nicht nur die Eigenschaftsdaten der Schrauben und die der Plattenbauteile, sondern die des ganzen Systems inkl. aller individuellen Einflussfaktoren bis hin zum Werkzeug selbst. Moderne, intelligente Schraubmontagesysteme können diese Aufgabe erfüllen. Rechtzeitig eingesetzt liefern sie die Daten zur Optimierung von Berechnung, Auslegung sowie Simulation von Schraubenverbindungen und sichern somit den Berechnungsprozess ab. Damit ist es zum einem möglich, bis an die Grenzen des technisch maximal Möglichen zu gehen, zum anderen im Echt-Test Schwachstellen der Auslegung oder Materialfehler bereits vor der Serieneinführung zu erkennen. Dieser Beitrag soll Ihnen vermitteln, dass Sie mit Hilfe intelligenter Schraubmontagesysteme die Berechnung, Auslegung und Simulation von Schraubenverbindungen mit dem Produktions- und Montageprozess abgleichen können, und dies nicht nur über den Anziehfaktor αa - dem sog. "Montage-Unsicherheitsbeiwert". Der konkrete Nutzen liegt in der Erweiterung der bisherigen Auslegung von Schraubenverbindungen mit Lackierungen im Hochmomentenbereich, die von einem breiten Anwenderkreis verwendet werden wird. Damit gelingt es, bereits in der frühen Entwicklungsphase vor Serienfreigabe übermäßige Vorspannkraftverluste zu vermeiden, was für zukünftige optimierte Berechnungen und Konstruktionen sehr wichtig ist.
Im vorliegenden Beitrag wird ein Strommarktsimulationsmodell entwickelt, mit dessen Hilfe die Bereitstellung von Flexibilität auf dem Strom- und Regelleistungsmarkt in Deutschland modell-gestützt analysiert werden soll. Das Modell bildet dabei zwei parallel verlaufende, zentrale Wettbewerbsmärkte ab, an denen Akteure durch die individuelle Gebotsermittlung handeln können. Die entsprechend hierzu entwickelte Gebotslogik wird detailliert erläutert, wobei der Fokus auf der Flexibilität fossil-thermischer Kraftwerke liegt. In der anschließenden Gegen-überstellung mit realen Marktpreisen zeigt sich, dass die verwendete Methodik und die Ge-botslogik den bestehenden Markt und dessen Marktergebnis in geeigneter Form wiederspie-geln, wodurch zukünftig unterschiedlichste Flexibilitätsszenarien analysiert und Aussagen zu deren Auswirkungen auf den Markt und seine Akteure getroffen werden können.