Refine
Year of publication
Document Type
- Conference Proceeding (317) (remove)
Conference Type
- Konferenzartikel (215)
- Konferenzband (65)
- Konferenz-Abstract (22)
- Konferenz-Poster (10)
- Sonstiges (7)
Language
- German (317) (remove)
Keywords
- Mikroelektronik (62)
- Finite-Elemente-Methode (5)
- Konstruktion (5)
- E-Learning (4)
- Kerbe (4)
- Kühldecke (4)
- Produktentwicklung (4)
- Raumklima (4)
- Hochschuldidaktik (3)
- Klimatechnik (3)
- Physikdidaktik (3)
- Augmented Reality (2)
- Automation (2)
- Biologische Methanisierung (2)
- CAE (2)
- Digitalisierung (2)
- Herzrhythmusmodell (2)
- Kalman Filter (2)
- Lehre (2)
- Psychometrie (2)
- Spannung (2)
- Synchronisierung (2)
- Thermologger (2)
- Tragfähigkeit (2)
- Vorhofflimmern (2)
- Welle (2)
- Wärmekonvektion (2)
- iSign (2)
- 3D-Druck von leitfähigen Materialien (1)
- Abkühlung (1)
- Abtastfrequenz (1)
- Abwasser (1)
- Additive Tooling (1)
- Adressdaten (1)
- Adsorption (1)
- Agile Business (1)
- Aktivierung (1)
- Analog-Schaltkreis (1)
- Analogsignal (1)
- Anwender-Software (1)
- Anwenderschaltkreise (1)
- Applikation (1)
- Arbeitsmaschine (1)
- Auflösungsvermögen (1)
- Ausbildung (1)
- Automobilindustrie (1)
- Belüftung (1)
- Benutzererlebnis (1)
- Beschleunigung (1)
- Betriebsverhalten (1)
- Bildungscontrolling (1)
- Bioelektrochemische Brennstoffzelle (1)
- Biogas (1)
- Biogasanlage (1)
- Biomassenutzung (1)
- Blended Learning (1)
- Blockchain (1)
- Bremsvorgang (1)
- Business Intelligence (1)
- CCD-Kamera (1)
- CRC (1)
- CRT (1)
- Checkout (1)
- Checkout-Prozess (1)
- Chip-Karte (1)
- Cloud Computing (1)
- Computer (1)
- Controlling (1)
- Data Integrity (1)
- Datenanalyse (1)
- Datenaufzeichnung (1)
- Datenqualität (1)
- Datensicherung (1)
- Datenspeicher (1)
- Deckenkühlung (1)
- Deckschicht (1)
- Design Based Research (1)
- Design-Structure-Matrix (1)
- Didaktisches Konzept (1)
- Digitale Medien (1)
- Digitale Turschilder (1)
- Digitaler Zwilling (1)
- Digitalpakt Schule (1)
- Dimensional Modelling (1)
- Diskretisierung (1)
- Drehstrom (1)
- Drehstrommotor (1)
- Druckbeanspruchung (1)
- Durchhaltevermögen (1)
- Durchlauferhitzerprinzip (1)
- Durchmesser (1)
- E-Ink (1)
- E-Paper (1)
- EKF-SLAM (1)
- Eindringprüfung (1)
- Einführung (1)
- Electronic Commerce (1)
- Electronic Shopping (1)
- Elektrizitätserzeugung (1)
- Elektrolokomotive (1)
- Emotionsforschung (1)
- Energiebilanz (1)
- Energiemanagement (1)
- Energiepolitik (1)
- Energieversorgung (1)
- Energy Harvesting (1)
- Energy Harvesting (EH) (1)
- Entity Resolution (1)
- Entlastungskerbe (1)
- Epilepsie (1)
- Erdwärme (1)
- Ergebnissicherung (1)
- Ersatz (1)
- Eye Tracking (1)
- Eye-Tracking (1)
- Eyetracking, Technisches Zeichnen (1)
- FEM (1)
- FPGA (1)
- Fachwissen (1)
- Fahrzeugantrieb (1)
- Fehler (1)
- Fehleranalyse (1)
- Finite-Differenzen Methode (1)
- Flexibilisierung des Lernortes (1)
- Formzahlen (1)
- Funktechnik (1)
- Fuzzy-Logik (1)
- Fördertechnik (1)
- GPS-Empfänger (1)
- Ganztagsschule (1)
- Gebäudeheizung (1)
- Gebäudeleittechnik (1)
- Gedruckte Elektronik (PE) (1)
- Gender in Science and Technology Studies (STS), digitalization, interactive documentary, participation (1)
- Gesundheitsgefährdung (1)
- Getriebewelle (1)
- Gewerbebetrieb (1)
- Gleichstrom (1)
- Greifsystemen (1)
- Halbkreisnut (1)
- Hardmakros (1)
- Heilkunde (1)
- Herz (1)
- Herzkrankheit (1)
- Herzrhythmusstörung (1)
- Heuristische Evaluation, (1)
- Hochfrequenzablation (1)
- Hochschule (1)
- Hochspannung (1)
- Hohlform (1)
- Holzpresssaft (1)
- Hubvorrichtung (1)
- Hybridantrieb (1)
- Hyperledger (1)
- IVD (1)
- Identity Resolution (1)
- Inertial (1)
- Ingenieuerwissenschaften (1)
- Injection Molding (1)
- Integriertes Lernen (1)
- Intellectual Properties (1)
- Kardiale Resynchronisationstherapie (1)
- Kardiologie (1)
- Kennlinie (1)
- Klausur (1)
- Klimaanlage (1)
- Korrosion (1)
- Kraftmessung (1)
- Kryoballonkatheter (1)
- Kugel (1)
- Kundendaten (1)
- Kühlluft (1)
- Kühlsystem (1)
- Künstliche Intelligenz (1)
- LCA-Microcontroller (1)
- Laserabtasten (1)
- Learning Analytics (1)
- Legionellenproblematik (1)
- Leistungsbewertung (1)
- Lernmanagementsystem (1)
- Lernsoftware (1)
- Lerntrails (1)
- Lernumgebung (1)
- Lernzieltaxonomie (1)
- Licht (1)
- Logic-Cell-Array (1)
- Lokalisierung (1)
- Lottozahlengenerators (1)
- Low-Cost Füllstandssensor (1)
- Low-Power (1)
- Low-Power-SoC-Systeme (1)
- Luftkühlung (1)
- Lupe (1)
- Lückenskript (1)
- Lüftung (1)
- Lüftungsanlage (1)
- MINT (1)
- Maschinenbauindustrie (1)
- Maschinenbaustudium (1)
- Mathematik (1)
- Mathematiktrails (1)
- Mathematikunterricht (1)
- Mathematisches Modell (1)
- Mathtrails (1)
- Mehrfachkerbwirkung (1)
- Mensch-Roboter-Kollaboration (1)
- Mentor-Graphics (1)
- Methanisierung (1)
- Mikroprozessorkernels (1)
- Mimikanalyse (1)
- Modellierung und Simulation (1)
- Modellsimulation (1)
- Montagevorrichtung (1)
- Motivation (1)
- NFC (1)
- Nachhaltigkeit (1)
- Nanotechnologie (1)
- Netzintegration (1)
- Niedrigenergiehaus (1)
- Nonlinear Regression (1)
- Objekterkennung (1)
- Off-Shore-Anlage (1)
- Online-Shop (1)
- Optimierung (1)
- Partnerschaft (1)
- Passivhaus (1)
- Petri-Netz (1)
- Physik (1)
- Plastizität (1)
- Produktionsprozess (1)
- Profilwelle (1)
- Projektmanagement (1)
- Prothesen (1)
- Prozessablauf (1)
- Prozessorkern (1)
- Präsentation (1)
- Prüfung (1)
- Pufferspeicher (1)
- Pulmonalvenenisolation (1)
- Qualitätskontrolle (1)
- Querbohrung (1)
- Racemisierung (1)
- Rapid Tooling (1)
- Raumtemperatur (1)
- Rauscheigenschaft (1)
- Rauschminderung (1)
- Rechneranwendung (1)
- Reinforcement Learning (1)
- Resonatorfilter (1)
- Ringnut (1)
- Rohr (1)
- SAP Analytics Cloud (1)
- SAP Data Warehouse Cloud (1)
- Sandwich-Konstruktion (1)
- Sandwichbauweise (1)
- Schaltkreis (1)
- Schaltungsdesign (1)
- Schlatungen (1)
- Schubbeanspruchung (1)
- Schulcloud (1)
- Schutz (1)
- Screencast (1)
- Seilwinde (1)
- Selbsttest (1)
- Selbsttests (1)
- Sequential Model-Based Optimization (1)
- Signalabtastung (1)
- Signalumsetzung (1)
- Simulation (1)
- Simulationsprogramm (1)
- Simulationsversuch (1)
- Smart Gardening (1)
- Smart Home (1)
- Soft- und Hardcore-Prozessoren (1)
- Software (1)
- Software Protection (1)
- Softwarearchitektur (1)
- Softwareforschung (1)
- Sonnenenergienutzung (1)
- Speichertechnik (1)
- Sportmedizin (1)
- Standort (1)
- Statistik (1)
- Statistikvideos (1)
- Stereobildverarbeitung (1)
- Stochastik (1)
- Stromregelung (1)
- Strukturanalyse (1)
- Strömungsmessung (1)
- Strömungsvorgang (1)
- Studium (1)
- Synchronisationstherapie (1)
- System-on-Chip (1)
- Systementwurf (1)
- Tablet (1)
- Tablet Lückenskript (1)
- Technischer Bericht (1)
- Temperaturfeld (1)
- Temperaturmessung (1)
- Temperaturverteilung (1)
- Thermische Solaranlage (1)
- Thermische Solarenergie (1)
- Trinkwassererzeugung (1)
- Umwelt (1)
- Unterricht (1)
- Usability (1)
- User Experience (1)
- Verkehr (1)
- Vermessung des Menschen (1)
- Versuchsergebnis (1)
- Verzahnung (1)
- Videoclip (1)
- Virtual Reality (1)
- Virtuelle Realität (1)
- Virtuelles Laboratorium (1)
- Voice User Experience (1)
- Warenkorbabbruch (1)
- Warmwasserbereiter (1)
- Weitsprung (1)
- Wellenabsatz (1)
- Wertanalyse (1)
- Windenergie (1)
- Windgeschwindigkeit (1)
- Windkraftanlage (1)
- Windturbine (1)
- Windturm (1)
- Wireless Sensor Nodes (1)
- Wishbone (1)
- Wärmepumpe (1)
- Wärmepumpen (1)
- Wärmeübertragung (1)
- Zahnwelle (1)
- Zellbibliothek (1)
- Zugbeanspruchung (1)
- Zweitaktmotor (1)
- cross hole (1)
- datengestützte Schulentwicklung (1)
- digital twin (1)
- digitale Signalverarbeitung (1)
- dreidimensionale Darstellung (1)
- eLearning (1)
- elektrische Felder (1)
- elektronischer Würfel (1)
- gedruckter Sensorik (1)
- kardiale Resynchronisationstherapie (1)
- mechanische Haftung (1)
- mobiler Roboter (1)
- multiple notch-effective (1)
- natürliche Leistung (1)
- neuronales Netz (1)
- numerisches Verfahren (1)
- remote model-based laboratory (1)
- semicircular groove (1)
- stress concentration factors (1)
- thermische Felder (1)
- thermodynamischer Wirkungsgrad (1)
- virtual lab (1)
- übertragbare Wirkleistung (1)
Institute
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (148)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (90)
- Fakultät Wirtschaft (W) (33)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (21)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (19)
- INES - Institut für nachhaltige Energiesysteme (8)
- Zentrale Einrichtungen (6)
- WLRI - Work-Life Robotics Institute (5)
- CRT - Campus Research & Transfer (3)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (3)
Open Access
- Open Access (198)
- Bronze (109)
- Closed Access (79)
- Closed (38)
- Diamond (3)
- Grün (2)
An international study summarizes the threat situation in the OT environment under the heading "Growing security threats" [1]. According to this study, attacks on automation systems are likely to increase in the future. Accordingly, an automation system must be able to protect the integrity of the transmitted information in the future. This requirement is motivated, among other things, by the fact that the network-side isolation of industrial communication systems is no longer considered sufficient as the sole protective measure. This paper uses the example of PROFINET to show how the future requirements for a real-time communication protocol can be met and how they can be derived from the IEC 62443 standard.
Als Fortsetzung des FHOP-Projektes wurde an der Fachhochschule Offenburg auf Basis des bestehenden Mikroprozessorkerns im Rahmen einer Diplomarbeit ein Mikrocontroller in ES2-0.7 μm-Technologie entworfen. Der Controller wurde modular aufgebaut mit den Komponenten: FHOP-Mikroprozessor, Buscontroller, Waitstate-Chipselect-Einheit, 16x16 Bit Multiplizierer, 2KB ROM, 256 Byte RAM, Watchdog, PIO mit 16 konfigurierbaren Ports, SIO, 2 Timer und ein Interruptcontroller für 8 Interrputquellen.
Der Chip benötigt bei einer Komplexität von ca. 65400 Transistoren eine Siliziumfläche von etwa 27 mm². Er wurde im September 1996 zur Fertigung gegeben und mittlerweile erfolgreich getestet. Das interne ROM des Mikrocontrollers enthält das BIOS sowie ein Testprogramm. Zur Erstellung der Software steht eine komplette Entwicklungsumgebung zur Verfügung. Sämtliche Komponenten stehen im FHOP-Design-Kit in Kürze zur Verfügung.
Nach dem Nachweis der Funktionalität des an der Fachhochschule Offenburg entwickelten Mikroprozessorkernels FHOP (First Homemade Operational Processor), wird eine Anwendung des Kernels in einem Applikationschip beschrieben.
Der Thermologger-ASIC soll mit Hilfe eines Temperatursensors die Umgebungstemperatur bei technischen Prozessen in regelmäßigen Zeitabständen erfassen und abspeichern. Die Meßwerte werden bei Bedarf ber eine serielle Schnittstelle des Thermologger-ASICs an einen PC übertragen und ausgewertet. Zur Verringerung der Leistungsaufnahme wird zwischen zwei Temperaturmessungen in einen Power-Down-Mode geschaltet.
Der ASIC soll später in einer Chipkarte integriert werden.
Im Frühjahr 1995 entstand die Idee, einen Lottozahlengenerator als Demonstrations- und Studienobjekt, für die Anwendung komplexer digitaler Entwurfsmethoden, zu entwerfen. Mit Hilfe der Schaltung ist es möglich, 6 verschiedene Zahlen zufällig aus 49 Zahlen zu ermitteln. Bei der Ziehung der einzelnen Zahlen werden verschiedene Töne und Melodien erzeugt. Die Schaltung ist so konzipiert, daß eine einfache Bedienung möglich ist. Der Chip wurde als Standardzellen-Entwurf mit einer Fläche von ca. 7 um² geroutet.
An der Fachhochschule Offenburg wurde im Sept. 93 das Projekt eines implantierbaren 16 Bit Mikroprozessor-Kernels FHOP ins Leben gerufen. Ausgehend von dem in einem Testchip erfolgreich erprobten umstrukturierten Entwurf wurde durch gezielten Einsatz von strukturiertem Routen unter Nutzung der Fähigkeiten zum hierarchischen Arbeiten in der MENTOR-IC-Station eine erheblich verkleinerte und flächenmäßig optimierte Struktur abgeleitet, die sich mit 4 Quadratmilimetern Fläche durchaus mit kommerziellen Mikroprozessor-Kerneln vergleichen läßt.
FHOP-Mikroprozessor-Kernel
(1995)
Für die Implementation in ASIC's wurde ein kompakter Mikroprozessor-Kernel als Standardzellen-Makro entworfen. Durch konsequenten Einsatz von Hochsprachen und CAE-Werkzeugen (VHDL, Synthese) konnte ein vollständiges Design in nur vier Monaten durchgeführt werden. Der Prozessor wird in einem Testchip erprobt.
Erstellen von Hardmakros und Aufbau einer Zellbibliothek unter Verwendung des ES2-Library-Kits
(1993)
Es wird eine Anleitung zur Erstellung von Hardmakros mit der Mentor-Graphics-Software gegeben. Die Hardmakros werden mit Standardzellen aus der ES2-Bibliothek der Firma EUROCHIP aufgebaut. Die Hardmakros werden in eine eigenständige Bibliothek abgelegt und können in neuen Chip-Designs verwendet werden.
Mit zunehmend komplexer werdenden Schaltungen wachsen auch die Anforderungen an die Entwicklung einer entsprechenden Leiterplatte. Mit der BOARD-Station von MENTOR-Graphics können professionelle Leiterplatten entwickelt werden.
Im Rahmen dreier Entwicklungsprojekte an der Fachhochschule Offenburg wurden mehrere aufwendige Layoutentwürfe mit der BOARD-Station in verschiedenen Diplomarbeiten durchgeführt. Im Folgenden wird über die dabei gewonnenen Erfahrungen berichtet.
Digitaler Phasenreglerkreis mit numerisch gesteuertem Oszillator als LCA-Microcontroller Kombination
(1992)
Am Beispiel einer Schrittmotor-Indexerschaltung wird der effektive Einsatz von konfigurierbaren Logic Cell Arrays in Zusammenwirkung mit einem Mikrokontroller demonstriert, wobei die hohe Arbeitsgeschwindigkeit des LCAs den Bereich der Schaltung übernimmt und im Regelkreis die arithmetrische Berechnung durchführt. Die Konfiguration des LCA aus dem EPROM des Controllers führt zu einer ungewöhnlichen Flexibilität des Entwurfs und ermöglicht zahlreiche andere Anwendungen mit dieser Architektur.
Die Fachhochschule Offenburg bietet den Studenten des Fachbereichs Nachrichtentechnik seit Ende 1990 das Wahlfach "Entwicklung integrierter Anwenderschaltkreise (ASIC)" an. Ziel des Wahlfachs ist es, den Studenten Grundkenntnisse im Entwurf eines ASIC's zu vermitteln, und wie im folgenden Beitrag aufgezeigt, die Möglichkeit zu bieten, den gesamten Entwurfszyklus von der Schaltungsentwicklung bis hin zur Fertigungsmaske zu durchlaufen.
Die Fachhochschule Offenburg bietet seit dem Wintersemester 1990/91 den Studenten des Fachbereichs Nachrichtentechnik das Wahlpflichtfach ASIC-Design an. Schon kurz nach der Errichtung des ASIC-Design-Centers im Frühjahr 1990 ermöglicht sie damit künftigen Ingenieuren eine Ausbildung in einem Bereich, der in der modernen Schaltungsentwicklung nicht mehr wegzudenken ist.
Im Rahmen eines GPS-Projektes ist an der Fachhochschule Offenburg ein Konzept für einen experimentellen Navigationsempfänger entstanden. Hierfür wurde der digitale Teil entwickelt und aufgebaut. Für die Realisierung der Schaltung sollten benutzerprogrammierbare Gate Arrays von Xilinx (LCAs) verwendet werden, die sich schon bei einer anderen Arbeit an der Fachhochschule bewährt hatten.
Nachfolgend möchte ich dem Leser einen Überblick über das GPS-System und die Entwicklung der LCAs geben.
An der FH Offenburg arbeiten seit Ende 1989 in einem Team die Professoren Dr. Jansen, Dr. Schüssele, die wissenschaftlichen Mitarbeiter Bernd Reinke, Martin Jörger und die Diplomanden Hans Fiesel, Otmar Feißt an dem Entwurf eines Nachrichtenempfängers. Im Rahmen dieses Projekts, genannt GPS-Projekt (GPS = Global Positioning System), wurde im Herbst 1990 ein experimenteller Empfänger in Betrieb genommen. Nachdem die Testergebnisse gezeigt hatten,daß das Konzept der Anlage stimmte, ging es nun um die Miniaturisieriung, Integration und Optimierung der Schaltung. Außerdem sollte der bisher verwendete PC durch einen auf der Platine befindlichen Mikroprozessor ersetzt werden. Im Zusammenhang mit dem GPS-Projekt wurden bisher im Offenburger ASIC-Labor eine Analogschaltung auf einem B500, drei LCA Designs und diverse GAL's entwickelt.
Zur Zeit arbeiten mehrere Diplomanden an der zweiten Generation des Empfängers. Meine Aufgabe besteht darin, die dort noch in drei LCA's untergebrachte digitale Logik sowie einen Teil des bisherigen PC-Interface in einem IMS Gate Forrest zu integrieren. Außerdem muß die Logik von 8 Bit auf einen 16 Bit breiten Datenbus umgestellt und an die neue Peripherie des Mikroprozessors angepasst werden. Damit soll die jetzige Digital-Platine noch weiter verkleinert werden. Wesentlich ist dabei die Umsetzung der zahlreichen Zähler- und Registerstrukturen in einem Gate Forrest. Als Arbeitsmittel stehen Apollo Workstations mit Mentor Software zur Verfügung.
Die Elektronikindustrie bietet für die Realisierung digitaler Logik eine Vielzahl integrierter Bausteine an, die ein Höchstmaß an Zuverlässigkeit als auch Integrationsdichte ermöglichen.
Je nach Integrationsdichte unterscheidet man hierbei zwischen Standardlogik (TTL,CMOS,DTL...), programmierbarer Logik (PLA, GAL...), Gate Arrays und ASIC-Bausteinen. Mit steigender Integrationsdichte werden Systemeigenschaften verbessert, wie Leistungsverbrauch, Platzbedarf, und Zuverlässigkeit.
Jedoch steht ihr auch ein stark erhöhter Kosten- und Entwicklungsaufwand gegenüber, der den Einsatz hochintegrierter Bausteine in Einzelfertigung bzw. Kleinserien verhindert.
Xilinx bietet nun mit seiner LCA-Produktreihe (logic cell array) eine Alternative zu bestehender hochintegrierbarer Logik an, mit der es möglich sein soll, Vorteile der genannten Einzelproduktgruppen zu übernehmen, und deren Nachteile zu beseitigen.
Im Rahmen einer Diplomarbeit wurde ein solcher LCA-Baustein (XC3020) eingesetzt. Anhand der gegebenen konkreten Anwendung konnte hierbei untersuch twerden, wie schnell sich ein solcher Baustein in bestehende Hardware eingliedern läßt, und welche Integrationsdichte er ermöglicht.
Im Folgenden sollen nun als Schwerpunkte das Einsatzgebiet, die Entwicklung und die Simulation des LCA bei vorliegender Aufgabenstellung aufgezeigt werden.
Seit einiger Zeit wird an der Fachhochschule in Offenburg ein Entwicklungsprojekt verfolgt, an dessen Ende ein GPS Empfänger stehen soll. Dabei handelt es sich um einen Satellitenempfänger, mit dem weltweit eine genaue dreidimensionale Standortbestimmung durchgeführt werden kann. Für diesen Empfänger sollte ein Großteil der Analogschaltung, bestehend aus ZF Verstärker, Costas Loop Synchrondemodulator und Pegeldetektor, in das Transistorarray B500a von AEG intgriert werden. Das Chipdesign wurde im Labor für ASIC Design an der FH Offenburg während des Wintersemesters 1990/91 erstellt. Gefertigt wurde der Chip von der Firma AEG in Ulm, wobei die Fertigungszeit des ASIC 6 Wochen betragen hat.
Selbsttests in Lernmanagementsystemen (LMS) ermöglichen es Studierenden, den eigenen Lernfortschritt einzuschätzen. Im Gegensatz zur Einreichung und Korrektur vollständig ausformulierter Aufgabenlösungen nutzen LMS überwiegend die Eingabe der Lösung im Antwort-Auswahl-Verfahren (Single-Choice). Nach didaktischen Ansatz „Physik durch Informatik“ geben die Lernenden stattdessen ihre Aufgabenlösungen in einer Programmiersprache ins LMS ein, was eine automatisierte Rückmeldung erleichtert und das Erreichen einer höheren Kompetenzstufe fördert. Es wurden zehn LMS-Selbsttests erstellt, bei denen die Lösungen zu einer Lehrbuch-Aufgabenstellung jeweils durch Eingabe in einer Programmiersprache und von einer Kontrollgruppe im Antwort-Auswahl-Verfahren abgefragt wurden. Ergebnisse aus dem ersten Einsatz dieser Selbsttests für die Lehrveranstaltung Physik im Studiengang Biotechnologie werden vorgestellt.
Mathematik lässt sich in vielen Objekten finden. Sei es die lineare Steigung eines Handlaufs zum Schulgebäude oder die nahezu zylindrische Form einer Litfaßsäule in der Innenstadt. Das Bestreben, Schüler*innen diese Zusammenhänge entdecken zu lassen, steht im Zentrum des MathCityMap Projekts (Ludwig et al., 2013). Auf sogenannten mathematischen Wanderpfaden (bzw. Mathtrails) werden Schüler*innen durch eine App zu Mathematikaufgaben an realen Objekten bzw. in realen Situationen ihrer Umwelt geleitet. Um die Aufgaben zu lösen, werden Daten erhoben, z. B. durch Messungen oder Zählen. Entscheidend ist, dass die Aufgaben so gestellt sind, dass der Schritt der Datenbeschaffung nur vor Ort stattfinden kann und somit direkt mit dem Objekt bzw. der Situation verknüpft wird.
Voice User Experience
(2023)
Sprachassistenten wie Alexa, Google Assistant, Siri, Cortana, Magenta und Bixby erfreuen sich dank ihrer intuitiven, schnellen und bequemen Interaktionsmöglichkeiten zunehmender Beliebtheit und bieten deshalb spannende Möglichkeiten für die Weiterentwicklung des digitalen Kundendialogs. Doch ob die Technologie wirklich breite Akzeptanz finden wird, hängt nicht nur mit ihrer technischen Qualität oder Usability zusammen. Auch die User Experience, die neben den Reaktionen der Nutzer*innen während der Anwendung auch ihre Erwartungen und Wahrnehmungen vor und nach der Anwendung umfasst, spielt eine zentrale Rolle. Die Messung der Qualität der Voice User Experience (Voice UX) ist daher von großem Interesse für die Bewertung und Optimierung von Sprachapplikationen. Die Frage, wie die Voice UX von sprachgesteuerten Systemen gemessen werden kann, ist jedoch noch offen. Aktuelle Methoden stützen sich häufig auf UX-Forschung zu grafischen Benutzeroberflächen, obwohl die sprachbasierten Interaktionsformen in der Regel weder visuell noch haptisch greifbar sind. In unserem Beitrag möchten wir den aktuellen Status quo der deutschen Voice User Experience untersuchen. Folgende Fragen stehen dabei im Mittelpunkt: Wie können Sprachanwendungen zu einem erfolgreichen Kundendialog beitragen? Welche Nutzerirritationen treten aktuell bei der Anwendung von Sprachassistenten auf? Mit welchen Methoden lässt sich die Voice User Experience messen?
Kundendaten im E-Commerce – Optimierungspotenzial im Checkout-Prozess des deutschen Online-Handels
(2023)
Die Gestaltung eines benutzungsfreundlichen Checkout-Prozesses ist für den Erfolg des E-Commerce von großer Bedeutung. Die Abfrage der Kundendaten bildet einen wichtigen Teil der Customer Journey. Auf der einen Seite wollen die Handelsunternehmen so viel wie möglich über ihre Kundschaft erfahren, um möglichst zielgenaue Angebote und Marketingmaßnahmen ausspielen und das perfekte Einkaufserlebnis generieren zu können. Auf der anderen Seite möchten sich die Kundinnen und Kunden beim Online-Shopping auf den Kauf konzentrieren und erwarten einen reibungslosen Ablauf. Der Checkout-Prozess ist in diesem Zusammenhang ein kritischer Punkt. Dies spiegelt sich auch in den hohen Warenkorbabbruchraten wider. Um Online-Shoppende nachhaltig zu begeistern, gibt es noch viel Raum für Verbesserungen. Mit dem Ziel, den Status quo im deutschen Online-Handel besser zu verstehen und Usability und User Experience für eine höhere Konvertierungsrate zu optimieren, untersuchte die hier vorgestellte Forschungsarbeit den Anmelde- und Checkout-Prozess der 100 umsatzstärksten Online-Shops in Deutschland. Es werden die Ergebnisse der Studie präsentiert und aufgezeigt, an welchen Stellen Optimierungspotenzial besteht – bspw. bei zu komplizierten Formularen, unnötigen Datenabfragen oder erzwungenen Registrierungen – sowie Vorschläge für die Praxis des Online-Handels diskutiert.
Evaluierung von Kalman Filter Konfigurationen zur Roboterlokaliserung mittels Sensordatenfusion
(2023)
In dieser Arbeit werden drei verschiedene Konfigurationen der von Tom Moore, für das Robot Operating System, entwickelte Kalman-Filter vorgestellt. Diese bilden die Grundlage für eine Lokalisierung mittels Sensorfusion in dem verwendeten ROS-Framework. Ziel dieser Arbeit ist der Aufbau und die Verifikation einer Lokalisierung für ein mobiles Robotersystem Husky A200 der Firma Clearpath Robotics. Hierzu wurden die Möglichkeiten des bestehenden Systems untersucht und mehrere Versionen von Lokalisierungsfiltern konfiguriert. Am an Ende, wird eine Verifikation der Ergebnisse in verschiedenen Szenarien gegeneinandergestellt. Hierzu werden die Ergebnisse einer Variante des Extended Kalman-Filters in 2D (EKF2D), eine Variante des Unscented Kalman-Filter in 2D (UKF2D) und eine Variante des Extended Kalman-Filters in 3D (EKF3D) verifiziert und verglichen. Die Untersuchungen ergaben das der EKF2D die besten und robustesten Ergebnisse für eine Lokalisierung erbringt, trotz, im Vergleich zu der UKF2D Variante, 17,3 % höhere Endpositionsabweichung aufweist. Die in diesem Projekt gewählte EKF3D Konfigurationsvariante eignet sich, wegen seinen starken Ungenauigkeiten in der Höhenbestimmung nicht für eine aussagekräftige Positionsbestimmung.
Die Positionierung mobiler Systeme mit hoher Genauigkeit ist eine Voraussetzung für intelligentes autonomes Verhalten, sowohl in der Feldrobotik als auch in industriellen Umgebungen. Dieser Beitrag beschreibt den Aufbau einer Roboterplattform und ihre Verwendung für den Test und die Bewertung von Kalman-Filter-Konfigurationen. Der Aufbau wurde mit einem mobilen Roboter Husky A200 und einem LiDAR-Sensor (Light Detection and Ranging) realisiert. Zur Verifizierung des vorgeschlagenen Aufbaus wurden fünf verschiedene Szenarien ausgearbeitet. Mit denen wurden die Filter auf ihre Leistungsfähigkeit hinsichtlich der Genauigkeit der Positionsbestimmung getestet.
Die Wichtigkeit des Faches FEM ist sicher unumstritten. Um in der gegebenen Zeit eine ausreichende Einarbeitung in die Methode und die Uebung am Rechner durchfuehren zu koennen, ist der Einsatz eines auf PC lauffaehigen FE-Lernprogramms eine gute Hilfe. Sind die Grundlagen da, weiss der Student, welche Eingaben bei einem FE-Programm zu machen sind. Fuer manche Fachgebiete genuegt schon die Arbeit mit einem solchen Programm. Sind entsprechende Uebungen mit dem Lernprogramm erfolgt, kann auf professionellen Programmen wie z.B. CAEDS das Zusammenspiel CAD/FEM ernsthaft betrieben werden. Es sollte ein Fachsemester ausgesucht werden, in dem CAD und FE angeboten wird. Dieses Fachsemester sollte, um den Nutzen der FEM in moeglichst vielen Fachgebieten zu haben, zum Ende des Grundstudiums, spaetestens aber zu Beginn des Hauptstudiums liegen.
Bei thermischen Konvektionsströmungen ist der Einfluß von Geometrie und Randbedingungen für die Strömungsform und den konvektiven Wärmetransport von wesentlicher Bedeutung. Mit Hilfe der optischen Strömungsmeßtechnik (Differentialinterferometrie) wurde die freie Konvektion in einem quaderförmigen Behälter mit seitlicher Beheizung untersucht. Der Aufbau und die Experimente werden beschrieben. Die quantitative Auswertung von Dichte- und Temperaturfeldern aus den Differentialinterferogrammen wird aufgezeigt und der Einfluß unterschiedlicher Randbedingungen wie feste und freie Oberfläche auf die Strömungsform und den Wärmetransport dargelegt. Die eingesetzte Differentialinterferometrie zeigt aufgrund ihrer Anpassungsfähigkeit an die jeweiligen Versuchsbedingungen und durch den einfachen Aufbau spezifische Vorteile gegenüber dem Mach-Zehnder Interferometer.
Bei einem neuen Kühldeckensystem wird die Luft im Deckenhohlraum oberhalb der abgehängten Decke durch Konvektoren gekühlt, wobei die Wärmeübertragung ausschließlich durch freie Konvektion und Strahlung erfolgt. Die abgehängte Decke nimmt durch Strahlung und freie Konvektion Wärme aus dem darunterliegenden Büroraum auf und gibt sie über freie Konvektion an die Luft im Deckenhohlraum sowie durch Strahlung an die Begrenzungsflächen des Deckenhohlraumes ab. Die vom Kühlwasser durchströmten Rippenrohre nehmen ihrerseits Wärme aus der Luft im Hohlraum auf, die infolge der freien Konvektion durch die Rippenrohre strömt. Zur Aufnahme des bei starker Belastung und Dauerbetrieb anfallenden Kondensats ist unterhalb des Konvektors eine Kondensatauffangwanne angebracht. Mit dem von Rutsch erstellten Rechenprogramm ist es möglich, für verschiedenste Randbedingungen die Rippenrohre auf maximale Kühlleistung zu optimieren. Voraussetzung für die direkte Anwendung dieses Berechnungsverfahrens sind jedoch ungestörte An- und Abströmbedingungen der Luft am Konvektor. Neben der Optimierung der Rippenrohre auf Kühlleistung ist für den Aufbau der eigentlichen Decke die Luftströmung im Deckenhohlraum und die Austrittstemperatur aus den Konvektoren von entscheidender Bedeutung. Die maximale Kühlleistung der Rippenrohre kann nur erreicht werden, wenn alle Einzelrippenrohre nahezu gleichmäßig durchströmt werden und günstige Abströmverhältnisse vorhanden sind. Die Strömungsverhältnisse im Deckenhohlraum und innerhalb der Konvektoren wurden durch Rauch sichtbar gemacht und auf Video aufgezeichnet. Entscheidenden Einfluß auf die Temperaturverteilung an der Kühldecke haben die Breite des Konvektors, die Konstruktion der Kondensatauffangwanne, der Abstand der Konvektoren voneinander und der Konvektortyp. Direkt unterhalb der Kondensatauffangwanne beträgt die Temperaturdifferenz ca. 3 K. Der Temperaturgradient im Abströmbereich liegt bei ca. 0,2 bis 0,3 K/m.
Massiv- Heiz-/Kühldecken bestehen im wesentlichen aus in der tragenden Deckenkonstruktion eingegossenen Kunststoffrohren, die je nach Jahreszeit von Heiz- bzw. Kühlwasser durchströmt verden. Das instationäre Verhalten wurde mit dem Anlagen und Simulationsprogramm TRNSYS untersucht. Anhand ausgesuchter Ergebnisse können die Anforderungen an die notwendigen Regelkonzepte abgeleitet werden. Es eignen sich für derartige Systeme, insbesondere wegen ihrer großen Speicherfähigkeit und damit Trägheit, modifizierende selbstadaptierende Regler. Aufgrund der großen Trägheit der Massivdecke ist eine direkte außentemperaturgeführte Vorlauftemperaturregelung des Wasserstromes nicht sinnvoll. Es sollte ein selbstadaptierendes Regelsystem verwendet werden, das anhand der vorangegangenen Lastverläufe die Gebäudekonstante und damit das Speicherverhalten der Räume ermittelt. Damit der Regelaufwand reduziert werden kann, sollen mehrere Räume als Gruppe zusammengefaßt werden. Als weitere Größe für das Regelkonzept ist die Speichertemperatur am Ende der Ladezeit zu messen und in das Programm mit einzubinden.
Die Untersuchungen wurden im Raumlufttechnischen Labor der Fachhochschule Offenburg zur Beurteilung der Effizienz der Schadstoffabfuhr unter Einhaltung der thermischen Behaglichkeit beim Einsatz verschiedener Luftführungssysteme- Quellauslaß, Deckendrallauslaß und Fußbodenauslaß- in Verbindung mit einer Kühldecke durchgeführt. Die Ergebnisse zeigen, daß keine signifikanten Vorteile für ein bestimmtes RLT-Konzept bestehen. Je nach Wahl der Randbedingungen der Untersuchungen liegen die erreichbaren Kühlleistungen innerhalb einer Systemkombination weiter auseinander als im Verhältnis zu den Vergleichssystemen. Insgesamt ist hinsichtlich der von beiden Systemen zusammen abgebbaren, maximalen Kühlleistung die Kombination Kühldecke mit Deckendralluftauslaß vorteilhaft.
Im Institut für angewandte Forschung (IAF) der FH Offenburg wird derzeit eine Chipkarte entwickelt, mit der Temperaturzeitreihen über längere Zeiträume aufgezeichnet werden können. Die zur Datenerfassung erforderlichen Systemkomponenten sind auf nur einem Halbleiterchip zusammengefaßt, wodurch sich bei großen Produktionsstückzahlen ein sehr niedriger Herstellpreis erzielen läßt. Die 'Thermologger' genannte Chipkarte kann zudem mit Standard-Chipkartenlesern und einer dedizierten Software auf jedem PC konfiguriert, gelesen und ausgewertet werden.
Bei modernen Lokomotiven mit Drehstrom-Asynchronmotoren und mit bis zu 7 Megawatt Leistung, neigt das Antriebssystem bei nicht ausreichendem Kraftschluß zwischen Treibradsatz und Schiene zum 'Durchdrehen'. Bei diesem Vorgang wird nahezu die gesamte Energie zur Beschleunigung des Radsatzes eingesetzt, was zu mechanischen Schäden an den Rädern und Schienen führen kann. Beim Bremsen ist dies ähnlich, die Räder gleiten auf den Schienen, wenn zuviel Bremskraft gefordert wird. Die übertragbaren Zug- und Bremskräfte werden primär durch die Radsatzlast und den Kraftschlußbeiwert bestimmt, wobei der Verlauf der Kraftschlußkennlinie als Funktion des Schlupfs oder der Schlupfgeschwindigkeit im wesentlichen durch den Schienenzustand (naß oder trocken) bestimmt wird. Eine hohe Kraftschlußnutzung wird dann erreicht, wenn man laufend denjenigen Schlupfwert einstellt, der zum jeweiligen Kraftschlußmaximum führt. Hierzu werden in der Praxis verschiedene Konzepte und Methoden eingesetzt, es ist bis heute jedoch keine Methode bekannt, den Verlauf der Kraftschlußkennlinie meßtechnisch laufend zu erfassen oder rechentechnisch zu bestimmen. Bei der hier vorgestellten Vorgehensweise wurde der mechanische Antrieb zusammen mit dem Rad-Schiene-Kontakt als Zustandsraumodell beschrieben. Die Betrachtungen beruhen dann auf einer Frequenzganguntersuchung des eingeführten linearen Zustandsraummodells. Aufgrund der Linearisierung gelten die Ergebnisse der Frequenzgangsberechnung nur für den jeweiligen Betriebspunkt der Kraftschlußkennlinie, also für eine bestimmte Steigung. Variiert man nun die Steigung, so läßt sich der Einfluß der nichtlinearen Kraftschlußkennlinien ermitteln. Zur Messung von Frequenzgängen eignen sich insbesondere Verfahren der Orthogonalen Korrelation. Die technische Realisierung wird skizziert. Die Meßinformation ist dann die Basis für eine Regelung, die ein permanentes optimales Fahren im Kraftschlußmaximum zuläßt und zwar beim Beschleunigen und beim Bremsen. Das beschriebene Meß- und Regelungsverfahren ist derzeit in der Schweiz in der Betriebserprobung.
Durch den verstärkten Einsatz von EDV-Geräten an den Arbeitsplätzen in Büroräumen stiegen die flächenbezogenen inneren Kühllasten deutlich an. Für die Arbeitsplätze in Fensternähe müssen EDV-gerechte Lichtverhältnisse vorhanden sein. Es werden Versuchsergebnisse eines neu entwickelten Kühlkonvektors im Fensterbereich im Zusammenhang mit Innenjalousien vorgestellt. Dieser Kühlkonvektor eignet sich auch für den kombinierten Einsatz mit Kühldecken und raumlufttechnischen (RLT)-Anlagen, wie weitere Versuche bestätigen. Der Kühlkonvektor kann auch beim Ersatz von Induktionsgeräten angewandt werden, die z.B. nach dem 4-Leiter-Prinzip angeschlossen sind. Die Untersuchungen haben gezeigt, daß mit der Kombination von Kühldecke, Kühlkonvektor und RLT-Anlage große flächenbezogene Kühllasten abgeführt werden können, ohne daß dadurch die thermische Behaglichkeit negativ beeinflußt wird. Der Luftstrom läßt sich auf das hygienisch bzw. auf das zur Entfeuchtung notwendige Maß reduzieren, wodurch sich die Betriebskosten senken. Der Anteil der drei Komponenten an der gesamten Kühllast beträgt im Mittel: 15 % RLT-Anlage, 15 % Kühlkonvektor und 70 % Kühldecke.
In den Unternehmen der Automobilbranche herrscht ein beträchtlicher Rationalisierungsdruck mit einem daraus folgenden hohen Automatisierungsgrad. Den erheblichen Investitionen in modernste Fertigungstechnologien und Montageanlagen steht zunehmend die Forderung eines Return of Investment mit zweistelligen Prozentsätzen gegenüber. Betriebliche Abläufe und Fertigungsprozesse werden daher sehr detailliert geplant, wobei 'minutiöse' Planungen oftmals nur die Beherrschung komplexer Prozeßabläufe vortäuschen. Ungeplante Einflußfaktoren und Störungen lassen manche Planung schnell zu Makulatur verkommen.
Geschäftsprozeßmodellierung und dynamische Simulationen von Fertigungsprozessen mittels zeitbewerteter Petri-Netze, bieten ausgezeichnete Möglichkeiten, komplexe Zusammenhänge transparenter zu machen und neue Erkenntnisse über die Einflüsse von Störungen oder Qualitätsschwankungen auf die Produkt- und Prozeßqualität zu erhalten. In einem Teilbereich der Produktion der Daimler-Benz AG in Gaggenau wurden Qualitätsstörungen und ihre Wirkungen auf den Fertigungsprozeß von Drehmomentwandlern untersucht. Die im Fertigungsverlauf auftretenden qualitätsbeeinflussenden Störungen wurden in Petri-Netz-Modellen abgebildet und in diversen Szenerien simuliert. Die Auswirkungen auf die Anlagenverfügbarkeit, Durchlaufzeiten, Lagerstrategien und die Kostensituationen wurden verdeutlicht und erste Maßnahmen mit den zugehörigen Voraussetzungen aufgezeigt.
Moderne strombetriebene Wärmepumpenanlagen sind im Hinblick auf die Umweltbilanz und die Jahresenergiekosten selbst gegenüber den effizientesten gasbefeuerten und ölbefeuerten Heizanlagen deutlich im Vorteil. Um diesen Vorteil auch in der Praxis zu erreichen, muss der Auswahl und Dimensionierung der Wärmepumpe einschliesslich der Wärmequelle besondere Beachtung geschenkt werden. Hinsichtlich des Temperaturniveaus bietet sich als Wärmequelle besonders das Erdreich an, beispielsweise durch Erdsonden erschlossen. Abhängig von den hydrogeologischen Rahmenbedingungen ist insbesondere auf die längenbezogene Wärmeentzugsleistung der Erdsonden zu achten. Hierfür hat das Ministerium für Umwelt und Verkehr des Landes Baden-Württemberg einheitliche Grundlagen für die Beurteilung und Bearbeitung geschaffen. Ausgehend von einer Wärmepumpenheizanlage, von der bereits Messungen vorliegen, wurde diese Anlage mit dem Simulationsprogramm TRNSYS nachgebildet und die wesentlichen Temperaturverhältnisse in verschiedenen Erdreichtiefen und Erdsondenabständen ermittelt. Mit diesen Erdreichtemperaturen werden mit Hilfe eines vereinfachten Energiebilanzverfahrens die Jahresarbeitszahlen ermittelt. Dabei zeigt sich, dass neben der Hydraulik der Heizanlage der Art der Trinkwassererwärmung besondere Bedeutung zukommt, da dies sich entscheidend auf die Jahresarbeitszahl und damit auch auf die mögliche Reduzierung des CO2-Ausstosses auswirkt.
Der Bericht beschreibt die Vorgehensweise für die Entwicklung von Hochleistungszweitaktmotoren beim Institut für Transportwesen und Motorentechnik (ITM). Die gezielte Auswertung von motorischen Daten bietet die Möglichkeit, Motorenentwicklungsprozesse in wichtigen Fragestellung zu unterstützen. Für die Auslegung von Bauteilen und Prozessen werden Simulationsprogramme eingesetzt. Diese Entwicklungswerkzeuge können effizienter angewandt werden, wenn die Berechnungsergebnisse einer Qualitätskontrolle unterliegen. Wichtig hierfür sind Bewertungskriterien, die aus der Erfahrung einer Vielzahl von Versuchen bestehen. Da in Produktion gegangene Motoren üblicherweise schon einen Evolutionsprozeß durchlaufen haben, kann vermutet werden, daß solche Kriterien von erfolgreichen und weniger erfolgreichen Produkten in der Weise abgeleitet werden können, wie dies hier vorgestellt wurde. Die Angabe von Trendfunktionen für konstruktive Merkmale und Betriebsparameter ist notwendig um eine bedarfsorientierte Vorauslegung von Antrieben durchführen zu können. Alle hier vorgestellten Ergebnisse sind natürlich von der Datenmenge abhängig, die zu den jeweiligen Fragestellungen ausgewertet werden kann. Dazu müssen alle durchgeführten Versuchsreihen in die Datenbank eingeführt und mit Ergebnissen der Simulationsrechnungen in Beziehung gesetzt werden.
Ein neuer Ansatz wurde für mobile Roboter zur gleichzeitigen 3D (Drei-Dimensionaler) Kartierung und Lokalisierung vorgestellt. Die Grundlage bilden attributierte Flächenmodelle, die z.B. von segmentierten Laserscanner-Tiefenbildern stammen. Zur Optimierung der Gesamtähnlichkeit zwischen Flächenmodellen unter Zeitbedingungen werden mehrere Verfahren (Beschränkte Baumsuche, Iterative Verfeinerung, Evolutionäralgorithmus) kombiniert. Es wird speziell anhand der Ähnlichkeitsmaße gezeigt, wie das Wissen über die Lage stufenweise generiert und verwendet wird. Erste Messungen an realen segmentierten Tiefenbildfolgen zeigen, dass das Verfahren unbekannte übelappung, Verdeckung und Segmentierungsfehler toleriert sowie Echtzeitpotenzial besitzt.
Die Verarbeitung analoger Signale durch digitale Techniken ist durch die enorme Leistungsfähigkeit der Prozessoren zwischenzeitlich zum Standard geworden. Eine hinreichende Genauigkeit der digitalen Verarbeitung kann durch Wahl der notwendigen Wortbreite relativ einfach bewerkstelligt werden, wobei der Aufwand mit zunehmender Wortbreite linear, teilweise auch quadratisch steigt. Zum Flaschenhals in der Verarbeitung wird aber häufig die Wandlung der analog vorliegenden Signale in digitale Signale, ebenso die Rückwandlung der digitalen Signale in analoge Spannungs- oder Stromverläufe. Der Aufwand für diese teils analogen, teils digitalen Systeme steigt oft exponentiell mit der geforderten Genauigkeit bzw. Auflösung der Systeme und erfordert in konventioneller Technik bei hoher Auflösung aufwendige Maßnahmen auf dem Chip. Oversampling- und Rauschfärbungs-Methoden sind in der Verarbeitung von Audio-Signalen schon seit langem probate Mittel, um die Auflösung mit moderatem Aufwand zu erhöhen. Derartige Techniken werden zwischenzeitlich auch gerne im Bereich der Antriebstechnik, wo die Anforderungen an die erforderliche Positioniergenauigkeit zunehmen, eingesetzt. Ziel des Vortrags ist eine leicht verständliche Einführung in die Themengebiete der Überabtastung und der Rauschfärbung und ihre Anwendung im Hinblick auf Rundungsvorgänge im digitalen Bereich, in D/A-Wandlern und A/D-Wandlern vom Delta-Sigma-Typ.
In jüngster Zeit werden vermehrt größere thermische Solaranlagen zur Warmwassererzeugung und zur Heizungsunterstützung in größeren Mehrfamilienhäusern und Neubausiedlungen mit Einfamilien- bzw. Doppelhäusern eingesetzt. Während die hydraulische Einbindung der Solarenergie zur Heizungsunterstützung meist problemlos realisiert wird, entstehen bei der Warmwasserbereitung immer wieder Probleme hinsichtlich der Legionellenproblematik. Die Anforderungen im DVGW Arbeitsblatt W551, den gesamten Wasserinhalt der Vorwärmstufen einmal am Tag auf 60 Grad C zu erwärmen und damit zur Verminderung des Legionellenwachstums beizutragen, führen immer wieder dazu, daß durch fehlerhafte Konzepte, insbesondere im Bereich der hydraulischen Schaltungen in Verbindung mit den Regelkonzepten, der solare Deckungsgrad bei der Trinkwassererwärmung sehr gering bleibt. Anhand ausgewählter Ausführungsbeispiele wird die Problematik ausführlich behandelt und Lösungsmöglichkeiten aufgezeigt. Abschließend werden funktionsgerechte Anlagentechniken verschiedener Ausführungsvarianten besprochen.
Vom Tragverhalten und von der Geometrie (eben oder gekrümmt, linien- oder flächenhaft ausgeprägt) her unterscheidet man Sandwich-Balken, Sandwich-Platten, -Scheiben und -Schalen. Im Normalfall hat man ein Zusammenwirken aus drei Schichten: Den zug- bzw. druckaufnehmenden Deckschichten und der schubbelasteten Kernschicht. Die Klebverbindung von Kern- und der jeweiligen Deckschicht hat mindestens die kraftübertragende Eigenschaft der schwächsten Schicht (d.h. der Schicht mit dem kleinsten E-Modul) aufzuweisen. Dies ist in der Regel die Kernschicht. Diese Eigenschaft der Verklebung muss über die Lebensdauer des Tragwerkes erhalten bleiben. Bei rein statischer Belastung sind die Verklebung in ihrer Zeitfestigkeit und das Lastkriechen der schubaufnehmenden Kernschicht zu beachten. Bei dynamischer Belastung sind die entsprechenden Wöhler-Kurven zu beachten. Viele Klebstoffe sind dynamisch belastbar. Wenn man die Festigkeits- und Steifigkeitsberechnung durchführen möchte, kann die so genannte exakte Berechnungsmethode über gekoppelte partielle Differenzialgleichungen zum Ziel führen. Neben der Berechnung der Verformungen und Spannungen infolge Platten- und Scheibenwirkung kommen bei hochbelasteten gekrümmten Sandwich-Bauteilen auch die Koppelgleichungen von Platte und Scheibe zur Schale hinzu. Außerdem kommt bei dünnen, unter Druck stehenden Deckschichten die Abschätzung der Knitterspannungen hinzu, die ja nach der Bettung der Deckschicht auf der Kernschicht weitestgehend von der Dehnsteifigkeit der Kernschicht abhängt. Seit den 60-er Jahren hat sich die Finite-Elemente-Methode als eine computergestützte Berechnungsmethode etabliert, die zwar als Näherungsmethode definiert ist aber eine hervorragende Genauigkeit in der Spannungs- und Steifigkeitsberechnung bietet.
Having 22 GW of nominal power installed Germany is the leading nation in wind energy conversion. While the number of suitable installation sites ashore is limited, and the average windspeed and thus the utilization level offshore is significantly higher, more and more offshore wind farms are planned. In order to reduce the cost of building the foundations and of connecting the wind turbines to the power grid, the single plant is designed as powerful as possible and therefore the components become huge and weighty. For instance: In order to lift the nacelle with around 500 tons of weight up on the tower - which can be up to 120 m above the water level - at the time special ships and cranes are designed and built. But those firstly will be very expensive and secondly will be available only on a limited scale. Hence the installation cost of those huge wind turbines significantly influence the rentability of a wind farm. Against this background a joint research project supported by the German Federal Ministry for the Environment, Nature Conservation and Nuclear Safety (BMU) was started comprising the project partners Ed. Züblin AG, Berg-idl GmbH (an engineering company and a maker of special purpose machines in Altlußheim, Germany), the IPEK (institute for product development) at the university of Karlsruhe and the Hochschule Offenburg, university of applied science. Project target is the conceptual design of a heavy-duty elevator, which can be used to install the tower segments and the nacelle of a wind turbine offshore without a crane. The most relevant challenges in this context result of holding up extreme loads by means of comparatively filigree carrying structures. The paper shows some examples of structural analysis and optimization work accomplished during the project. For the structural analysis of the heavy loaded components ANSYS workbench was used. The development process was also supported by optimization tools like TOSCA and OPTIMUS. The linking of the FE solver and the optimizer provides important hints concerning improvement of the topology and the dimensions of the components. Examples of designs illustrate the development process and the methods applied.
Für langfaserverstärkte Thermoplaste (LFT) wird ein repräsentatives Volumenelement (RVE) für FEM-Simulationen generiert. Dies geschieht unter Berücksichtigung von mikrostrukturellen Kenngrößen wie Faserorientierungsverteilung, -volumengehalt und -längenverteilung, die für einen charakteristischen Werkstoffzustand experimentell ermittelt wurden. Mittels Mikrostruktursimulationen wird das Kriechverhalten von LFT untersucht. Das viskoelastische Verhalten der Matrix wird experimentell an Substanzproben aus Polypropylen ermittelt und in die RVE-Simulationen mit einem modifizierten Burgers-Modell implementiert. Schließlich werden die Rechnungen mit verschiedenen, fiktiven sowie experimentell ermittelten Faserlängenverteilungen mit Kriechversuchen am LFT verglichen. Es zeigt sich eine starke Abhängigkeit des Kriechverhaltens von der Faserlänge und eine hohe Prognosegüte der Simulationen, die die experimentell ermittelte Längenverteilung berücksichtigen.
Moderne, intelligente Schraubmontagesysteme sind heutzutage in der Lage, streckgrenzengesteuerte Anziehverfahren für die prozesssichere Verschraubung zur Verfügung zu stellen. Insbesondere im Hochmomentenbereich bis 200.000 Nm ist diese Technologie erst seit kurzem etabliert. Entwicklungsbedarf besteht jedoch, sobald Bauteile im Kraftfluss liegen, die im Lastbereich ein nichtlineares Materialverhalten zeigen, wie zum Beispiel Korrosionsschutz-Lackschichten. Im Bereich der Schraubmontage gibt es nahezu unzählige Einflussfaktoren auf das Erreichen der angestrebten Montagevorspannkraft. Diese sind nicht mit vertretbarem Aufwand vollständig in einem entsprechenden Berechnungs- oder Simulations-Modell zur Auslegung von Schraubenverbindungen abbildbar. Ausserdem hat jede Applikation ihre spezifischen individuellen Eigenheiten. Modelle und Simulationen von Schraubenverbindungen sind daher nur mit eingeschränktem Maße für andere Applikationen wiederverwendbar. Zur Reduzierung von Entwicklungszeiten und Einhaltung der normativen Forderungen sollte zukünftig ein schneller Abgleich der Modelle mit den Daten der gesamten Schraubenverbindung aus realitätsnahen Versuchen angestrebt werden. Normative Forderungen wie beispielsweise die VDI/VDE 2645, welche eine Maschinenfähigkeitsuntersuchung der verwendeten Schraubtechnik zum Schraubfall vom Anwender fordert, zeigen unter anderem die Notwendigkeit auf. Idealerweise finden entsprechende Messungen unter realen Bedingungen statt. Die ermittelten Daten beinhalten nicht nur die Eigenschaftsdaten der Schrauben und die der Plattenbauteile, sondern die des ganzen Systems inkl. aller individuellen Einflussfaktoren bis hin zum Werkzeug selbst. Moderne, intelligente Schraubmontagesysteme können diese Aufgabe erfüllen. Rechtzeitig eingesetzt liefern sie die Daten zur Optimierung von Berechnung, Auslegung sowie Simulation von Schraubenverbindungen und sichern somit den Berechnungsprozess ab. Damit ist es zum einem möglich, bis an die Grenzen des technisch maximal Möglichen zu gehen, zum anderen im Echt-Test Schwachstellen der Auslegung oder Materialfehler bereits vor der Serieneinführung zu erkennen. Dieser Beitrag soll Ihnen vermitteln, dass Sie mit Hilfe intelligenter Schraubmontagesysteme die Berechnung, Auslegung und Simulation von Schraubenverbindungen mit dem Produktions- und Montageprozess abgleichen können, und dies nicht nur über den Anziehfaktor αa - dem sog. "Montage-Unsicherheitsbeiwert". Der konkrete Nutzen liegt in der Erweiterung der bisherigen Auslegung von Schraubenverbindungen mit Lackierungen im Hochmomentenbereich, die von einem breiten Anwenderkreis verwendet werden wird. Damit gelingt es, bereits in der frühen Entwicklungsphase vor Serienfreigabe übermäßige Vorspannkraftverluste zu vermeiden, was für zukünftige optimierte Berechnungen und Konstruktionen sehr wichtig ist.
Im vorliegenden Beitrag wird ein Strommarktsimulationsmodell entwickelt, mit dessen Hilfe die Bereitstellung von Flexibilität auf dem Strom- und Regelleistungsmarkt in Deutschland modell-gestützt analysiert werden soll. Das Modell bildet dabei zwei parallel verlaufende, zentrale Wettbewerbsmärkte ab, an denen Akteure durch die individuelle Gebotsermittlung handeln können. Die entsprechend hierzu entwickelte Gebotslogik wird detailliert erläutert, wobei der Fokus auf der Flexibilität fossil-thermischer Kraftwerke liegt. In der anschließenden Gegen-überstellung mit realen Marktpreisen zeigt sich, dass die verwendete Methodik und die Ge-botslogik den bestehenden Markt und dessen Marktergebnis in geeigneter Form wiederspie-geln, wodurch zukünftig unterschiedlichste Flexibilitätsszenarien analysiert und Aussagen zu deren Auswirkungen auf den Markt und seine Akteure getroffen werden können.
Qualitative Wissenschaft, künstlerisches Forschen und forschendes Lernen verbinden Erkenntnis aus Praxis und Erfahrung. In der Autoethnographie der eigenen Werkstatt des Hörens wie der Kultur in Studios anderer, wird die noch neue Interdisziplin Sound (Studies) erprobt und vertieft, mit Impulsen für die Praxis und Theorie, von der noch wenig bekannten A/r/t ographie heute, hin zu einer künftig A/R/Tophonie, dem künstlerischen Forschen in der Musik, ebenso wie durch Klang Komposition, Radio Kunst und visuelle Musik.
Die Einhaltung der innerhalb der Designphase festgelegten Architektur eines Softwareprojektes muss w ̈ahrend der Entwicklungsphase sichergestellt werden. Dieses Papier beschreibt eine Erweiterung des Eclipse-Plugins JDepend4Eclipse, die die Verwaltung von Regels ̈atzen erlaubt und die Pr ̈ufung auf in einem Projekt vorhandene, unerlaubte Abh ̈angigkeiten auf Knopfdruck innerhalb der Entwicklungsumgebung vornimmt. Die Erweiterung des Plugins wird bereits erfolgreich in internen Projekten der Hochschule Offenburg eingesetzt und soll demn ̈achst ̈offentlich verf ̈ugbar sein.
Die direkte Vermarktung von Strom aus Wind und Sonne stellt einen wichtigen Schritt der Energiewende dar. Einerseits kann durch die Marktintegration die Unabhängigkeit von EEG-Subventionen gelingen. Andererseits wird über diese Mechanismen die Stromerzeugung an der Nachfrage orientiert, wodurch zur Stabilität des Stromnetzes beigetragen wird. Ein Beispiel dafür ist die lokale Vermarktung von PV-Strom in einem Mietshaus. Für deren Umsetzung benötigen die Akteure ein Mess- und Steuerungssystem, dass vor Ort Zähler- und Anlagendaten erfasst und die Abrechnung der Mieter vereinfacht. Außerdem sollte es Kennwerte wie beispielsweise den PV-Anteil berechnen und gegebenenfalls ein Blockheizkraftwerk steuern. Weder die Zählersysteme der Messstellenbetreiber noch die Steuerungssysteme von PV- oder Blockheizkraftwerken erfüllen diese Anforderungen ausreichend. In der Forschung ist man währenddessen bereits einen Schritt weiter und arbeitet an technischen Systemen, die für wesentlich komplexere Energiesystem- und Markttopologien ausgelegt werden. In dieser Arbeit werden die neuen technischen Anforderungen der Direktvermarktung in einem Mietshaus identifiziert und mit dem Stand aktueller Marktprodukte sowie dem System »OpenMUC« aus der Forschung verglichen.
Die immer weitreichenderen Anwendungen des Smart Metering und des Smart Grid stellen immer höhere Anforderungen an Kommunikationstechnologien, die die Zielkonflikte aus Echtzeitfähige, Stabilität, Kosten und Energieeffizienz möglichst anwendungsoptimiert und auf einem immer höheren Niveau lösen. Insbesondere im Bereich der so genannten Primärkommunikation zwischen einem Sensor- oder Aktorknoten und einem Datensammler mit Gatewayfunktionalität konnten in den vergangenen Jahren wesentliche Fortschritte erzielt werden. Zu nennen sind hierbei insbesondere die Aktivitäten der ZigBee Alliance rund um den offenen Spezifikationsprozess des ZigBee Smart Energy Profiles (SEP) und der OMS-Gruppe beim ZVEI, die auf dem Wireless M-Bus nach EN13757-4 aufbauen, der sich seinerseits lebhaft und zielgerichtet weiter entwickelt. Der Beitrag diskutiert die vorhandenen Einschränkungen und die verfügbaren Lösungsansätze. Er illustriert diese anhand einiger öffentlich geförderter Projekte, an denen das Team des Autors beteiligt ist.
Immer mehr Anwendungen der Heim- und der Gebäudeautomatisierung werden vernetzt, weil damit erweiterte Funktionen ermöglicht oder Kosten gespart werden können. Dabei führt eine Reihe von Aspekten zu einem erhöhten Risiko für diese vernetzten Systeme. Gegenwärtig arbeiten verschiedene Gruppen an Sicherheitslösungen für die vernetzte Heim- und Gebäudeautomatisierung. Der Beitrag gibt einen Überblick über diese Aktivitäten und zeigt die wesentlichen Entwicklungsrichtungen auf.
Fallstudien sollen theoretische Lerninhalte zu Konzepten von Business Intelligence und Data Warehousing veranschaulichen und in einen praxisnahen Kontext bringen. Außerdem sollen Studierende umsetzungsorientierte Kompetenzen mit praxisrelevanten Systemen erwerben. Um diese Kompetenzen abzuprüfen und um die Auseinandersetzung mit Software und Konzepten zu vertiefen, haben sich Projekte als Ergänzung zu Fallstudien und Klausuren vielfach bewährt. Der Vortrag stellt dar, welche Möglichkeiten Dozierende im Rahmen der vom UCC zur Verfügung gestellten Plattform SAP Data Warehouse Cloud (SAP DWC) haben, um studentische Projekte zu Data Warehousing und Analytics durchzuführen. Der Autor berichtet über seine Erfahrung aus der Betreuung von über 30 Projekten mit SAP DWC aus verschiedenen Studiengängen seit 2020. Neben einer Übersicht über die von Studierenden gewählten Themen werden ausgewählte Projektergebnisse vorgestellt. Außerdem wird auf den Modus der Durchführung sowie existierende systemseitige Limitationen eingegangen. Für Dozierende, die mit ihren Studierenden eigene Projekte erfolgreich durchführen möchten, werden konkrete Hinweise und Maßnahmen dargestellt.
Weitsprung mit und ohne Unterschenkelprothese – gleiche Sportart, unterschiedliche Disziplinen
(2022)
Konstrukteure im Maschinenbau stehen häufig vor der Problemstellung, hochfest vorgespannte Schraubenverbindungen und einen durchgehenden Korrosionsschutz zu vereinen. Die einschlägigen Normen und Richtlinien bieten hierzu Stand heute keine ausreichende Hilfestellung. In diesem Beitrag werden an Versuchsblechen ermittelte Setzbeträge von maschinenbautypischen organischen Beschichtungssystemen unter Variation der Belastungshöhe und der Umgebungstemperatur präsentiert und mit in Bauteilversuchen gemessenen Vorspannkraftverlusten vergleichend bewertet.
Im Projekt „BioMeth“ wurden zwei neuartige und bislang noch nicht für die biologische Methanisierung beschriebene Anlagenkonzepte entwickelt. Der neuentwickelte Invers-Membranreaktor (IMR) ermöglicht es, den Eintrag der erforderlichen Eduktgase Wasserstoff H2 und Kohlendioxid CO2 über kommerziell erhältliche Ultrafiltrationsmembranen und den Entgasungsbereich für den Methanaustrag räumlich zu trennen und zusätzlich einen hydraulischen Druck zur Steigerung des Wasserstoffeintrages zu nutzen. Ein Vorteil des Verfahrens ist, dass perspektivisch sowohl das CO2 aus klassischem Biogas als auch CO2-Quellen aus industriellen Abluftströmen, z. B. aus der Zementindustrie als Kohlenstoffquelle genutzt werden können.
Über die biologische Methanisierung hinaus eignet sich der Invers-Membranreaktor der Einschätzung der Autoren nach auch generell zur biotechnologischen Herstellung nicht-flüchtiger Wertstoffe ausgehend von gasförmigen Substraten. Im IMR kann z. B. ein Membranmodul zum Eintrag der Eduktgase verwendet werden, während ein weiteres Hohlmembranmodul zur zyklischen oder kontinuierlichen Abtrennung der wertstoffhaltigen Reaktionslösung unter Rückhaltung der Mikrobiologie im Sinne eines In-situ Product Recovery (ISPR)-Konzeptes genutzt werden kann.
Als herausragendes Ergebnis erwies sich während der Untersuchung des IMR, dass mit dem Konzept der Membranbegasung CH4-Konzentrationen von > 90 Vol.-% über eine einjährige Versuchsreihe kontinuierlich und mit flexiblem Gaseintrag erzielt werden konnten. Nach Inbetriebnahme war dabei außer der Zugabe von H2 und CO2 als Energie- bzw. C-Quelle lediglich eine zweimalige Ergänzung von Supplementen erforderlich. Die maximal erreichte membranflächen-spezifische Methanbildungsrate ohne Gaszirkulation lag bei 83 LN Methan pro m2 Membranfläche und Tag bei einer Produktgaszusammensetzung von 94 Vol.% Methan, 2 Vol.% H2, und 4 Vol.% CO2.
Das zweite noch in der frühen Testphase befindliche Verfahren nutzt Druckunterschiede in einer 10 m hohen gepackten Gegenstromblasensäule, die mit einem ebenfalls 10 m hohen separaten Entgasungs-Reaktor kombiniert wurde. Diese Verfahrenskonzept soll es ermöglichen, eine hohe Wasserstofflöslichkeit aufgrund des am Säulenfuß vorliegenden hydrostatischen Druckes zu erreichen und dabei gleichzeitig den Energiebedarf zu minimieren, die Investitionskosten zu reduzieren und optimale zeitliche und räumlichen Bedingungen für die mikrobiologische Umsetzung von H2 und CO2 zu schaffen. Erste Untersuchungen am Gegenstromblasensäulenreaktor zum Stoffübergang von Luft bestätigten eine gute Anreicherung der im Kreislauf geführten Flüssigkeit bereits bei verhältnismäßig niedrigen Gasleerrohrgeschwindigkeiten. In der zweiten Säule des Reaktoraufbaus sollte am Kopf aufgrund der Druckentspannung ein Ausgasen der im Vergleich zu Atmosphärendruck mit Gas übersättigten Flüssigkeit erfolgen. Das Ausgasen der Flüssigkeit konnte ebenfalls am Beispiel des Lufteintrages bestätigt werden.
During the coronavirus crisis, labs had to be offered in digital form in mechanical engineering at short notice. For this purpose, digital twins of more complex test benches in the field of fluid energy machines were used in the mechanical engineering course, with which the students were able to interact remotely to obtain measurement data. The concept of the respective lab was revised with regard to its implementation as a remote laboratory. Fortunately, real-world labs were able to be fully replaced by remote labs. Student perceptions of remote labs were mostly positive. This paper explains the concept and design of the digital twins and the lab as well as the layout, procedure, and finally the results of the accompanying evaluation. However, the implementation of the digital twins to date does not yet include features that address the tactile experience of working in real-world labs.
Projektmanagement entwickelt sich kontinuierlich, auch in qualitativen Sprüngen und Zyklen. Planungsiterationen aus der Agilität und die coronabedingte Digitalisierung der Kommunikation sind nicht die einzigen aktuellen Entwicklungen. Nicht einmal die Wichtigsten. Es wird ein Überblick vermittelt, der nicht nur verstehen, sondern gestalten hilft.
The visual-inertial mapping and localization system maplab is analyzed by its implementation and subsequent evaluation. The mapping or localization is based on environmental feature detection. In addition to creating maps, there is also the option of fusion of several maps and thus mapping extensive areas and using them for further analysis of data. In this way, various software tools can be used to optimize the existing data sets.
Two sensor components are needed: an inertial measuring unit (IMU) and a monochrome camera, which are combined by a hardware rig and put into operation for the analysis of the visual-inertial system. System calibration is crucial for precision and system functioning and is based on nonlinear dynamic state estimation. This ensures the best possible estimate of the position of the environmental feature and the map. Maplab is particularly suitable for mapping rooms or small building complexes as the implementation and evaluation of the results in different application scenarios show. Special emphasis is laid on the evaluation of larger scenarios, in which is shown, that the system is struggling to keep up geometric consistencies and thus provide an accurate map.
E-Tutoren-Ausbildung: Lernerfahrungen reflektieren – Lehrhandlungskompetenzen dialogisch aufbauen
(2014)
Physik durch Informatik
(2022)
Selbsttests in Lernmanagementsystemen (LMS) ermöglichen es Studierenden, den eigenen Lernfortschritt einzuschätzen. Das didaktische Konzept Physik durch Informatik (PDI) ist charakterisiert durch die Nutzung einer Programmiersprache zur Lösungseingabe bei Mathematik und Physik-Aufgaben. Im Gegensatz zur Lösungseingabe durch Zahlenwerte oder im Antwort-Auswahl-Verfahren erfordert die Implementierung einer Lösung in einer Programmiersprache eine höhere Kompetenzstufe.
iSign - internet based simulation of guided wave propagation - ist eine Lernumgebung für Online-Laborversuche. Die Client-Serverarchitektur nutzt server-seitig das Tool F3D, das elektromagnetische Felder in 3D-Strukturen berechnet. Ein Apache-Webserver (unter Linux) bedient den Theorie-/Aufgaben-Teil und die Lernsystemadministration. Ein HPUX Simulationsserver steuert und kontrolliert den mehrstufigen Simulationsvorgang. Eine MySQL-Datenbank erlaubt dynmaische Webseiten-Generierung und Simulations-, Projekt- und Userdatenhaltung. Java-Applets, JavaServer Pages und JavaBeans erzeugen die interaktive Client-Oberfläche zur Eingabe, Ergebnisdarstellung und für Online-Virtual Reality. Die einheitlich gestaltete Benutzeroberfläche verbirgt die Systemkomplexität.
Die hochfrequente, feldnumerische Analyse mit der Finite-Differenzen Methode erfordert die Diskretisierung der zu untersuchenden Struktur in einem nichtäquidistanten Gitter. Vorschriften zur Diskretisierung kreiszylindrischer Strukturen wie sie z.B. bei Durchkontaktierungen auftreten, werden untersucht und eine optimierte Lösung vorgestellt.
Virtual-Reality-Darstellung elektromagnetischer Felder in dreidimensionalen Mikrowellenstrukturen
(2000)
Untersuchungen haben gezeigt, daß der Mensch ein Vielfaches an Informationen in Form von visuellen Eindrücken, im Gegensatz zur textuellen Darstellung, verarbeiten kann. Mit Hilfe des numerischen Feld-Simulationsprogramms F3D können Mikrowellenstrukturen auf die Wechselwirkung mit elektromagnetischen Feldern untersucht werden. Das Programm F3D2VRML stellt die Ergebnisse in einer dreidimensionalen Virtual-Reality-Darstellung (VR) dar.
Damit ist es dem Betrachter möglich, mehr Informationen aufzunehmen, da die Informationen mit Formen und Farben im dreidimensionalen Raum visualisiert werden.
MPC-Workshop Februar 2020
(2021)
MPC-Workshop Juli 2018
(2018)
MPC-Workshop Februar 2016
(2016)
MPC-Workshop Juli 2015
(2015)
MPC-Workshop Februar 2015
(2015)
MPC-Workshop Juli 2014
(2014)
MPC-Workshop Februar 2014
(2014)
MPC-Workshop Juli 2013
(2013)
MPC-Workshop Februar 2013
(2013)
MPC-Workshop Juli 2012
(2012)
MPC-Workshop Februar 2012
(2012)
MPC-Workshop Juli 2011
(2011)
MPC-Workshop Februar 2011
(2011)
Tagungsband zum Workshop der Multiprojekt-Chip-Gruppe Baden-Württemberg, Reutlingen, 9. Juli 2010
(2010)
Tagungsband zum Workshop der Multiprojekt-Chip-Gruppe Baden-Württemberg, Göppingen, 5. Februar 2010
(2010)
Tagungsband zum Workshop der Multiprojekt-Chip-Gruppe Baden-Württemberg, Karlsruhe, 10. Juli 2009
(2009)
Tagungsband zum Workshop der Multiprojekt-Chip-Gruppe Baden-Württemberg, Künzelsau, 6. Februar 2009
(2009)
Tagungsband zum Workshop der Multiprojekt-Chip-Gruppe Baden-Württemberg, Konstanz, 4. Juli 2008
(2008)
MPC-Workshop Juli 2007
(2007)
MPC-Workshop Februar 2007
(2007)
MPC-Workshop Juli 2006
(2006)
MPC-Workshop Februar 2006
(2006)
MPC-Workshop Juli 2005
(2005)
MPC-Workshop Februar 2005
(2005)
MPC-Workshop Juli 2004
(2004)
MPC-Workshop Februar 2004
(2004)
MPC-Workshop Juli 2003
(2003)