Refine
Year of publication
Document Type
- Contribution to a Periodical (119) (remove)
Language
- German (119) (remove)
Has Fulltext
- yes (119) (remove)
Is part of the Bibliography
- yes (119)
Keywords
- Analyse (4)
- E-Learning (4)
- Logistik (4)
- Corona (3)
- Hubschrauber (3)
- Hybridantrieb (3)
- Medizintechnik (3)
- Raumtemperatur (3)
- Roboter (3)
- Schluckspecht (3)
Institute
- Zentrale Einrichtungen (45)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (27)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (24)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (16)
- Fakultät Wirtschaft (W) (8)
- INES - Institut für nachhaltige Energiesysteme (6)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (5)
- Fakultät Medien (M) (ab 22.04.2021) (2)
- CRT - Campus Research & Transfer (1)
- IMLA - Institute for Machine Learning and Analytics (1)
Open Access
- Open Access (119)
- Bronze (6)
Die optimale Zusammensetzung und Aktivität der Mikroorganismengemeinschaft ist für den stabilen und effizienten Betrieb einer Biogasanlage essentiell. Moderne kultivierungsunabhängige Nachweismethoden können erstmals die Basis für eine rationale mikroorganismenfokussierte Verfahrensoptimierung liefern. Als erster Schritt für den Aufbau eines aussagekräftigen Monitoringsystems für die Biogasmikrobiologie wurde ein nucleinsäurebasiertes Verfahren (TaqMan Real-time PCR) zum Nachweis der methanbildenden Mikroorganismen (Archaeen) sowie von vier Untergruppen etabliert und auf Proben aus zwei unterschiedlich betriebenen Biogasanlagen in Neuried und Oberried angewandt. Bei der Anlage in Oberried in der Nähe von Freiburg, betrieben von örtlichen Landwirten (Substrat: Gülle, Grassilage, Maissilage, Mist, Anlage mit Güllevorgrube, Fermenter und Gärrestlager) konnten insgesamt höhere absolute Konzentrationen an Archaeen nachgewiesen werden als in der Anlage in Neuried in der Nähe von Offenburg, betrieben durch die Fa. badenova AG & Co. KG, Freiburg (thermophil betrieben, Substrat: Maissilage, Anlage mit Hauptfermenter, Nachfermenter und Gärrestlager). Auch hinsichtlich der vier untersuchten Untergruppen zeigten sich deutliche Unterschiede, die auf die unterschiedlichen an der Methanbildung beteiligten Abläufe hinweisen.
Angepasste Hybridantriebe in mobilen Arbeitsmaschinen (off-highway Anwendungen) versprechen wegen der typischerweise auftretenden Lastzyklen mit ausgeprägten, häufigen und schnellen Laständerungen folgende Vorteile: geringerer Kraftstoffverbrauch, Einsatz eines Dieselmotors kleinerer Leistung, dadurch Erfüllung strikter werdender Emissionsvorschriften (TIER 4, EURO 5) ohne oder mit reduzierter Abgasnachbehandlung, Lärmreduktion, weitere Einsparpotenziale durch Elektrifizierung der Fahrzeugfunktionen möglich (Erhöhung des Hybridisierungsgrads), höhere Produktivität durch höhere Antriebsdynamik.
Im Rahmen eines von der Deutschen Forschungsgemeinschaft geförderten Projekts des Instituts für Rechtsmedizin der Universität Freiburg und des Freiburger Materialforschungszentrums entwickelt die Robotikgruppe der Hochschule Offenburg ein robotergestütztes mobiles Messsystem zur spektroskopischen Vermessung von Leichenflecken. Ziel des Gesamtprojekts ist die Charakterisierung von intravitalen und postmortalen Hautveränderungen auf der Basis reflektionsspektrometrischer Messungen an menschlicher Haut durch ein physikalisches Hautmodell. Projektleiter ist Prof. Dr. Michael Bohnert, Institut für Rechtsmedizin Freiburg, der den grundlegenden Anstoß zum Einsatz spektroskopisch aufgelöster Messungen der Färbung von Leichenflecken gab [1]. In Zusammenarbeit mit dem Freiburger Materialforschungszentrum wurde dazu ein Modell für das optische Verhalten der Haut entwickelt [2]. Im Anschluss wurde insbesondere die Reoxygenierung der Leichenflecken bei gekühlter Lagerung untersucht [3]. Der Dokumentation der Messreihen liegt ein elektronisches Laborbuch zugrunde, das von der Servicegruppe Wissenschaftliche Informationsverarbeitung des Materialforschungszentrums entwickelt wurde [4]. Als problematisch erwies es sich, dass sich eine Messreihe über 50 bis 60 Stunden erstreckt und in der Regel nur zweimal täglich Handmessungen durchgeführt werden konnten, die zudem bei Raumtemperatur erfolgen mussten.
Die spektroskopische Beobachtung von postmortalen Hautveränderungen und insbesondere von Totenflecken ermöglicht potenziell eine genauere Bestimmung des Todeszeitpunkts oder der Todesursache (z. B. im Fall von CO-Vergiftungen). Für die grundlegende Charakterisierung dieser Veränderungen sind Langzeitbeobachtungen von Stunden oder gar Tagen wünschenswert.
Das Ziel dieses Projekts ist die Entwicklung und Charakterisierung einer mikrobiellen Brennstoffzelle (MBZ). Die MBZ unterscheidet sich von einer herkömmlichen Brennstoffzelle darin, dass die an der Anode erzeugten Elektronen nicht vom molekularen Wasserstoff, sondern direkt von der im Anodenkompartiment wachsenden Biomasse aus organischen Verbindungen stammen. Die Funktionsweise einer solchen Zelle ist in Abbildung 3.4-1 dargestellt. Im Gegensatz zur herkömmlichen Brennstoffzelle können in einer MBZ auch Abwasserteilströme z. B. aus der Lebensmittelindustrie als Substrat eingesetzt werden. Der große Vorteil der MBZ besteht somit darin, dass Abwässer biologisch abgebaut und gleichzeitig elektrischer Strom erzeugt werden kann.
Die biologische Verwertung von cellulose-/ hemicellulose- und lignocellulosereichen organischen Substraten zur Erzeugung von Energieträgern gewinnt zunehmend an Bedeutung. Im Gegensatz zu Biokraftstoffen der ersten Generation, bei denen nur ein kleiner Teil des pflanzlichen Materials eingesetzt worden ist (Öl, Zucker, Stärke), wird bei Biokraftstoffen der zweiten Generation fast die vollständige Pflanze einschließlich der schwer zugänglichen Cellulose verwendet. In Biogasanlagen führt diese Zielstellung jedoch häufig zu Problemen. Lignocellulose-reiches Material ist für viele Mikroorganismen schwer oder gar nicht abbaubar. Um die schwer abbaubaren Pflanzenteile wie Cellulose, Hemicellulose oder Lignin den Mikroorganismen in einer Biogasanlage besser zugänglich zu machen, können Biogassubstrate vorbehandelt werden.
Hinsichtlich des Informationsaustauschs ist die Bewerbungssituation oft durch eine Asymmetrie gekennzeichnet. Arbeitgeber erwarten umfassende und detaillierte Informationen, liefern aber häufig ihrerseits, insbesondere in der Anfangsphase des Auswahlprozesses, nur wenige Informationen. Eine kleine Feldstudie in einem deutschen Unternehmen ergab, dass sich von 34 Bewerbern über die auszuübende Tätigkeit nur vier gut informiert, aber vierzehn nur mäßig und neun schlecht informiert fühlten sowie sieben sich in dieser Hinsicht unbestimmt äußerten. Eine telefonische Befragung von 100 ehemaligen Mitarbeitern und von 50 aktiven Mitarbeitern eines großen Informatik-Unternehmens ergab, dass unrealistische Tätigkeitsschilderungen eine bedeutsame Frühfluktuationsursache sind. Die Frage, ob die Tätigkeit in der Bewerbungsphase realistisch geschildert worden sei, wurde nur von 35,9 % der aktiven Mitarbeiter und nur von 7,1 % der ehemaligen Mitarbeiter bejaht.
Eine Feldforschung in der Art, dass Entscheidungsträger und Bewerber ohne ihre Kenntnis beobachtet und die Beobachtungsergebnisse ausgewertet wurden, existiert nicht. Hier gibt es neben praktischen Schwierigkeiten auch rechtliche und moralisch-ethische Forschungsgrenzen. Ethische Bedenken bestehen ebenso gegen eine experimentell unterschiedliche Behandlung realer Bewerber. Auch eine begleitende Feldforschung zu realen Auswahlverfahren in der Praxis, zum Beispiel durch den intensiven Einbezug von Forschern, durch offensichtliche Tonbandaufnahmen oder Videoaufnahmen von Live- Gesprächen oder durch die stumme oder teilnehmende Beobachtung der Akteure durch Forscher kommt, außer bei Campusinterviews, nicht oft vor.
Das situative Interview (SI) ist eine Form des strukturierten Interviews. Es wird nach der Zielsetzungstheorie von der Annahme ausgegangen, dass ein enger Zusammenhang zwischen geäußerten Verhaltensabsichten und dem späteren realen Verhalten besteht. Bewerber werden gefragt, wie sie in bestimmten Situationen handeln würden: „Was würden Sie tun, wenn ...?“ Man kann von einer mentalen Arbeitsprobe sprechen. Die Antworten der Bewerber werden mit vorher entwickelten Antwortalternativen verglichen und so bewertet.
Praxisorientierung und angewandte Wissenschaften sind an unseren Hochschulen erprobte Denkweisen, traditionsreich gewachsen aus Technik und Wirtschaft. Mit der interdisziplinären Medienfakultät M+I kommt der gestalterische Blick dazu auf Grafik, Bewegtbild, Sound, Multimedia und Interaktivität. Im Master-Studium ergänzen sich intermediales Gestalten und Reflexion mit audiovisueller Komposition als Performance. Solche experimentell-künstlerischen Projekte verbinden sich durch Hochschul- und Mediendidaktik mit forschendem Lernen, als integrierende Methode, die noch wachsen soll. Ein wichtiger Impuls dafür könnte Practice-Based Research sein. Das ist eine Forschung in Kunst und Gestaltung, aber auch in Medizin und Sozialwissenschaft, die sich in den letzten drei Jahrzehnten im Angelsächsischen von Nordamerika über England bis nach Australasia intenstiv entwickelt hat.
M+I = Mediologie + Interdisziplinarität – Skizzen angewandter und anwendbarer Medienwissenschaft
(2011)
Im Handlungsfeld Medien + Informationswesen (M+I) der Hochschule Offenburg steht die didaktische Produktion in der Lehre und für professionelle Tätigkeiten im Zentrum. In Laboren, Studios, Projekten, Abschluss- und Forschungsarbeiten werden mediale Lösungen für die Praxis erarbeitet und auch neue Formate entworfen. Die Fachwissenschaften umgeben solche Workflows als paralleles Bezugssystem. Darin ist die Zusammenarbeit zwischen Gestaltungslehrern und Informatikern, von Medientechnik und Medienmanagement ein gut entwickelter Prozess für Medien in der Bildung (oder „Bildung im Neuen Medium“) [1]. Die Herstellung selbst aber ist nicht immer primär theoriegeleitet, sondern mehr konzentriert auf Ideen, Akteure, Werkzeuge, Abläufe und Strukturen. Lehr-Lern-Konzepte, theoretische Reflexion und forschendes Lernen treffen so zwar zusammen und an Übergängen wachsen theoriefähige Gestalten, noch ohne sich intermedial zu vollenden [2]. Aus dem Blickwinkel der Ilmenauer Angewandten Medienwissenschaft lässt sich ein Workflowkonzept übertragen zwischen praktischem Handeln und wissenschaftlichen Einzelfächern. Auch durch Mediologie, eine schlanke „Medientheorie der Kulturwissenschaften“ gerät solches Übertragen und Vermitteln bewusster von der technologischen und materialen Basis der Medien her in die Diskussion. Als Mediation verbindet sie Inhalt, Organisation und Ästhetik, so der technikversierte Medienphilosoph Frank Hartmann [3].
Bioakustik, ein interdisziplinäres Gebiet der Biologie zwischen Klang und Umwelt, erfährt durch die Kunstkopf-Hörbilder des Naturforschers und Tonmeisters Walter Tilgner eine plastische, wissenschaftliche Erweiterung. Mit dem binauralen Kunstkopfverfahren zeichnet er nicht nur einzelne tier- und vogelkundliche Laute auf, sondern die gesamte Umgebung und ihr typisches Klangbild. Während die Tierstimmenanalyse etwa der Ornithologie einzelne Formen des Vogelgesangs untersucht, geht es ihm und Hörkünstlern wie Gordon Hempton, dem ‚Soundtracker‘, um das Wechselspiel zwischen den Arten in Zeit und Raum. Auch die pädagogische Seite spielt eine Rolle, um den Rezipienten Naturklang als wertvolle Ressource nahezubringen. 1985 hat der Pionier Tilgner die ersten Naturlandschaften vollständig digital aufgenommen und bei WERGO mit dem Label ‚Natural Sound‘ als CD publiziert. Für den Komponisten und Wissenschaftler Dr. Bernie Krause aus Kalifornien repräsentieren solche Aufnahmen ökologische Nischen in der Landschaft, von typischen Klangverläufen geprägt. In seinem eigenen Vergleich dichter Naturräume in Südamerika, Afrika und Asien werden sie unverwechselbar als akustischer Fingerabdruck nachweisbar. Der Künstler- Forscher hat mit der Spektralanalyse so nicht nur seine ‚Nischen-Hypothese‘ entwickelt und empirisch bestätigt, sondern auch den Begriff der Biophonie geprägt: Naturklänge entfalten sich wie in einem musikalischen Stück, sie sind der Komposition einer (Bio-)Symphonie vergleichbar. Die Stimmen der Spezies bilden arin den ‚materialen Klang‘ (den Ausdruck verdanken wir dem Komponisten Johannes Wallmann in Berlin). Darauf wirken die zeitlichen Prozesse und räumlichen Faktoren der Umwelt, als ‚Geophony‘ aus Klima und Flora, durch Sonne, Wind, Erde und Wasser. Schließlich verändert auch der Mensch die Naturlandschaft durch technische Geräte, wie in der Tonaufnahme, und durch extensives Wirtschaften hin zur ‚Anthrophony‘. Der Klang der Natur ist also menschgemacht, und die Aufnahmen bedeuten nicht nur wertvollen Rohstoff für die Medien. Bioakustik und Biophonie fordern den Dialog von und über Natur und Kultur immer wieder neu heraus, wie hier im Spektrogramm einer Waldcollage, mit einer starken Motorsäge als Mittelpunkt [2].
Intermediales Gestalten bildet in der Fakultät M+I ein dichtes Produktionsnetz. Es umfasst ein großes Spektrum von Schrift, Bild und Fotografie zu zeitbasierten Formen, audiovisueller Komposition und Medienkunst. Experimentelles Screen- und Webdesign tragen mit interaktiven Momenten dazu bei, als Werkstattberichte und DVD-Arrangements. Dazwischen entfalten sich Sound und Design als eigene Klangsprache – Klanguage‘ – wie auch quer-synergetisch zu allen Medien und deren Bezugsdisziplinen. Zwar ist der Acoustic Turn der Kulturwissenschaft im Vergleich zu Texten und Bildern noch recht verhalten. [1] Aber Interdisziplinarität und wieder neu zu entdeckende (Poly-)Ästhetik [2] verbinden die unterschiedlichen Medien über ihre parallelen Workflows und Produktionsstrukturen wie auch in wissenschaftlichen Diskursen zur Konzeption und Produktion. [3] Doch auch der theoretische Ausdruck Intermedialität ist ein reicher Schirmbegriff zwischen Gattungen und Genres. [4] Das zeigt sich als Längsschnitt, in dem Medien historisch aus- und miteinander entstehen und vergehen. Andererseits verfügen wir heute über einen frei konfigurierbaren Querschnitt an neuen Formaten, etwa von der noch wenig erprobten Akustischen Fotografie zur visuellen Virtualität und Simulation. Modelle wachsen aus Arbeitsprojekten und auch in der teilnehmenden, teilseienden Doppelrolle von Praxisforschern. Gestalter sind Beobachter und Akteure zugleich, wie bei Ihnkens Studio als ‚Labor der Emotionen‘ [5]. Intermediales Gestalten ist also immer ein doppelter Prozess: in den Medien selbst als Transfer der Gestaltungskraft von einer Schicht zur anderen und als Mitte zwischen Produktions- und Wissenskultur.
Informatik-Veranstaltungen in der Fakultät Medien und Informationswesen (abgekürzt MI) vermitteln meist komplexe Inhalte, die anschließend in begleitenden Laborveranstaltungen praktisch und an konkreten Beispielen vertieft werden. Allerdings benötigen die Studierenden für ein lehrreiches Labor und die selbstständige Erarbeitung korrekter Lösungen einige Grundkenntnisse, die aus der jeweiligen Theorieveranstaltung mitgebracht werden müssen. Um den Studierenden weiterhin die Möglichkeit zu geben, den Stoff der Lehrveranstaltungen raum- und zeitunabhängig nachzuarbeiten und auch didaktisch aufbereitete Übungen virtuelldurchzuführen, haben wir zu den Veranstaltungen Software Engineering, Computernetze und Datenbanken webbasierte E-Learning-Materialien konzipiert und erstellt (http://mi-learning.mi.fh-offenburg. de). Diese Materialien erlauben den Lernenden, selbstbestimmt, im eigenen Lernrhythmus und über unterschiedliche Medien einen Zugang zu der Thematik zu finden. Derartige hybride Lernarrangements (Blended Learning) kombinieren die Vorteile unterschiedlicher didaktischer Methoden und der Medien.
Wir präsentieren die weltweit erste Auswertung einer zweidimensional entwickelten HPTLC-Platte (2D-HPTLC) mit Hilfe eines Diodenarray Scanners. Das System erreicht eine räumliche Plattenauflösung von 250 µm. Es können Absorptions- und Fluoreszenzspektren im Wellenlängenbereich von 190 bis 1000 nm mit einer spektralen Auflösung von besser als 1 nm gemessen werden. Eine Trennzahl von 259 wurde erreicht. Damit zeigt die Methode bessere Trenneigenschaften als die meisten HPLC-Systeme. Der Nachteil der 2D-Auswertung ist der hohe Zeitbedarf von über 3 Stunden für eine Plattenmessung.
Statistische Daten über den Wärmepumpenmarkt, hier speziell den europäischen, sind schwer zu bekommen. Ausführliche länderbezogene Recherchen werden durch zwei Institutionen angeboten: BRG (International Strategic Market Research And Consultancy On Building Product And Related Markets) und BSRIA (Building Services Research and Information Association), beide in London ansässig. Beschaffung dieser Daten ist jedoch mit erheblichen Kosten verbunden. Frei zugänglich sind dagegen Berichte von EHPA (European Heat Pump Association, Brüssel), die teilweise andere Schwerpunkte setzen, anders strukturiert sind und nur acht europäische Länder behandeln. Infolgedessen wurden beim Vergleich von BRG- und EHPA-Daten enorme Diskrepanzen für vier von acht Ländern festgestellt. Das Ziel dieses Berichts ist es, Trends auf dem europäischen Wärmepumpenmarkt aufzuzeigen. Diese Analyse war notwendig, um anschließend Untersuchungen zum Thema Energieeffizienz der Luftwärmepumpen durchzuführen.
Bauteile in Dampfturbinen, stationäre Gasturbinen und Fluggasturbinen sind hohen Beanspruchungen ausgesetzt. Wenn die Turbinen gestartet werden, erwärmen sich die Bauteile im „heißen Bereich“ der Turbine auf über 1000 °C. Damit die Bauteile bei diesen Temperaturen nicht einfach dahinschmelzen, werden spezielle hochtemperaturfeste Legierungen verwendet, wie beispielsweise Nickelbasis-Superlegierungen. Die hohen Temperaturschwankungen die beim Starten und beim Abschalten der Turbine auftreten, machen aber auch diese Werkstoffe auf Dauer nicht mit. Beim Aufheizen dehnt sich das Material aus, beim Abkühlen zieht es sich wieder zusammen. Dieses Hin- und Her-Verformen führt dazu, dass der eingesetzte Werkstoff unter „Stress“ kommt und Spannungen im Werkstoff auftreten. Diese Spannungen können dazu führen, dass sich Risse im Material bilden, die unter der zyklischen Belastung (wiederholtes Starten und Abschalten) wachsen, bis das Bauteil kaputt ist. Der Fachmann spricht dabei von der thermo-mechanischen Ermüdung (Thermomechanical Fatigue, TMF) des Werkstoffs.
Das In-flight Entertainment (IFE) in Flugzeugen, also die mediale Unterhaltung der Passagiere mit Musik, Filmen oder Videospielen während des Flugs, wird für die Fluggesellschaften immer wichtiger. Somit steigen auch die Anforderungen an das IFE-System hinsichtlich Datenraten, Zuverlässigkeit und Flexibilität. Im Forschungsprojekt „Sprechende Sitzschiene“ an der Hochschule Offenburg wird ein neuartiges Kommunikationssystem für das In-flight Entertainment in Passagierflugzeugen entwickelt. Das Besondere und Innovative daran ist die Verwendung von Strukturelementen des Flugzeugs wie Sitzschienen als Übertragungsmedium.
An der Hochschule Offenburg wird ein autonomer Hubschrauber entwickelt. Die Zelle besteht aus einem kommerziellen Modellhubschrauber Typ Align TREX 600. Als Antrieb dient ein bürstenloser 1.6-kW-Elektromotor mit ca. 40.000 U/min, der von einem 22-V-Lithium-Polymer-Akkumulator mit 5 Ah Speicherkapazität gespeist wird. Das Abfluggewicht des Hubschraubers beträgt ca. 3 kg. Sein Hauptrotor ist ein Zweiblattrotor mit Bell-Hiller-Mechanik. Der Heckrotor wird über einen Zahnriemen von der Hauptrotorwelle abgehend angetrieben. Der Hubschrauber ist autorotationsfähig. <br>Für die Flugregelung wurde ein Kurs-Lagereferenzsystem entwickelt. Die eigentliche Flugregelung sowie die Datenerfassung der Sensoren erfolgt über zwei Atmega128-Mikroprozessoren. Der Hubschrauber ist mit einem Datenlink über Bluetooth mit einem PC am Boden verbunden.
Eine Gruppe von Studierenden, wissenschaftlichen Mitarbeitern und Professoren der Hochschule Offenburg entwickeln seit einigen Jahren autonome Helikopter. Erfahrungen durch praktische Tests und Einsätze ermöglichen eine stetige Optimierung dieser Fluggeräte, sodass sich wiederum viele unterschiedliche Aufgabengebiete für den Einsatz der autonomen Helikopter ergeben. In diesem Beitrag werden die bereits erfolgten praktischen Einsätze erläutert.
Holographische Verfahren
(2009)
Seit einigen Jahren arbeitet der Autor theoretisch und experimentell an Verfahren der Computerholographie. Modifizierte LCD-Displays lassen sich sowohl als Amplituden- als auch als Phasenhologramme nutzen, hochauflösende CCD-Kameras stehen zur Verfügung, die erforderlichen hohen Rechenleistungen sind ebenfalls verfügbar, all das zu relativ geringen Kosten. Damit werden holographische Verfahren in vielen Bereichen zu einer interessantenAlternative zu bestehenden Verfahren und eröffnen teilweise auch ganz neue Möglichkeiten. Der Artikel soll einen Überblick über die grundsätzlichen Zusammenhänge geben. Die erforderliche Mathematik ist recht komplex, insbesondere, wenn es um schnelle Verfahren geht, und Gegenstand aktueller Forschung. Auf eine eingehende Darstellung der Mathematik und Signalverarbeitung wird aus Platzgründen verzichtet.
Luftbilder und Magnetfeldkarten – der Hochschul-Helikopter fotografiert aus der Vogelperspektive
(2010)
Der autonom und geregelt fliegende Helikopter der Hochschule Offenburg eignet sich als Träger für unterschiedliche Sensoren. Natürlich ist die naheliegendste Anwendung, mit einer Digitalkamera Luftaufnahmen zu machen. Abbildung 2.4-1 zeigt eines der Ergebnisse der ersten Luftbildflüge: Der Campus der Hochschule Offenburg von oben, aufgenommen mit einer digitalen Filmkamera mit entsprechend geringer Auflösung. Um bessere Ergebnisse zu erzielen, wurde inzwischen eine digitale Panoramakamera mit einem Leica-Objektiv und ca. 10 Mio. Pixel beschafft.
Informatik-Veranstaltungen in der Fakultät Medien und Informationswesen vermitteln meist komplexe Inhalte, die anschließend in begleitenden Laborveranstaltungen praktisch und an konkretenBeispielen vertieft werden. Allerdings benötigen die Studierenden für ein lehrreiches Labor und die selbstständige Erarbeitung korrekter Lösungen einige Grundkenntnisse, die aus der jeweiligen Theorieveranstaltung mitgebracht werden müssen.<br> Um den Studierenden weiterhin die Möglichkeiten zu geben, den Stoff der Lehrveranstaltungen raum- und zeitunabhängig nachzuarbeiten und auch didaktisch aufbereitete Übungen virtuell durchzuführen, haben wir zu den Veranstaltungen Software Engineering, Computernetze und Datenbanken webbasierte E-Learning-Materialien konzipiert und erstellt. Diese Lernarrangements bieten den Lernenden die Möglichkeit, selbstbestimmt im eigenen Lernrhythmus und über unterschiedliche Medien einen Zugang zu der Thematik zu finden. Hybride Lernarrangements (Blended Learning) versuchen hier die Vorteile unterschiedlicher didaktischer Methoden und Medien miteinander zu kombinieren [1].
In der Fakultät Medien und Informationswesen der Hochschule Offenburg wird in den Informatikfächern Software Engineering, Computernetze und Datenbanken ein hybrides Lernarrangement zum Erlernen der komplexen und oft abstrakten Inhalte eingesetzt. Derartige hybride Lernarrangements (Blended Learning) kombinieren die Vorteile unterschiedlicher didaktischer Methoden und Medien. Die Materialien erlauben den Lernenden, selbstbestimmt, im eigenen Lernrhythmus und über unterschiedliche Medien einen Zugang zu der Thematik zu finden.
Maschinelles Lernen verändert zusehends die Arbeitswelt. Auch in der Produktionsplanung und -steuerung finden sich vielversprechende Anwendungsfälle. In diesem Beitrag sollen ausgewählte Anwendungsbereiche und Ansätze vorgestellt werden, die anhand einer umfangreichen Untersuchung wissenschaftlicher Veröffentlichungen identifiziert wurden. Als Strukturierungshilfe dient das Aachener PPS-Modell.
Im Rahmen eines Forschungsauftrages des Spielfilmsenders Tele 5, München, wurden im Labor Medienmanagement der Fakultät Medien und Informationswesen unter der Leitung von Prof. Dr. Ute Rohbock und Prof. Dr. Sighard Roloff sowie der Mitarbeit eines Projektteams, bestehend aus Diplom- und Bachelor studierenden Kommunikationsansätze von Tele 5 analysiert. Diese zweistufige explorative Studie setzte sich aus einer Eyetracking-Untersuchung und einer qualitativen Befragung (Leitfadeninterviews) zusammen. Der Spielfilmsender Tele 5 wurde durch Kai Wißmann (Leiter OnAir Kommunikation) vertreten. Das Eyetracking-System erlaubt es, die Augenbewegungen sowie die Zeitdauer, mit der ein/e Proband/in einen auf dem Bildschirm vorgegebenen Bereich fixiert, zu erfassen.
Jakob Nielsen, einer der bekanntesten Experten im Bereich der Benutzerfreundlichkeit, spricht der Usability im Web neben einer großen Bedeutung auch die Fähigkeit zu, aus Besuchern Kunden zu machen: „If a website is difficult to use, people leave.“[1] Im Umkehrschluss bedeutet das, wenn eine Webseite einfach zu bedienen ist, werden die Besuchenden länger auf ihr verweilen und im Idealfall die gewünschte Handlung ausführen. Eine Handlung, die einen Besucher zum Kunden qualifiziert, wird als Coversionshandlung bezeichnet. In den meisten Fällen geht es dabei um das Absenden eines Formulars. Innerhalb dieses Forschungsberichts wird aufgezeigt, wie die Methode Eyetracking in Kombination mit einer qualitativen Nachbefragung mit halb strukturiertem Fragebogen genutzt werden kann, um Probleme bei der Benutzerfreundlichkeit zu identifizieren.
Wir haben die erste „Eiserne Hand“ des Götz von Berlichingen mit 3D-Computer-Aided Design rekonstruiert und über einen Multimaterial-3D-Drucker ausgedruckt. Dabei ließ sich feststellen, dass die 500 Jahre alte Technik keinesfalls veraltet ist: Das Innenleben der „Eisernen Hand“ ist ausgefeilter als bisher angenommen. Sie könnte sogar spannende Impulse für die Entwicklung neuer künstlicher Handprothesen liefern.
Entwicklung eines Hybridantriebssystems für kommunale Spezialfahrzeuge in Off-Road-Anwendungen
(2010)
In [1] wurde bereits berichtet, dass im Labor für elektrische Antriebe und Leistungselektronik in Kooperation mit den Firmen Heinzmann GmbH & Co. KG und LADOGFahrzeugbau und Vertriebs GmbH ein Wechselrichter zur Speisung eines Synchronmotors für einen Hybridantrieb eines kommunalen Spezialfahrzeugs entwickelt wird. Während in [1] wegen der damals erst kurzen Projektlaufzeit nur die ersten Projektschritte beschrieben werden konnten, wird in diesem Beitrag der derzeit erreichte Entwicklungsstand dargestellt.
In den letzten Jahren ist die Photovoltaik, beflügelt durch das Erneuerbare Energiengesetz – zumindest so lang es noch eine hinreichend lukrative Einspeisevergütung gab -, zu einem immer bedeutenderen Applikationsfeld der Leistungselektronik geworden. Im Fokus des Interesses steht dabei der Photovoltaik-Wechselrichter, der den in den Solarmodulen erzeugten Gleichstrom in Wechselstrom oder Drehstrom umwandelt und ins Netz einspeist.
The presented paper describes a development project for a formula 1 racing team which was performed at the laboratory for electrical drives and power electronics of the University of Applied Sciences in Offenburg. The kernel of that project was the simulation of an electrical machine with means of a load inverter and a passive filter, so that inverters from contractors could be tested easily without using a real test bench. The whole electrical drive, consisting of the real electrical machine and the inverter is part of a hybrid drive for a formula 1 racing car which is allowed to be used from the racing season 2009.
Das Projekt Yaffa "Yeast Analysis by Field Flow Fractionation" ist ein Verbundprojekt der Hochschule Offenburg und der Hochschule Wiesbaden in Kooperation mit der Forschungsanstalt Geisenheim, der Université Limoges, mehreren Industriepartnern der Weinbaubranche sowie der Postnova Analytics GmbH. Ziel ist es, für die Weinherstellung ein praxistaugliches und wirtschafltiches Analyseverfahren mit Feldflussfraktionierung zu entwickeln. Das Analyseverfahren soll zur Qualitätsüberwachung des Weinfermetationsprozesses eingesetzt werden, wodurch z. B. Gärstörungen rechtzeitig erkannt und geeignete Gegenmaßnahmen eingeleitet werden können.
Der Straßengüterverkehr in Deutschland hat ein enormes Ausmaß angenommen: Mehr als 80 Prozent der gesamten volkswirtschaftsweiten Gütertonnage in Deutschland oder – in absoluten Zahlen– etwa drei Milliarden Tonnen Waren werden jährlich per Lkw transportiert. Entwicklungen wie die Tendenz vieler Unternehmen zu Outsourcing oder Offshoring, die europäische Integration und damit verbunden der zunehmende Transitverkehr in Deutschland sowie die Nutzung moderner logistischer Konzepte (Cross-Docking- und Hub-and-Spoke-Systeme) weisen darauf hin, dass die Verkehrsleistung im Straßengüterverkehr noch deutlich zunehmen wird.
Die Logistik als betriebswirtschaftliche Teildisziplin hat sich im Lauf der letzten Jahrzehnte sehr dynamisch entwickelt. Der folgende Beitrag wirft einen Blick auf wesentliche Impulse und Ideengeber und stellt in diesem Zusammenhang 15 Literaturbeiträge vor, die für die Ideengeschichte der Logistik wegweisend waren.
Aus Ideen werden Produkte
(2020)
KINLI
(2023)
Konsumenten haben immer höhere Ansprüche an Lebensmittelsicherheit, -qualität und -nachhaltigkeit. Bei Fleisch erwarten viele Menschen auch eine artgerechte und ethisch vertretbare Aufzucht, Haltung und Schlachtung der Tiere. Im Projekt KINLI sollen eine Datenplattform und Dienste mit künstlicher Intelligenz entwickelt werden, um mögliche Probleme vorherzusagen. Unternehmen in der Lieferkette können damit proaktiv ihre Prozesse anpassen, bevor Probleme tatsächlich eintreten.
Für Verbindungen über einige hunderte Meter eignen sich Multimode-Lichtwellenleiter (MM-LWL) durch ihre Robustheit und einfache Handhabung ideal. Zudem erlaubt der große Durchmesser des Faserkerns mit 62,5 µm eine sichere, stabile und relativ verlustfreie Verbindung. Neben diesen Vorteilen sind jedoch im letzten Jahrzehnt durch die Erhöhung der Bitrate auch Nachteile sichtbar geworden. So konnten die für niedrige Übertragungsraten genutzten LEDs noch zur Vollanregung der Übertragungsmoden eingesetzt werden. Für höhere Übertragungsraten ist dies jedoch nicht mehr möglich, da sie optisch zu träge sind und somit der schnellen Modulation nicht mehr folgen können. Schnellere Anregungskomponenten, etwa Laserdioden (LD), müssen eingesetzt werden. Durch die spezifische Ausstrahlungscharakteristik der LDs kann jedoch nicht mehr der gesamte MM-LWL-Kern angeregt werden. Dies führt zu unterschiedlichen Modenlaufzeiten im MMLWL, was sich wiederum negativ auf die Übertragungsrate auswirken kann. Dadurch nimmt die Bandbreite rapide ab.
Der Bedarf an Bandbreite für Internetanwendungen ist in den letzten Jahren so stark gestiegen, dass Kupferleitungen diesen Anforderungen nicht mehr entsprechen können. Aus Expertensicht ist die Lösung dieses Problems ein optisches Netzwerk aus Lichtwellenleitern (LWL), das bis in die Wohnung zum Endkunden reicht – das sogenannte „Fiber to the Home“ (FttH)-Konzept.
Das könnte die Zukunft des Lernens sein: Ab 2036 werden Eltern einen virtuellen Lehrer bereits für ihre fünfjährigen Kinder abonnieren. Die Stimme des Computers wird uns durchs Leben begleiten, vom Kindergarten über Schule und Universität bis zur beruflichen Weiterbildung. Der Computer erkennt, was ein Schüler schon kann oder wo Nachholbedarf besteht. Wir werden uns als lernende Menschen neu erfinden … Solche und andere Dystopien über unser künftiges Leben und Lernen kann man etwa bei Fritz Breithaupt und seiner „Talking Method“ nachlesen. Doch: wollen wir so etwas?
Wenn man die Verlautbarungen aus dem Wissenschafts- und Kultusministerien verfolgt (oder den Beitrag von Saskia Esken in „Schule im Blickpunkt“ liest), scheint es für Bildungseinrichtungen nur noch ein Thema und nur noch ein Ziel zu geben: die Digitalisierung. Dabei reicht bereits die einfache Frage des „cui bono“ (wem nützt es), um zu zeigen: Die einzigen Nutznießer von Digitalagenda und Digitalpakt sind IT-Firmen – auf Kosten der Schülerinnen und Schüler, zu Lasten ihrer Selbständigkeit und damit ihrer Zukunftsperspektiven – und zum Schaden öffentlicher Bildungseinrichtungen.
Produzierende Unternehmen sehen sich auch zukünftig mit stark wachsenden Herausforderungen konfrontiert und gegenübergestellt. Dies ist vor allem durch eine zunehmend dynamischere Umwelt mit stark schwankenden Veränderungen bedingt, die es erforderlich macht, sich schnell und flexibel auf diese Veränderungen einzustellen bzw. anzupassen.
Der vorliegende Beitrag beschreibt die Motivation hinter den Forschungsarbeiten im Electric Mobility Competence Center (EMC^2) rund um elektrische Antriebskomponenten für die Elektromobilität sowie die Notwendigkeit, diese Forschungsarbeiten an Prüfständen zu testen und zu validieren. Zunächst wird näher auf die Charakteristik von elektrischen Maschinen eingegangen, um anschließend die verwendete Prüfstandtechnik vorzustellen.
Strukturanalyse und Optimierung eines kranlosen Montagesystems für Offshore-Windenergieanlagen
(2009)
In order to lift the nacelle of an offshore wind energy converter with around 500 tons of weight up on the tower – which can be up to 120 m above the water level – at the time special ships and cranes are designed and built. But those firstly will be very expensive and secondly will be available only on a limited scale. Against this background a joint research project supported by the german Federal Ministry for the Environment, Nature Conservation and Nuclear Safety (BMU) was started comprising the project partners Ed. Züblin AG, Berg-idl GmbH, the IPEK at the university of Karlsruhe and the Hochschule Offenburg – University of Applied Sciences. Project target was the conceptual design of a heavy-duty elevator, which can be used to install the tower segments and the nacelle offshore without a crane. The most relevant challenges in this context result of holding up extreme loads by means of comparatively filigree carrying structures.
Der effektive Einsatz von Energie ist vor dem Hintergrund von begrenzten Ressourcen und der Forderung nach einer Reduzierung der bei der Energiegewinnung entstehenden Umweltbelastungen von wachsender Bedeutung. Für die noch relativ junge Gruppe der generativen Fertigungsverfahren liegen bis heute kaum Untersuchungen zum Energieverbrauch vor. Deshalb werden in diesem Beitrag zwei weit verbreitete Rapid-Prototyping-Verfahren (3D-Drucken und Fused Deposition Modeling) hinsichtlich ihres Energieverbrauchs untersucht und verglichen. Zudem werden Maßnahmen zur Steigerung der Energieeffizienz aufgezeigt und Einsparmöglichkeiten genannt.
In Zusammenarbeit mit der Firma Schweizer Electronic AG, Schramberg, wurde seit 2007 ein aktives Sensorsystem mit Datenloggerfunktion entwickelt. Das System verfügt über eine RFID-Systemschnittstelle nach dem ISO15693-Standard und kann bis zu 30.000 Messwerte speichern. Im Jahr 2009 wurde im Auftrag der SIEMENS AG, Österreich, die Firmware des Systems nach neuen Spezifikationen und Ideen in wesentlichen Teilen neu entwickelt.
Im Rahmen einer Zusammenarbeit mit der Schweizer Elektronik AG wurde seit 2007 ein aktives Sensorsystem mit Datenloggerfunktion (Abbildung 1.4-1) entwickelt, das über eine nach ISOStandard ISO 15693 ausgelegte Funkschnittstelle verfügt. Über das System wurde bereits im Forschungsbericht 2008 berichtet.