Refine
Year of publication
- 2017 (121) (remove)
Document Type
- Article (unreviewed) (27)
- Part of a Book (18)
- Conference Proceeding (17)
- Book (15)
- Article (reviewed) (14)
- Other (11)
- Contribution to a Periodical (6)
- Patent (5)
- Report (5)
- Letter to Editor (2)
- Doctoral Thesis (1)
Conference Type
- Konferenzartikel (14)
- Konferenz-Abstract (3)
Language
- German (121) (remove)
Has Fulltext
- no (121) (remove)
Is part of the Bibliography
- yes (121)
Keywords
- CRT (2)
- CST (2)
- Götz von Berlichingen (2)
- HF-Ablation (2)
- Risikomanagement (2)
- AGIO (1)
- AGIO-Bilanzierung Kreditinstitute (1)
- Adaptive Steuerung (1)
- Aktivierung (1)
- Algotithmus (1)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (48)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (30)
- Fakultät Wirtschaft (W) (25)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (17)
- INES - Institut für nachhaltige Energiesysteme (5)
- IfTI - Institute for Trade and Innovation (2)
- POIM - Peter Osypka Institute of Medical Engineering (2)
- WLRI - Work-Life Robotics Institute (2)
- Zentrale Einrichtungen (2)
- ACI - Affective and Cognitive Institute (1)
Open Access
- Closed Access (49)
- Open Access (29)
- Bronze (1)
- Closed (1)
- Grün (1)
Die drei großen Hersteller von Cochlea-Implantat (CI)-Systemen ermöglichen es klinischen Audiologen, die Mikrofoneigenschaften der meisten CI-Sprachprozessoren zu prüfen. Dazu können bei diesen Sprachprozessoren Monitorkopfhörer angeschlossen und das/die Mikrofon(e) inklusive eines Teils der Signalvorverarbeitung abgehört werden. Präzise Angaben dazu, mit welchen Stimuli, bei welchem Pegel und nach welchem Kriterium diese Prüfung stattfinden soll, machen die CI-Hersteller nicht. Auf Basis dieser Prüfung soll der Audiologe dann über die Funktion der Mikrofone und damit darüber entscheiden, ob der betreffende Sprachprozessor an den Hersteller eingeschickt wird oder nicht.
Zur Objektivierung der CI-Sprachprozessor-Mikrofon-Prüfung haben wir eine Testbox entwickelt, mit der alle abhörbaren aktuellen CI-Sprachprozessoren der drei großen Hersteller geprüft werden können. Die Box wurde im 3D-Druck-Verfahren hergestellt. Der zu prüfende Sprachprozessor wird in die Messbox eingehängt und über einen darin verbauten Lautsprecher mit definierten Prüfsignalen (Sinustöne unterschiedlicher Frequenz) beschallt. Das Mikrofonsignal wird über das Kabel der Monitorkopfhörer herausgeführt und mit einer Shifting- and Scaling-Schaltung in einen Spannungsbereich transformiert, der für die AD-Wandlung mit einem Mikrokontroller (ATmega1280 verbaut auf einem Arduino Mega) geeignet ist. Derselbe Mikrokontroller übernimmt über einen eigens gebauten DA-Wandler die Ausgabe der Sinustöne über den Lautsprecher. Signalaufnahme und –wiedergabe erfolgen mit jeweils 38,5 kHz Samplingrate. Der für jede Frequenz über mehrere Perioden des Prüfsignals ermittelte Effektivwert wird mit dem Effektivwert, der mit einem neuwertigen Referenzprozessor für diese Frequenz gemessen wurde, verglichen. Die Messergebnisse werden graphisch auf einem Display ausgegeben.
Derzeit läuft eine erste Datenerhebung mit in der Klinik subjektiv auffällig gewordenen CI-Sprachprozessoren, die anschließend in der Messbox untersucht werden. So sollen realistische Schwellen für kritische Abweichungen von den Referenz-Effektivwerten ermittelt werden. Im weiteren Verlauf sollen dann Hit und False Alarm-Raten der subjektiven Prüfung bestimmt werden.
Das normalhörende auditorische System ist in der Lage, interaurale Zeit- bzw. Phasendifferenzen zur verbesserten Signaldetektion im Störgeräusch zu nutzen. Dieses Phänomen wird häufig als binaurale Entmaskierung bezeichnet und ist sowohl bei einfachen Signalen wie Sinustönen, als auch bei Sprachsignalen im Störgeräusch wirksam. Vorangegangene Studien haben gezeigt, dass binaurale Entmaskierung eingeschränkt auch bei bilateralen CI-Trägern beobachtbar ist (Zirn et al., 2016).
Aktuelle Ergebnisse zeigen, dass die binaurale Entmaskierung sensitiv gegenüber der bilateralen CI-Anpassung ist. So lässt sich der Effekt durch tonotopen Abgleich und Herausstellen eines apikalen Feinstrukturkanals modulieren. Steigerungen der binauralen Entmaskierung um bis zu 1,5 dB sind auf diese Weise gegenüber der konventionellen CI-Anpassung möglich. Allerdings variiert der Einfluss der CI-Anpassung interindividuell erheblich.
Strategische Analysetechniken ermöglichen langfristig eine strukturierte Erfassung unternehmensinterner Ressourcen in Ausrichtung auf den Markt. Die hier beschriebenen Basis-Techniken umfassen das Produkt-Lebenszyklusanalyse-Modell, verschiedene Typen der Portfolio-Analyse, die Wertketten-Analyse und die SWOT-Analyse. Diese Techniken unterstützen das Marketing-Controlling, Geschäftsfeld- und Marktanalysen für das Management zu erstellen und strategische Handlungsoptionen abzuleiten.
Social Media-Controlling
(2017)
Online-Marketing-Controlling
(2017)
Qualitative Wissenschaft, künstlerisches Forschen und forschendes Lernen verbinden Erkenntnis aus Praxis und Erfahrung. In der Autoethnographie der eigenen Werkstatt des Hörens wie der Kultur in Studios anderer, wird die noch neue Interdisziplin Sound (Studies) erprobt und vertieft, mit Impulsen für die Praxis und Theorie, von der noch wenig bekannten A/r/t ographie heute, hin zu einer künftig A/R/Tophonie, dem künstlerischen Forschen in der Musik, ebenso wie durch Klang Komposition, Radio Kunst und visuelle Musik.
Sichere Detektion von Menschen in der Mensch-Roboter-Kollaboration mit Time-of-Flight Kameras
(2017)
Im Jahr 1504 verlor der deutsche Ritter Gottfried („Götz“) von Berlichingen seine
rechte Hand. Schon während seiner Genesung dachte er daran, die Hand zu ersetzen,
und beauftragte bald darauf die erste Handprothese, die sogenannte „Eiserne Hand“.
Jahre später wurde die aufwändigere zweite „Eiserne Hand“ gebaut. Wir haben die erste
Prothese auf der Basis früherer Literaturdaten von
Quasigroch (1982) mit Hilfe von 3-D
Computer-Aided Design (CAD) rekonstruiert. Dazu mussten einige Abmessungen angepasst
und ein paar Annahmen für das CAD-Modell gemacht werden. Die historische passive
Prothese des Götz von Berlichingen ist für die moderne Neuroprothetik interessant, da sie
eine Alternative zu komplexen invasiven Brain-Machine-Interface-Konzepten darstellen
könnte, wo diese Konzepte nicht notwendig, möglich oder vom Patienten gewünscht sind.
Die vorliegende Erfindung betrifft ein Verfahren zum digitalen Drucken einer Keramikfarbe auf einem Substrat, wobei die Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik mittels eines Laserstrahls simultan zu dem Aufbringen der Keramikfarbe auf ein Substrat mittels eines Druckkopfes erwärmt wird. Weiterhin betrifft die vorliegende Erfindung auch die Verwendung eines Laserstrahls in einer Vorrichtung zum digitalen Drucken einer Keramikfarbe auf einem Substrat, wobei der Laserstrahl die Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik simultan zu dem Aufbringen der Keramikfarbe auf ein Substrat mittels eines Druckkopfes der Vorrichtung erwärmt. Die vorliegende Erfindung betrifft weiterhin auch eine Vorrichtung zum digitalen Drucken einer Keramikfarbe auf einem Substrat, die einen Druckkopf zum Aufbringen einer Keramikfarbe auf ein Substrat sowie einen Laser zum Erwärmen der Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik mittels eines Laserstrahls umfasst.
Die vorliegende Erfindung betrifft ein Verfahren zum digitalen Drucken einer Keramikfarbe auf einem Substrat, wobei die Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik mittels eines Laserstrahls simultan zu dem Aufbringen der Keramikfarbe auf ein Substrat mittels eines Druckkopfes erwärmt wird. Weiterhin betrifft die vorliegende Erfindung auch die Verwendung eines Laserstrahls in einer Vorrichtung zum digitalen Drucken einer Keramikfarbe auf einem Substrat, wobei der Laserstrahl die Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik simultan zu dem Aufbringen der Keramikfarbe auf ein Substrat mittels eines Druckkopfes der Vorrichtung erwärmt. Die vorliegende Erfindung betrifft weiterhin auch eine Vorrichtung zum digitalen Drucken einer Keramikfarbe auf einem Substrat, die einen Druckkopf zum Aufbringen einer Keramikfarbe auf ein Substrat sowie einen Laser zum Erwärmen der Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik mittels eines Laserstrahls umfasst.
Die vorliegende Erfindung betrifft ein Verfahren zum Pulverlackieren eines Kunststoff- oder Glasgegenstandes, umfassend die Schritte des Ausbildens einer polaren Beschichtung auf dem Kunststoff- oder Glasgegenstand, umfassend den Teilschritt des Aufbringens einer Beschichtungszusammensetzung auf den Kunststoff- oder Glasgegenstand, wobei die Beschichtungszusammensetzung ein Organosiloxan, das mindestens zwei Si-O-Bindungen aufweist, Wasser, ein organisches Lösemittel und ein pH-regulierendes Mittel, ausgewählt aus einer Brönsted-Säure, in einer katalytischen Menge enthält, mit der Maßgabe, dass die Beschichtungszusammensetzung keinen elektrisch leitfähigen Zusatz, ausgewählt aus ionischen Verbindungen, Metallen, Metall(misch)oxiden, intermetallischen Verbindungen und leitfähigem Kohlenstoff, enthält, sowie die Schritte des Aufbringens eines Pulverlacks auf den derartig beschichteten Kunststoff- oder Glasgegenstand und des Erwärmens des Pulverlacks.
In dieser Arbeit werden die außentemperaturgeführte Vorlauftemperaturregelung (Standard-TABS-Strategie), ein Verfahren das auf einer multiplen linearen Regression basiert (AMLR-Strategie) und ein Verfahren, das unter dem Obergriff der modellprädiktiven Regelung (MPC-Strategie) zusammengefasst werden kann, untersucht. Anhand der Simulationsergebnisse und des Integrationsaufwandes in die Gebäudeautomation des Seminargebäudes wurde eine Fokussierung auf die AMLR-Strategie vorgenommen.
Entwicklung und Evaluierung eines adaptiv-prädiktiven Algorithmus für thermoaktive Bauteilsysteme
(2017)
Der Gebäudesektor ist einer der Hauptverbraucher von Energie und somit mitverantwortlich für einen wesentlichen Anteil an CO2-Emissionen. Heiz- und Kühlkonzepte, die erneuerbare Energiequellen nutzen können, gewinnen daher immer mehr an Bedeutung. Hierfür besonders geeignet sind Niedertemperatursysteme, wie beispielsweise Thermoaktive Bauteilsysteme (TABS). Die große thermische Trägheit und die geringe Leistung dieser Systeme verhindern eine schnelle Reaktion auf Raumtemperaturänderungen. Bisherige Steuer- und Regelstrategien für TABS können nur sehr schlecht mit der thermischen Trägheit umgehen, da diese in der Regel keine Prädiktionen verwenden. Hinzu kommt eine aufwändige Parametrierung dieser TABS-Strategien, was in der Praxis zu Inbetriebnahmephasen von oft mehreren Jahren führt. Die Möglichkeit TABS als einen Kurzzeitenergiespeicher für das durch die wachsende Einspeisung aus fluktuierenden erneuerbaren Energiequellen belastete Stromnetz nutzbar zu machen, spielt bei diesen Standard-TABS-Strategien bisher keine Rolle.
In dieser Arbeit wurde ein neuartiger Algorithmus für die Steuerung von TABS entwickelt, der hier durch die Abkürzung AMLR gekennzeichnet wird. Die AMLR nutzt Vorhersagen der Hauptstörgrößen einer TABS-Zone zur Berechnung eines innerhalb des nächsten Tages zuzuführenden Energiepaketes. Zu den Hauptstörgrößen zählen die tagesgemittelte Außentemperatur, die tagesgemittelte globale Einstrahlung sowie ein Belegungsplan jeder TABS-Zone. Die AMLR verwendet ein dynamisches und ein stationäres Widerstands-Kapazitäten(RC)-Modell mit einem Verzögerungsglied erster Ordnung (PT1). Das stationäre TABS- und Raummodell wird für eine Adaptionsfähigkeit und das dynamische Modell für die zeitdiskrete Berechnung von Leistungen genutzt. Es wird gezeigt, dass die Genauigkeit eines Modells mit PT1-Glied für die Steuerung von TABS ausreichend ist. Durch die Adaptionfähigkeit kann sich der Algorithmus automatisiert an unterschiedliche Gebäude, Standorte und Nutzungsprofile anpassen. Auf die Erstellung eines Gebäudemodells inklusive dessen technischer Gebäudeausrüstung (TGA), der Wärmelasten sowie der Wettereinflüsse kann somit verzichtet werden. Weiterhin können mit der AMLR mittlere Soll-Raumtemperaturen pro TABS-Zone vorgegeben werden, was bei Standard-TABS-Strategien nicht möglich ist. Dem Autor stehen als Testumgebungen zur Evaluierung der AMLR die Triple-Klimakammer des Instituts für Energiesystemtechnik (INES) der Hochschule Offenburg sowie zwei reale Gebäude und deren Simulationsmodelle zur Verfügung. Bei den Gebäuden handelt es sich um das in Basel befindliche IWB CityCenter sowie das Seminargebäude der Hochschule Offenburg.
Mit Hilfe der Triple-Klimakammer werden die verwendeten RC-Modelle sowie das TRNSYS-Simulationsmodell der Kammer selbst validiert. Durch den direkten Vergleich der AMLR zu Standard-TABS-Strategien kann in Model-in-the-Loop (MiL) Simulationen, Laborversuchen und Pilotanlagen gezeigt werden, dass die AMLR insbesondere dann thermische Energie einsparen kann, wenn es bei der Standardstrategie zu Überhitzungen im Heizfall und Unterkühlungen im Kühlfall kommt. Des Weiteren zeigen sich Energieeinsparpotenziale durch die Möglichkeit der zonenspezifischen Beladung der TABS. Anhand von Messdaten einer Pilotanlage kann eine Reduktion des thermischen TABS-Energiebedarfs von über 41 % belegt werden. In allen Testumgebungen kann eine Einsparung an Hilfsenergie von bis zu 86 % für die TABS-Pumpen bei gleichzeitiger Verbesserung des thermischen Komforts nachgewiesen werden. Neben Energieeinsparungen sind durch den Einsatz der AMLR Investitionseinsparungen durch eine vereinfachte TABS-Hydraulik möglich, da keine konstanten Vorlauftemperaturen notwendig sind. Weiterhin kann gezeigt werden, dass die Leistung eines Zusatzkühlsystems durch den Einsatz der AMLR im Vergleich zur Standard-TABS-Strategie reduziert werden kann, ohne den thermischen Komfort zu beeinträchtigen. Anhand von Simulationsrechnungen wird das Potenzial von TABS für Lastverschiebemaßnahmen quantifiziert. Durch die Verwendung der AMLR mit dynamischen Strompreisen ist im gezeigten Beispiel eine Einsparung an monetären Kosten von 38 % möglich. Weiterhin konnten Anfragen zur Abschaltung der Beladung der TABS zum Ausgleich fluktuierender erneuerbarer Energieerzeuger durch die AMLR unter Einhaltung des thermischen Komforts durchgeführt werden.
Die Simulation komplexer kardialer Strukturen und kardialer Elektroden ist von Bedeutung für die Optimierung langatmiger und kostspieliger klinischer Studien. Das Risiko der Patientengefährdung wird durch diese Methode auf ein Minimum reduziert. Das Ziel der Studie besteht im Entwurf eines anatomisch korrekten 3D CAD Herzrhythmusmodells (HRM) zur Simulation von elektrophysiologischen Untersuchungen (EPU) und Hochfrequenz-(HF-)Ablationen.
Zerstörungsfreie Verfahren zur Messung von Eigenspannungen erfordern, abhängig vom gewählten Verfahren, die Kenntnis gewisser Kopplungskonstanten. Im Falle von Ultraschallmessverfahren sind das neben den elastischen Konstanten zweiter Ordnung (SOEC) vor allem die Konstanten dritter Ordnung (TOEC). Elastische Konstanten fester, metallischer Bauteile werden in der Regel in Zugversuchen bestimmt. Zur Ermittlung der TOEC werden diese mit Ultraschallmessmethoden kombiniert. Durch äußere Einflüsse, wie etwa mechanische Nachbehandlungen der zu untersuchenden Bauteile können sich diese Konstanten jedoch ändern und müssen folglich direkt am veränderten Material bestimmt werden. Mithilfe von Simulationen wird die Ausbreitung der zweiten Harmonischen und der nichtlinear erzeugten Oberflächenwellen in Wellenmischexperimenten analysiert und der akustische Nichtlinearitätsparameter (ANP) bzw. der Kopplungsparameter aus der Amplitudenentwicklung berechnet. Insbesondere wird untersucht, welchen Einfluss ein gegebenes Tiefenprofil der TOEC auf den ANP hat (Vorwärtsproblem) und inwiefern sich aus den Messungen des ANP auf ein vorliegendes Tiefenprofil der TOEC schließen lässt (inverses Problem). Außerdem wird diskutiert, welchen Einfluss lokale Änderungen der SOEC auf den ANP haben können und wie groß diese Änderungen sein dürfen, um die TOEC dennoch bestimmen zu können. Die Untersuchungen hierzu wurden auf der Basis eines 3D-FEM Modells mit zufällig orientierten Mikrorissen durchgeführt. Die numerischen Rechnungen zeigen dabei auch eine gute Übereinstimmung mit einem aus der Literatur bekannten und für dieses Problem erweiterten, analytischen Modell. Neben der rissinduzierten Nichtlinearität kann bei diesem auch die Gitternichtlinearität berücksichtigt werden.
Wie in Ausgabe 44 bereits angekündigt startet bwLehrpool im März 2017 offiziell als Landesdienst. Neben der originären Aufgabe der Bereitstellung virtueller Lehrumgebungen in PC-Räumen wurde der Dienst nun
um die Möglichkeit der einfachen und sicheren Durchführung von E-Prüfungen sowie des Pool Video Switch (PVS)-Systems erweitert. bwLehrpool wird bereits an zahlreichen Hochschulen und Universitäten in den unterschiedlichsten Fachberei-
chen erfolgreich eingesetzt.
Das Buch enthält Fallstudien zur deskriptiven und induktiven Statistik, welche auf die Bachelor-Ausbildung in der Betriebswirtschaft ausgerichtet sind. Für die fachlichen Grundlagen wird auf eine prägnante Liste einschlägiger Werke verwiesen. Ziel der Fallstudien ist es, den gesamten in einer Lehrveranstaltung erlernten Stoff adäquat anzuwenden. Hiermit soll ein fundiertes, nachhaltiges Gesamtverständnis erreicht und die Einübung von Transfers realisiert werden. Den Fallstudien liegen, zum Download vorgehaltene, realistische Datensets in einem Umfang zugrunde, der die Anwendung von Unterstützungssystemen erforderlich macht. Dazu ist die Verwendung von Microsoft Excel vorgesehen. In jeder Fallstudie werden sukzessive Lösungshinweise angeboten, um einen möglichst großen Lerneffekt zu erzielen. Das Lehrbuch richtet sich in erster Linie an Studierende in der Examensvorbereitung und kann auch als Klausurenkurs genutzt werden. Einzelne Fallstudien können aber auch veranstaltungsbegleitend zum Abschluss eines Themenbereiches, wie z. B. der deskriptiven Statistik bearbeitet werden.
In der Planungs- und Betriebspraxis herrscht im Bereich der Betriebsführung von thermisch aktivierten Bauteilsystemen und insbesondere der thermisch trägen Bauteilaktivierung noch große Unsicherheit. Trotz einer weiten Verbreitung dieser Systeme im Neubau von Nichtwohngebäuden hat sich bis heute keine einheitliche Betriebsführungsstrategie durchgesetzt. Vielmehr kritisieren Bauherren und Nutzer regelmäßig zu hohe bzw. niedrige Raumtemperaturen in den Übergangsjahreszeiten und bei Wetterwechsel sowie generell eine mangelhafte Regelbarkeit. Demgegenüber weisen Monitoringprojekte immer wieder einen hohen thermischen Komfort in diesen Gebäuden nach. Offensichtlich unterscheiden sich hier subjektiv empfundene Behaglichkeit und objektiv gemessener Komfort. Gleichzeitig sind Heiz- und Kühlkonzepte mit Flächentemperierung dann besonders energieeffizient, wenn das Regelkonzept auf deren thermische Trägheit angepasst ist. Eine gute Regelung gewährleistet also einen hohen thermischen Komfort und sorgt für einen möglichst niedrigen Energieeinsatz. Das Rechenverfahren mit Anlagenaufwandszahlen (in Anlehnung an DIN V 18599) bietet eine gute Möglichkeit, Anlagenkonzepte inklusive deren Betriebsführungsstrategie zu bewerten. Damit ist es möglich, eine auf das Gebäude angepasste Betriebsführungsstrategie für die Bauteilaktivierung zu finden und einheitlich zu bewerten.
In this study, we tested the function of a replica of the over 500-year-old original of the
famous Franconian Imperial Knight Götz von Berlichingen’s first “iron hand”, which we
reconstructed by computer-aided design (CAD) and recently printed using a multi-material
3D printer. In different everyday tasks, the artificial hand prosthesis proved to be remarkably
helpful. Thus, the hand could hold a wine glass, some grapes, or a smartphone. With a
suitable pencil, even writing was possible without any problem. Although for all these
functions the healthy other hand was necessary to assist at the beginning, the artificial hand
is an astonishing mechanical aid with many possibilities. Therefore, in certain cases, the
non-invasive approach of a passive mechanical hand replacement, which is an individual,
quick and cheap solution due to modern 3D printing, may always be worth considering
also for today’s requirements.
Nicht-invasives, nicht-ionisierendes funktionelles Neuroimaging mit räumlich und zeitlich hochauflösender Elektroenzephalographie oder Echtzeit-Naheinfrarotspektroskopie in Kombination mit modernen Robotorsystemen ist ein entscheidender Entwicklungsschritt auf dem Gebiet der Neuroprothetik und Brain-Machine-Interfaces. In der Medizintechnik an der Hochschule Offenburg wird hierzu geforscht.
Am Buffet des Lebens
(2017)
Musik und Neurophysiologie
(2017)
Streustrahlung in der Ultraschall-Computertomographie zur Verifizierung der Echtheit von Perlen
(2017)
This paper describes a new analysis method developed to distinguish real from fake
pearls using non-ionizing, non-destructive ultrasound computed tomography (USCT): In the USCT Shepp-Logan-filtered time-of-flight image, a fake pearl shows irregular, asymmetric
scattering of ultrasound, whereas the pattern in a natural pearl is regular and symmetric.
We strongly assume that pattern recognition of the scattering of ultrasound cannot only
play an important role in verifying pearls, but also in testing other materials and tissues in
(bio-)medical engineering. Furthermore, and most importantly, this new approach could
be helpful for a variety of clinical diagnoses using high-resolution 3D-USCT, such as the
detection of X-ray-negative micro-calcifications in early breast cancer. Moreover looking
at scattering patterns in dedicated positron emission tomography systems may promote
new developments in nuclear medicine diagnostics.
Nachweise für die Stabilität von Regelkreisen, deren Stellgrößen an ihre Begrenzungen gelangen können und bei denen die Regler Integratoren oder andere dynamische Glieder sowie Anti-Windup-Maßnahmen enthalten, sind gewöhnlich sehr aufwändig zu führen. Bei PI-Zustandsreglern, die mittels der in [1] vorgestellten Methode in einem mehrstufigen Verfahren für Regelstrecken entworfen wurden, die bis auf die Stellgrößenbegrenzungen linear sind, lassen sich jedoch äußerst hilfreiche allgemeine Stabilitätsaussagen treffen, die den konkreten Stabilitätsnachweis für das Gesamtsystem– selbst unter Einbeziehung von Beobachtern – erheblich vereinfachen. Im vorliegenden Beitrag werden die diesbezüglichen, auf Steuerbarkeitsbetrachtungen beruhenden, Zusammenhänge für zeitdiskrete Regelkreise aufgezeigt sowie daraus exemplarisch mittels Ljapunow-Funktionen eine einfache Reglerformel für Zustandsregler abgeleitet, die auch im Begrenzungsfall stabil arbeiten. Ein Beispielaus der elektrischen Antriebstechnik illustriert die Anwendbarkeit der vorgestellten Methode.
Dieses Buch beschreibt die regelungstechnische Modellbildung und die darauf basierende Regelung der gebräuchlichsten, in industriellen Anwendungen eingesetzten elektrischen Maschinen.
Hinsichtlich des Reglerentwurfs wird eine sehr leistungsfähige Methodik angewendet, mit der alle analysierten Beispiele einheitlich behandelt werden können. Sie basiert auf der zeitdiskreten Zustandsraumbeschreibung stromrichtergespeister elektrischer Antriebe. Durch die leicht verständliche einführende Beschreibung der Methodik wird es auch Lesern, denen die Zustandsraummethodik nicht geläufig ist, möglich, dynamisch sehr hochwertige Regelungen zu implementieren.
Eine weitere Besonderheit ist die Einbeziehung von rückspeisefähigen Netzstromrichtern in die Betrachtungen.
Neben einigen Umgestaltungen und Erweiterungen wurden für die Neuauflage auch zahlreiche interessante Ergänzungen vorgenommen, etwa hinsichtlich Rückschlussmöglichkeiten aus Typenschildangaben einer Drehstrommaschine auf die in den zugehörigen Differentialgleichungen verwendeten Maschinenparameter sowie auf Möglichkeiten zu deren Identifikation im Betrieb.
Kinder am Bildschirm
(2017)
Wenn in Studien über digitale Medien und Kinder berichtet wird, liegt der Fokus meist darauf, Kinder „fit für die digitale Zukunft“ zu machen. Welche Folgen eine zu frühe und nicht regulierte Nutzung von Bildschirmmedien bei Kindern und Jugendlichen haben kann, zeigt sich in den Praxen der Kinderärzte. Das Spektrum der zu behandelnden Erkrankungen und der Beratungsbedarf bei psychosozialen Problemen haben sich in den letzten Jahren grundlegend verändert, schreiben die Verantwortlichen der BLIKK-Studie.
Wer sich mit Digitalisierungsbestrebungen an Schulen befasst, stellt fest, dass die Tragweite der intendierten Transformation von Bildungseinrichtungen zu automatisierten Lernfabriken durch Digitaltechnik nur von Wenigen realisiert wird. Viele Beteiligte (wollen) glauben, es ginge nur um eine bessere technische Ausstattung der Lehreinrichtungen zur Unterstützung der Lehrkräfte – und übersehen, dass mit Kybernetik und Behaviorismus zwei den Menschen determinierende Theorien eine Renaissance erleben. Vertreter dieser Disziplinen glauben daran, dass sowohl der einzelne Mensch wie ganze Gesellschaften oder Sozialgemeinschaften wie ein Maschinenpark programmiert und gesteuert werden könne. Dabei werden Lernprozesse zu Akten der systematischen Selbstentmündigung umdefiniert: die Zurichtung der Lernenden auf abfragbare Kompetenzen mit Hilfe von Algorithmen und Software.
Kein Mensch lernt digital
(2017)
Die IT-Industrie hat die Bildung als Geschäftsfeld seit vielen Jahren auf der Agenda. Wirtschaftsverbände und IT-Vertreter fordern unisono, Digitaltechnik und Programmiersprachen schon in der Grundschule zu unterrichten, damit die Schülerinnen und Schüler für die digitale Zukunft gerüstet seien. Dabei ist der Nutzen digitaler Medien im Unterricht nach wie vor fragwürdig.
Ralf Lankau entlarvt in diesem Buch die wirtschaftlichen Interessen der IT-Branche und ihrer Lobbyisten. Dabei geht er sowohl auf die wissenschaftlichen Grundlagen (Kybernetik, Behaviorismus) als auch auf die technischen Rahmenbedingungen von Netzen und Cloud-Computing ein, bevor er konkrete Vorschläge für einen reflektierten und verantwortungsvollen Umgang mit Digitaltechnik im Unterricht skizziert. Die These des Autors lautet: Wir müssen uns auf unsere pädagogische Aufgabe besinnen und (digitale) Medien wieder zu dem machen, was sie im strukturierten Präsenzunterricht sind: didaktische Hilfsmittel.
In diesem Beitrag werden die Bereitstellungskosten flexibler Systemkomponenten im deutschen Stromsystem analysiert, zu deren Quantifizierung eine einheitliche Methodik entwickelt wird. Dabei ist das Ziel des Beitrags, zeitlich differenzierte Kostenpotenzialkurven für die Jahre 2015 und 2030 zu erarbeiten, anhand derer die energiespezifischen Kosten der markt- und systemdienlichen Flexibilitätsbereitstellung verglichen und die einzelnen Flexibilitätsoptionen in einen Gesamtkontext eingeordnet werden können.
Der Einsatz flexibler Systemkomponenten wird hierzu in die drei Hauptphasen (1) Vorhaltung, (2) Abruf und (3) Einsatzfolgen unterteilt, woraus sich drei kongruente Kostengruppen ableiten lassen, nach denen die einzelnen Kostenbestandteile identifiziert und als Ergebnis die Bereitstellungskosten quantifiziert werden. Neben fossil-thermischen Kraftwerken werden dabei bspw. die Kraft-Wärme-Kopplung, Biogasanlagen, Pumpspeicher- und Laufwasserkraftwerke sowie steuerbare Lasten untersucht.
Zur anschließenden Abbildung der teils negativen Bereitstellungskosten wird die herkömmliche Darstellungsform der Merit Order entlang der Ordinate um die Abbildung negative Werte erweitert und die Abszisse für die Abbildung negativer Flexibilität in umgekehrter Reihenfolge angeordnet. Das Ergebnis sind zwei zusammenhängende Graphen, mittels derer sich die Bereitstellungskosten verschiedener Flexibilitätsoptionen gegenüberstellen und anschaulich vergleichen lassen.
Durch die Festlegung eines Rahmenszenarios zur Entwicklung des deutschen Stromsystems bis zum Jahr 2030 wird anschließend auch die zukünftige Perspektive der Flexibilitätsbereitstellung in Deutschland analysiert. Aus den Ergebnissen lässt sich ableiten, dass der deutsche Kraftwerkspark mit einem fortschreitenden Rückbau der Kohlekraftwerke nur dann zunehmend flexibler wird und auf höhere Schwankungen im Stromnetz reagieren kann, wenn von einem gleichzeitigen Zubau moderner erdgasbetriebener Kraftwerke ausgegangen wird. In diesem Fall steigen die Bereitstellungskosten positiver Flexibilität, was sich beispielsweise durch zukünftig steigende Brennstoffpreise bergründen lässt. Jedoch kann bspw. durch die Transformation der Kraft-Wärme-Kopplung hin zu einer grundsätzlich stromgeführten Fahrweise zukünftig eine vergleichsweise kostengünstige Flexibilitätsbereitstellung erschlossen und somit auch ein gleichbleibendes oder oftmals sogar höheres Flexibilitätsniveau am Markt erreicht werden.
Im vorliegenden Beitrag wird ein Strommarktsimulationsmodell entwickelt, mit dessen Hilfe die Bereitstellung von Flexibilität auf dem Strom- und Regelleistungsmarkt in Deutschland modell-gestützt analysiert werden soll. Das Modell bildet dabei zwei parallel verlaufende, zentrale Wettbewerbsmärkte ab, an denen Akteure durch die individuelle Gebotsermittlung handeln können. Die entsprechend hierzu entwickelte Gebotslogik wird detailliert erläutert, wobei der Fokus auf der Flexibilität fossil-thermischer Kraftwerke liegt. In der anschließenden Gegen-überstellung mit realen Marktpreisen zeigt sich, dass die verwendete Methodik und die Ge-botslogik den bestehenden Markt und dessen Marktergebnis in geeigneter Form wiederspie-geln, wodurch zukünftig unterschiedlichste Flexibilitätsszenarien analysiert und Aussagen zu deren Auswirkungen auf den Markt und seine Akteure getroffen werden können.
Die Entwicklung von neuartigen Elektrodentypen und die Weiterentwicklung bestehender Produkten machen einen großen Teil der entstehenden Kosten für ein Unternehmen aus. Mithilfe geeigneter Software können Änderungen der Konstruktionen erfasst und bestimmte Simulationen, bspw. das Auftreten von Wechselwirkungen im elektrischen Feld, vor der eigentlichen Prototypenerstellung durchgeführt werden. Das Ziel der Studie besteht in der Modellierung unterschiedlicher Schrittmacher- und Ablationselektroden und deren Integration in das Offenburger Herzrhythmusmodell (HRM) zur statischen und dynamischen Simulation der biventrikulären Stimulation und HF Ablation bei Vorhofflimmern (AF).
Gamification, die spielerische Anreicherung von Tätigkeiten, erfreut sich zunehmender Beliebtheit. Insbesondere in den Bereichen Gesundheit (Exergames) oder Lernen (Serious Games, Edutainment) gibt es eine Vielzahl erfolgreicher Anwendungen. Weniger verbreitet ist Gamification dagegen bislang bei Arbeitsprozessen. Zwar gibt es erfolgreiche Ansätze im Bereich Dienstleistung und Service (z. B. bei Callcentern), der Bereich der industriellen Produktion wurde jedoch bis vor wenigen Jahren nicht adressiert.
Dieses Kapitel gibt einen Überblick der Entwicklung von Gamification und zeigt den Stand der Technik. Wir leiten allgemeine Anforderungen für Gamification im Produktionsumfeld ab und stellen zwei neue Ansätze aus der aktuellen Forschung vor. Diese werden in einer Studie mit Trainern aus der Automobilbranche auf Akzeptanz untersucht. Die Ergebnisse zeigen eine insgesamt positive Haltung zur Gamifizierung der Produktion und eine sehr hohe Akzeptanz insbesondere des Pyramiden-Designs.
Quo Vadis Freihandel?
(2017)