Refine
Year of publication
- 2019 (137) (remove)
Document Type
- Part of a Book (38)
- Article (unreviewed) (35)
- Book (17)
- Conference Proceeding (13)
- Article (reviewed) (9)
- Report (9)
- Contribution to a Periodical (8)
- Patent (3)
- Doctoral Thesis (2)
- Working Paper (2)
- Other (1)
Conference Type
- Konferenzartikel (10)
- Konferenz-Abstract (1)
- Konferenzband (1)
- Sonstiges (1)
Language
- German (137) (remove)
Has Fulltext
- no (137) (remove)
Is part of the Bibliography
- yes (137)
Keywords
- Herzrhythmusmodell (3)
- Learning Analytics (3)
- Psychometrie (3)
- Augmented Reality (2)
- Bildungscontrolling (2)
- Data Science (2)
- Genossenschaften (2)
- Geothermie (2)
- Hochschuldidaktik (2)
- Katheterablation (2)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (76)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (22)
- Fakultät Wirtschaft (W) (19)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (14)
- INES - Institut für nachhaltige Energiesysteme (5)
- CRT - Campus Research & Transfer (4)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (4)
- IMLA - Institute for Machine Learning and Analytics (4)
- Zentrale Einrichtungen (2)
- ACI - Affective and Cognitive Institute (1)
Open Access
- Closed Access (88)
- Open Access (38)
- Bronze (4)
- Closed (1)
- Diamond (1)
Industrie 4.0 bedeutet nicht nur einen Wandel der technischen Möglichkeiten und Arbeitsbedingungen, sondern auch einen Bedarf an neuen, sich kontinuierlich weiterentwickelnden Kompetenzen und die Bereitschaft der Beschäftigten, Veränderungen mitzugestalten. Spielerische Ansätze der Kompetenzentwicklung können v.a. bei weiterbildungsfernen Mitarbeitern hilfreich sein, um das komplexe Thema verständlich zu vermitteln. Der Beitrag beschreibt ein Seminarkonzept mit integriertem Brettspiel, mit dem Teilnehmer anhand eines fiktiven Unternehmens (Müller GmbH) die Transformation eines Unternehmens in die Industrie 4.0 spielerisch nachvollziehen. Dieses Konzept erweist sich in einer ersten Evaluation als durchaus vielversprechend.
Ausgehend von eindimensionalen reibungsfreien Strömungen wird die Bernoulli-Gleichung und die Energiebilanz hergeleitet. Mit der Eulerschen Betrachtungsweise wird der Unterschied zwischen stationären und zeitabhängigen Strömungen verdeutlicht und an zahlreichen Beispielen angewandt. Die zweidimensionalen reibungsfreien und inkompressiblen Strömungen werden mit der Potenzialtheorie behandelt. Die Lösungseigenschaften werden am Beispiel der Zylinderumströmung ohne und mit Zirkulation aufgezeigt.
Die Navier-Stokes Gleichungen bilden mit der Energiegleichung die Basis zur Beschreibung reibungsbehafteter Strömungen. Kennzahlen bilden die Grundlage der Ähnlichkeitsbetrachtungen und Modellgesetze. Lösungen werden für laminare und turbulente Strömungen ermittelt. Der Impulssatz dient zur Berechnung von Kraftwirkungen. Druckverluste bei Durchströmungen und Strömungswiderstände bei Umströmungen werden an Beispielen ermittelt. Die Grenzschichttheorie findet bei hohen Reynoldszahlen Anwendung.
Die Eigenschaften von Fluiden sind zur Beschreibung von Strömungsvorgängen mit den Erhaltungssätzen für Masse, Impuls und Energie notwendig. Für inkompressible Fluide wird die Grenze der Dichteänderung in Abhängigkeit der Machzahl angegeben. Die Rheologie behandelt die Fließeigenschaften der Fluide bei Deformationen in Strömungen. Die Viskosität tritt beim newtonschen Schubspannungsansatz auf. Das Verhalten von Druck und Dichte in der Hydro- und Aerostatik wird beschrieben.
Die Kombination von Reibung und Kompressibilität wird bei der Rohrströmung, der Kugelumströmung und der laminaren und turbulenten Plattengrenzschicht untersucht. Das Auftreten von Verdichtungsstößen führt zur Stoß-Grenzschicht-Interferenz und auf den Tsien-Parameter. Die Mach-Reynoldszahl Ähnlichkeit in der Gasdynamik führt zur Abgrenzung der verschiedenen Strömungsbereiche. Resultate von Windkanaluntersuchungen sowie analytischen und numerischen Berechnungen werden für das Rhombusprofil und das NACA 0012 Profil analysiert.
Leuchtturmmarketing
(2019)
Vor dem Hintergrund wachsender Herausforderungen wird ein professionelles Marketing für Städte und Gemeinden immer wichtiger. Zentrales Ziel dabei ist es, die Attraktivität einer Stadt für die eigene Bevölkerung, Unternehmen und Touristen zu erhöhen. Im vorliegenden Beitrag sollen zunächst einige Rahmenbedingungen des Stadtmarketing skizziert werden. Im Mittelpunkt steht die Vorstellung eines Prozesses, der eine strukturierte Planung und Durchführung des Stadtmarketing ermöglicht.
Das Markenmanagement spielt für das Stadtmarketing eine immer wichtigere Rolle. Im vorliegenden Beitrag wird dabei zunächst auf die Bedeutung und die Besonderheiten des Markenmanagements für Städte eingegangen. Im Mittelpunkt des Beitrages steht ein kompakter Überblick über die zentralen Aspekte des Markenmanagements für Städte. Schließlich wird in einem Exkurs die Bedeutung von Global Cities im Zusammenhang mit dem Markenmanagement vorgestellt.
Städte und Gemeinden müssen sich heute den veränderten Informations- und Kommunikationsverhalten in der Gesellschaft anpassen und entsprechend den Kommunikationsmix erweitern beziehungsweise neu ausrichten. Dabei bieten insbesondere die Online-Kommunikationsmaßnahmen zahlreiche neue Möglichkeiten, zum Beispiel das Targeting. Der folgende Beitrag gibt zunächst einen Überblick über den Kommunikationsprozess und das Content-Marketing. Im Anschluss werden einige wichtige Kommunikationsinstrumente für das Stadtmarketing näher vorgestellt.
Für Verkehrsunternehmen stellt die Erprobung neuer Technologien eine große Herausforderung dar.
Sowohl Wasserstoff-Busse als auch Batterie-Busse können ihren Beitrag zur Umstellung des ÖPNV auf emissionsfreie Mobilität leisten. Je nach Anwendungsmuster können sich beide Technologien gut ergänzen und zu einem volkswirtschaftlichen Optimum führen. Es gilt, die Technologien im realen Umfeld zu erproben, um praxisnahe Erfahrung zu sammeln und dabei Mitarbeiter auszubilden, ohne die Qualität des Betriebes zu gefährden. Bei der aktuellen Kostenlage sehen beide Technologien ihre Einführung in den Betrieb mit Mehrkosten im Vergleich zu der aktuellen Diesel-Lösung verbunden.
Bei einer Batterie-basierten Lösung mit Pantograph-Schnellladung sind kürzere Linien gute Kandidaten für eine elektrische Umstellung ohne Auswirkungen auf die Größe der Busflotte. Auch Liniensysteme beliebiger Länge mit Knotenpunkten in regelmäßigen Abständen ermöglichen eine gemeinsame Nutzung der Ladeinfrastruktur und stellen somit reduzierte Aufbaukosten der Ladeinfrastruktur in Aussicht. In diesem Fall sind aber auch Fahrplanmanagement-Aspekte hinsichtlich der Ladezeit am Pantograph mit zu berücksichtigen, die nicht Bestandteil dieser Studie gewesen sind. Allgemein lassen die Kosten-Prognosen für Batterie und Batterie-elektrische Fahrzeuge eine signifikante Kostenreduzierung bis 2030 erkennen, die in manchen Konfigurationen zur Kostenparität und sogar geringeren Kosten als mit der Diesel-Variante führen würde.
Anders als für Batterie-Busse stellt die Linien-Konfiguration keinen wirtschaftlichen Einflussfaktor auf den Betrieb von Wasserstoff-Bussen dar. Die derzeitige Reichweite der H2-Busse reicht aus, um die zu erwartende tägliche Fahrleistung zu decken. Bei der Wasserstoffmobilität sind aber die Versorgungsinfrastruktur und die damit verbundenen Kraftstoffkosten von entscheidender Bedeutung. Ihr Aufbau ist mit hohen Investitionskosten und gesetzlichen Verpflichtungen verbunden (BImSchG, BetrSichV), die für eine erste Erprobung der Technologie im kleinen Maßstab eine Hürde für Verkehrsunternehmen darstellen könnte. Die H2 Mobility Deutschland bietet die Möglichkeit an, 700 bar Tankstellen mit einem 350 bar Modul zu erweitern, das die tägliche Versorgung von ca. 6 Bussen ermöglicht. Mit begrenzten Risiken für die Verkehrsunternehmen bietet es sich daher an, die H2 Mobilität auf eine limitierte Busflotte zu erproben. Da der Aufbau des H2-Mobility Deutschland Tankstellennetzes eine Lücke in Offenburg und Umgebung aufweist, wäre es vorstellbar, an der Errichtung einer solchen Tankstelle zu arbeiten, die die Betankung und Erprobung von Wasserstoff-Bussen ermöglicht. Auf längerer Sicht ist die Sicherstellung einer gut platzierten zuverlässigen und nachhaltigen Wasserstoffquelle von entscheidender Bedeutung. Derzeit liegen vorhandene Wasserstoffquellen in mehr als 100 km Entfernung. Eine Nutzung der Wasserkraft des naheliegenden Rheins erscheint durchaus sinnvoll, sowohl aus wirtschaftlichen als auch aus umwelttechnischen Gründen (erneuerbarer Strom, Stromkostenreduzierung durch Eigenversorgung, kürzere Transportwege, möglicher Nutzen für die Eurometropole Straßburg).
Es lässt sich festhalten, dass für die Region Offenburg zunächst die Erprobung beider Technologien, der Elektromobilität als auch der Wasserstoffmobilität, empfohlen wird. Es sollte zeitnah in den Erfahrungsaufbau in beide Technologien investiert werden. Zudem sollte bei der Elektromobilität das Flottenmanagement untersucht und evaluiert werden und bei der Wasserstoffmobilität die Möglichkeiten der Kooperation für den Aufbau der Wasserstofftankstelle. Im Rahmen der nächsten Ausschreibungsrunde für den öffentlichen Nahverkehr in Offenburg wird empfohlen, diesen emissionsfrei auszuschreiben. Es ist absehbar, dass aus Kostengründen (Kostenparität der Elektromobilität mit der Dieselvariante) als auch aus Gründen der Anforderung bzgl. der Emissionsgrenzwerte der ÖPNV emissionsfrei umgesetzt werden sollte.
Energietechnik
(2019)
Kurz und prägant werden die Energieumwandlungsprozesse dargestellt. Die Schwerpunkte reichen von der kompletten Beschreibung der nachhaltigen, erneuerbaren Energietechniken, über Gas- und Dampfturbinen-Kraftwerke sowie Kraft-Wärme-Kälte-Kopplungsanlagen bis hin zur Energieverteilung und zum Kyoto-Protokoll. Zu allen Kapiteln gibt es Aufgaben mit vollständigen Lösungen im Anhang. In der aktuellen Auflage sind die Grundlagen der Energiewandlung deutlich um verfügbare Energiequellen, Energieträger und den globalen Energiebedarf erweitert. Das Kapitel 19 wurde von seinem neuen Autor grundlegend neu gefasst und heißt nun „Marktliberalisierung und Energiewende“. Alle Kapitel wurden aktualisiert und die Inhalte didaktisch noch verständlicher dargestellt.
Die Mittelbayerische Zeitung ist ein Verlagsbeispiel, das deutlich macht, wie mithilfe einer kontinuierlichen und systematischen Marktbearbeitung auch in stagnierenden Printmärkten eine Stabilisierung der Kundenstruktur möglich ist. Die Kombination mit digitalen Angeboten und die ebenfalls kombinierte Nutzung von unterschiedlichen, teilweise digitalen Kommunikations- und Absatzkanälen sind dabei zentrale Erfolgsfaktoren.
Numerische Physik
(2019)
Dieses Lehrbuch stellt die Numerische Physik anhand einer Vielzahl von Beispielen aus den Bereichen Mechanik, Elektrodynamik, Optik, Statistischer Physik und Quantenmechanik dar. Der Leser lernt hier nicht nur die wichtigsten numerischen Techniken in der Programmiersprache C++ kennen, sondern erhält auch neue Einblicke in die Physik, die konventionelle Zugänge nicht bieten. Das Werk schließt damit eine Lücke zwischen den Standardlehrbüchern der Theoretischen Physik und denen der reinen Programmierung.
Zu jedem der physikalischen Themen gibt es eine kurze Wiederholung des theoretischen Hintergrunds und anschließend werden ausgewählte Beispiele im Detail ausgearbeitet. Übungen am Ende des Kapitels bieten weitere Gelegenheit die Anwendungen des Gelernten zu vertiefen.
Das Buch richtet sich vornehmlich an Physikstudierende höherer Semester, die bereits über eine Basis in Theoretischer Physik verfügen und auch Grundkenntnisse in der Programmierung in C++ mitbringen.
Auf der Produktseite zum Buch auf springer.com finden sich alle Quelltexte zu den Programmen im Buchtext zum Download. Im Anhang erhalten Sie eine Zusammenstellung und Erläuterung frei verfügbarer Software, die sowohl dem Windows-Anwender als auch dem Linux-Freund alle Werkzeuge an die Hand gibt, die er zur Bearbeitung anspruchsvoller physikalischer Fragestellungen benötigt - von Compilern über numerische Bibliotheken bis hin zu Visualisierungstools.
Auf Grundlage der Computer-Aided-Design (CAD)-rekonstruierten ersten „Eisernen Hand“ des Götz von Berlichingen wird ein umgebautes, controllergesteuertes sensomotorisches Fingersystem auf seine Funktionalität beim Greifen von unterschiedlichen Gegenständen beschrieben und geprüft. Die elektronischen Finger, die den „Pinzettengriff“ nachahmen und automatisch bei dem zuvor eingestellten Anpressdruck abschalten, bewiesen eine bemerkenswerte Alltagstauglichkeit. Das vorgestellte Grundkonzept könnte eine Alternative bei der Entwicklung einfacher und kostengünstiger, aber dennoch gut einsatzfähiger bionischer Hände sein und zeigt einmal mehr, wie historische Ideen in die Gegenwart transferiert werden können.
Im Beitrag werden nach einer kurzen Einführung zu hochfesten Stählen und dem Schweißen von hochfesten Stählen die gültigen und zukünftigen Bemessungsregeln von Schweißverbindungen mit hochfesten Stählen behandelt und an Beispielen erläutert. Es werden die für den Schweißprozess wichtigen Material‐ und Gefügeeingeschaften und Herstellungsverfahren von höherfesten Stählen beschrieben und die sich daraus einstellenden Anforderungen während des Schweißvorgangs dargelegt. Anhand von Beispielen werden die derzeit gültigen Bemessungsregeln für Schweißverbindungen mit höherfesten Stählen erläutert und ein neues durch Versuche abgesichertes Bemessungsmodell für Kehlnähte vorgestellt, das es erlaubt, gezielt den wichtigen Einfluss des Schweißzusatzwerkstoffs zu erfassen. Abschließend werden die aus numerischen Schweißsimulationen gewonnenen Erkentnisse hinsichtlich Temperatur, Gefüge, Eigenspannungszustand und auch Tragverhalten einer Schweißnaht beschrieben und durch Beispiele veranschaulicht.
In diesem Beitrag werden grundlegende Aspekte und Methoden der Data Science erläutert. Nach dem Vorgehensmodell CRISP-DM sind in den Phasen Data Unterstanding und Data Preparation vor allem Verfahren der Datenselektion, Datenvorverarbeitung und der explorativen Datenanalyse anzuwenden. Beim Modeling, der Hauptaufgabe der Data Science, kann man überwachte und unüberwachte Methoden sowie Reinforcement Learning unterscheiden. Auf die Evaluation der Güte eines Modells anhand von Qualitätsmaßen wird anschließend eingegangen. Der Beitrag schließt mit einem Ausblick auf weitere Themen wie Cognitive Computing.
Machine Learning als Schlüsseltechnologie für Digitalisierung: Wie funktioniert maschinelles Lernen?
(2019)
Das vorliegende Buch richtet sich vorwiegend an Webentwickler und Webinteressierte. Zunächst wird ein Überblick über Digital Storytelling, seine Geschichte und die verschiedenen heutigen Ausprägungen gegeben. Dabei liegt der Fokus auf Digital Storytelling im Web auf Basis von Animation.
Besonders die Idee der scroll-activated animation als zeitgemäßes Konzept für das Storytelling wird in diesem Buch in den Mittelpunkt gestellt.
Als technische Möglichkeiten zur Umsetzung von Webanimationen werden CSS3, SVG und HTML5-Canvas vorgestellt und diese in der Folge detailliert beschrieben.
Im Rahmen eines umfangreich dokumentierten Demoprojekts wird intensiv auf die Konzeption einer scroll-actived animation basierten Website und deren technische Umsetzung mittels HTML5, CSS3, JavaScript/jQuery und ScrollMagic sowie die damit verbundenen Herausforderungen eingegangen. Dies erlaubt dem Leser das detaillierte Nachvollziehen der Erstellung und die davon abgeleitete Entwicklung eigener Projekte.
Der Inhalt des Buches
- Definition, Entwicklung und psychologische Wirkungsweisen
- Medienformen
- Digital Storytelling
- Animationen im Web
- Technische Umsetzung
Die Zielgruppen des Buches
- Konzepter
- Webentwickler
- Mediengestalter
- Studenten, Azubis
- Webinteressierte
O'Barro - Cocktails 4.0
(2019)
Das Ziel der Arbeit ist es, die Wirkung von datenschutzbezogenen Gütesiegeln auf das Vertrauen, die Teilnahmebereitschaft und die freiwillige Datenbekanntgabe in Webbefragungen zu untersuchen. Hierbei soll der unternehmerische Nutzen im Kontext der deutschen Markt-, Medien- und Sozialforschung transparent gemacht werden. Da sich an diesem Markt überwiegend kleine und mittlere Forschungseinrichtungen befinden, werden die wirtschaftlichen Belange dieser Unternehmen besonders berücksichtigt. Insgesamt beschäftigt sich die Arbeit durch den besonderen Branchenbezug zur deutschen Markt-, Medien- und Sozialforschung mit einem neuartigen Forschungsfeld. Vor diesem Hintergrund werden die konzeptionellen und theoretischen Grundlagen, die zum Einsatz von Gütesiegeln im E-Commerce vorliegen, in einem neuen Licht betrachtet. Dabei liegt die Besonderheit der Arbeit darin, dass sie sich mit der freiwilligen Bekanntgabe von persönlichen Daten auf der Basis von intrinsisch motivierten Faktoren befasst.
Die Wörz´sche Heuristik
(2019)
Gesellschaftliche, wirtschaftliche und technologische Umbrüche stellen das klassische Governance-Verständnis heute auf den Prüfstand. Sowohl organisationsintern als auch in den Beziehungen zu den Stakeholdern und der Umwelt zeigt sich immer mehr, dass Unternehmenssteuerung nur noch begrenzt möglich ist.
Wie der Spagat gelingt, im Unternehmen für ein stabilisierendes Mindestmaß an Orientierung zu sorgen, aber auch unter hoher Marktdynamik flexibel zu bleiben, beleuchtet Sybille Schwarz aus verschiedenen Blickwinkeln. Diese verknüpft sie zu einer multiperspektivischen Governance-Betrachtung.
• Die managementorientierte Perspektive: zu normativen, strategischen und unternehmenskulturellen Gestaltungsmöglichkeiten
• Die ökonomische Perspektive: zu Verhaltensmustern unter komplexen Markt- und Wettbewerbsbedingungen
• Die gesellschaftliche Perspektive: zu Veränderungen durch die Digitalisierung oder Fragen der Nachhaltigkeit
Eine Einladung zum Perspektivwechsel für Aufsichtsräte und Entscheidungsträger, um Chancen und Risiken eingesetzter Governance-Strukturen organisationsgerecht zu beurteilen.
Verfahren zur Bestimmung von Eigenschaften einer Rohrleitung, insbesondere der Position eines Abzweigs einer Abwasserrohrleitung,(a) bei dem ein Schallwellensendesignal (S, S') an einem vorgegebenen Einspeisepunkt in die Rohrleitung (1) eingespeist wird und sich in axialer Richtung der Rohrleitung (1) ausbreitet,(b) wobei das Frequenzspektrum des Schallwellensendesignals (S, S') eine Frequenzkomponente oder einen Spektralbereich aufweist, dessen maximale Frequenz kleiner ist als die untere Grenzfrequenz (f) für die erste Obermode,(c) bei dem innerhalb der Rohrleitung (1) reflektierte Anteile (S, S, S, S', S', S') des Schallwellensendesignals (S, S') als Schallwellenempfangssignal (E, E') detektiert werden, und(d) bei dem die Rohrleitung (1) durch eine Auswertung des Schallwellenempfangssignal (E, E') in Bezug auf das Schallwellensendesignal (S, S') hinsichtlich des Vorhandenseins von Schallwellenreflexionen (S, S, S, S', S', S') verursachenden Reflexionsorten entlang der Rohrleitung (1) untersucht wird,(e) wobei mittels der Auswertung des Schallwellenempfangssignals (E, E') zumindest jeweils der Abstand (I) eines Reflexionsortes von dem Einspeisepunkt bestimmt wird, dadurch gekennzeichnet,(f) dass die Schallgeschwindigkeit (c) der Grundmode bei der aktuellen Temperatur innerhalb der Rohrleitung (1) unter Verwendung eines Schallwellenmesssignals ermittelt wird, welches eine Frequenz oder ein Frequenzspektrum aufweist, bei dem das Schallwellenmesssignal innerhalb der Rohrleitung (1) mit ausreichender Genauigkeit als ebene Schallwelle behandelt werden kann, wobei hierzu die Laufzeiten des Schallwellenmesssignals über eine vorbekannte Strecke (L) in beiden Richtungen gemessen wird,(g) dass die so ermittelte Schallgeschwindigkeit (c) einer ebenen Schallwelle gleich der tatsächlichen Schallgeschwindigkeit der Grundmode bei der aktuellen Temperatur innerhalb der Rohrleitung (1) gesetzt wird, und(h) dass die so bestimmte Schallgeschwindigkeit zur Bestimmung des Abstand (I) eines Reflexionsortes von dem Einspeisepunkt verwendet wird.
Die erste Auflage von "Ausführung von Stahlbauten" wurde – trotz ihres erheblichen Umfangs – zu einem sehr beliebten Nachschlagewerk und unverzichtbaren Praxishelfer in vielen Bereichen des Stahlbaus. Nachdem die Normen, auf die sich die erste Auflage bezieht, grundlegend überarbeitet wurden, entstand mit dem hier vorliegenden Buch auch eine aktualisierte Nachfolgeausgabe der Kommentare. Das Werk profitiert davon, dass es von den im Normungsausschuss federführenden Spezialisten ausgearbeitet wurde: Die Autoren liefern also zuverlässig die korrekten Interpretationen der Normentexte. Damit ist auch diese zweite Auflage von "Ausführung von Stahlbauten" eine gute Wahl, um mit den Normen DIN EN 1090-2 und DIN EN 1090-4 sicher und professionell arbeiten zu können. Da sich die Norm DIN EN 1090-1 aktuell in Überarbeitung befindet, ist diese nicht Teil der zweiten Auflage der Stahlbauten-Kommentare.
Blockchain frameworks enable the immutable storage of data. A still open practical question is the so called "oracle" problem, i.e. the way how real world data is actually transferred into and out of a blockchain while preserving its integrity. We present a case study that demonstrates how to use an existing industrial strength secure element for cryptographic software protection (Wibu CmDongle / the "dongle") to function as such a hardware-based oracle for the Hyperledger blockchain framework. Our scenario is that of a dentist having leased a 3D printer. This printer is initially supplied with an amount of x printing units. With each print action the local unit counter on the attached dongle is decreased and in parallel a unit counter is maintained in the Hyperledger-based blockchain. Once a threshold is met, the printer will stop working (by means of the cryptographically protected invocation of the local print method). The blockchain is configured in such a way that chaincode is executed to increase the units again automatically (and essentially trigger any payment processes). Once this has happened, the new unit counter value will be passed from the blockchain to the local dongle and thus allow for further execution of print jobs.
Internationale Projektarbeit
(2019)
Die Einführung von Projektmanagementstandards kostet nachweislich Zeit und Geld, bringt vorübergehende Unruhe in die Organisation und ist nicht selten durch eine lästige Kundenforderung initiiert. Durch die Beschränkung der Sichtweise auf diese Aspekte wird das Thema häufig als unangenehm empfunden. Wir möchten die Implementierung von PM-Standards aber als lohnende Investition vorstellen, Potenziale, Chancen und Synergien aufzeigen und eine solide Basis für zahlreiche Organisations- und Verbesserungsprojekte zur Einführung von PM-Standards schaffen.
Thermisch angetriebene (Adsorptions-)Kältemaschinen können mit einem verhältnismäßig geringen elektrischen Energieaufwand bzw. mit einer hohen elektrischen Leistungszahl Kälte bereitstel-len. Wird die zum Antrieb erforderliche Wärme aus industrieller Abwärme bereitgestellt, ist diese Kältebereitstellung energetisch effizienter als die Kältebereitstellung über eine Kompressionskäl-temaschine. Wird die Wärme jedoch in Kraft-Wärme-Kopplung bereitgestellt, ist die primärenergetische Bewertung sowohl von mehreren Teilwirkungsgraden als auch den Primärenergiefaktoren für den eingesetzten Brennstoff und die erzeugte bzw. bezogene elektrische Energie abhängig. Eine umfangreiche Messkampagne im Sommer 2018 liefert unter realitätsnahen Randbedingungen in einer Labor umgebung detaillierte Energiekennzahlen für einen typischen Tagesgang des Kältebedarfs. Damit gelingt es, Teilenergiekennwerte für die Planungspraxis abzuleiten und das Gesamtsystem energetisch mit einer konventionellen Kompressionskältemaschine zu vergleichen.
Hatte Maria einen Jodmangel?
(2019)
Auch wenn sie im Internet-Zeitalter zu einer Normalität werden, bleiben Ferndiagnosen unter Medizinern umstritten. Erst recht vorsichtig sollte man sein, wenn es sich bei dem Patienten um die leibliche Mutter Gottes handelt. Doch wenn man in diesem Gemälde eine authentische Dokumentation sieht, ist der Befund eindeutig: Maria hatte zum Zeitpunkt der Geburt ihres berühmten Sohns auffällig lange und schlanke Finger sowie eine Struma des Grads II bis III.
Elektrische Antriebe sind ein innovationstreibender Kernbestandteil vieler industrieller Anlagen und Einrichtungen. Damit sie diese herausragende Rolle mit den daran geknüpften Erwartungen erfüllen können, ist neben optimierten Elektromotoren und sie speisenden, schnell schaltenden Stromrichterstellgliedern auch eine hochdynamische Regelung erforderlich. Diesem Umstand wird mit der angebotenen Veranstaltung in Form einer detaillierten Einführung in die Thematik der Regelung elektrischer Antriebe Rechnung getragen.
Im Beitrag wird für lineare, zeitinvariante, zeitdiskrete und stabile Regelstrecken beschrieben, wie zwei bekannte Zustandsraumverfahren zur Windup-Vermeidung so miteinander kombiniert werden können, dass dadurch für sämtliche PI-Zustandsregler Strecken- und Regler-Windup verhindert wird, sofern diese Regler im unbegrenzten Fall stabil sind. Zurückgegriffen wird hierbei auf das „Additional Dynamic Element“ (ADE) von Hippe zur Vermeidung von Strecken-Windup [Hippe, P.: Windup in control – Its effects and their prevention, 2006; at – Automatisierungstechnik, 2007], dessen Übertragung auf zeitdiskrete Systeme im Beitrag kurz skizziert wird, sowie auf das Verfahren der Führungsgrößenkorrektur [Nuß, U.: at – Automatisierungstechnik, 2017] zur Vermeidung von Regler-Windup. Das vorgestellte Kombinationsverfahren setzt für die jeweilige Regelstrecke lediglich die Einbeziehung eines bereits existierenden P-Zustandsreglers voraus, der Strecken-Windup vermeidet. Die Bereitstellung eines möglichst einfachen und dennoch nicht allzu einschränkenden Kriteriums zur Überprüfung, ob ein P-Zustandsregler diese Eigenschaft besitzt, ist ebenfalls ein Anliegen des Beitrags. Diesbezüglich wird auf der Basis einer geeigneten Ljapunow-Funktion ein hinreichendes Kriterium angegeben, das umfassender ist als das in [Nuß, U.: at – Automatisierungstechnik, 2017] verwendete. Ein Beispiel aus der elektrischen Antriebstechnik demonstriert die Leistungsfähigkeit der vorgestellten Methode.
Bei der Auslegung von geschraubten Stirnplattenstößen mit elastomerer Trennschicht dürfen gemäß Eurocode 3 lediglich die Flansche für eine Übertragung der Schnittgrößen berücksichtigt werden. Unsere Untersuchungen zeigen, dass auch die Stege für eine Bemessung herangezogen werden sollten. Sie tragen zu einer gleichmäßigeren Spannungsverteilung im Elastomerlager bei und erlauben somit höhere Belastungen bei gleichbleibenden Abmessungen.
Basis der FE-Analysen sind ein- und zweiachsige Zug- und Druckversuche, die das komplexe Materialverhalten der elastomeren Trennschicht erfassen. Die Übereinstimmung von Messung und Simulation ist sehr gut, was insbesondere auf das verwendete Materialgesetz zurückzuführen ist: ein nicht-linear viskoelastischer Ansatz in Kombination mit dem hyperelastischen Marlow-Modell.
Es hat sich herausgestellt, dass der Reibungskoeffizient und die Querkontraktionszahl des Elastomerlagers maßgeblich das Tragverhalten der geschraubten Stirnplattenstöße beeinflussen.
Mathematik 2 Beweisaufgaben
(2019)
Der zweite Band der Beweisaufgabensammlung richtet sich an angehende Ingenieure und Naturwissenschaftler, die die im Rahmen einer Mathematik 2-Vorlesung behandelten Formeln nicht nur anwenden, sondern selbst herleiten wollen. Bei der Zusammenstellung des Inhalts wurde großer Wert auf Vollständigkeit gelegt, weshalb sich die Beweise hinsichtlich Umfang und Schwierigkeitsgrad mitunter sehr deutlich voneinander unterscheiden. Um die Herleitung der auf Lern- und Klausur-Formelsammlung aufgeteilten mathematischen Gleichungen und Regeln zu erleichtern, wird eine Dreiteilung der Beweise in Aufgabe, Lösungshinweis und Lösung vorgenommen. Umfangreichere Herleitungen sind in Teilaufgaben zerlegt und anspruchsvollere Beweise durch Sternchen bzw. durch Sterne kenntlich gemacht.
Hintergrund: Die Pulmonalvenenisolation (PVI) mit Hilfe von Kryoballonkathetern ist eine anerkannte Methode zur Behandlung von Vorhofflimmern (AF). Diese Methode bietet eine kürzere Behandlungsdauer als die klassische Therapie durch die Hochfrequenzablation (HF). Ziel dieser Studie war es, verschiedene Kryoballonkatheter, HF-Katheter und Ösophaguskatheter in ein Herzrhythmusmodell zu integrieren und mittels statischer und dynamischer Simulation elektrische und thermische Felder bei PVI unter Vorhofflimmern zu untersuchen.
Methodik: Die Modellierung und Simulation erfolgte mit der elektromagnetischen und thermischen Simulationssoftware CST (CST Darmstadt). Zwei Kryoballons, ein HF-Ablationskatheter und ein Ösophaguskatheter wurden auf der Grundlage der technischen Handbücher der Hersteller Medtronic und Osypka modelliert. Der 23 mm Kryoballon und ein kreisförmiger Mappingkatheter wurden in das Offenburger Herzrhythmusmodell integriert, insbesondere die left inferior pulmonary vein (LIPV) zur Simulation der thermischen Feldausbreitung während einer PVI. Die Simulation einer PVI mit HF-Energie wurde mit dem integrierten HF-Ablationskatheter in der Nähe der LIPV durchgeführt. Der im Herzrhythmusmodell platzierte TO8 Ösophaguskatheter ermöglichte die Ableitung linksatrialer elektrischer Felder bei AF und die Analyse thermischer Felder während PVI.
Ergebnisse: Elektrische Felder konnten bei Sinusrhythmus und AF mit einem AF-Fokus in der LIVP statisch und dynamisch im Herzen und Ösophagus simuliert werden. Bei einer simulierten 20 Sekunden Applikation eines Kryoballon-Katheters bei -50°C wurde eine Temperatur von -24°C in einer Tiefe von 0,5 mm im Myokard gemessen. In einer Tiefe von 1 mm betrug die Temperatur -3°C, bei 2 mm Tiefe 18°C und bei 3 mm Tiefe 29°C. Unter der 15 sekündigen Anwendung eines HF-Katheters mit einer 8-mm-Elektrode und einer Leistung von 5 W bei 420 kHz betrug die Temperatur an der Spitze der Elektrode 110°C. In einer Tiefe von 0,5 mm im Myokard betrug die Temperatur 75°C, in einer Tiefe von 1 mm 58°C, in einer Tiefe von 2 mm 45°C und in einer Tiefe von 3 mm 38°C. Im Ösophagus konnte bei den meisten Simulationen eine konstante Temperatur von 37°C gemessen und die Gefahr einer Ösophagus-Fistel ausgeschlossen werden. Bei Kryoablation der LIPV wurde eine Abkühlung des Ösophagus auf 30°C gemessen.
Schlussfolgerungen: Die Herzrhythmussimulation elektrischer und thermaler Felder ermöglichen mit Anwendung unterschiedlicher Herzkatheter eine statische und dynamische Simulation von PVI durch Kryoablation, HF-Ablation und Temperaturanalyse im Ösophagus. Unter Einbeziehung von MRT- oder CT-Daten können elektrische und thermale Simulationen möglicherweise zur Optimierung von PVIs genutzt werden.
Die Pulmonalvenenisolation (PVI) mithilfe von Kryoballonkathetern ist eine anerkannte Methode zur Behandlung von Vorhofflimmern (AF). Diese Methode bietet eine kürzere Behandlungsdauer als die klassische Therapie durch die Hochfrequenz- (HF) Ablation. Ziel dieser Studie war es, verschie-dene Kryoballonkatheter, HF-Ablationskatheter und Ösophaguskatheter in ein Herzrhythmusmodell zu integrieren und mit statischer und dynamischer Simulation elektrische und thermische Felder bei PVI unter Vorhofflimmern zu untersuchen.
Kleinstlebewesen vorgestellt, das Vitalparameter erfasst und diese in einem FRAM-Speicher bis zum Auslesen abspeichert. Durch eine drahtlose RFID-/NFC-Ausleseschnittstelle kann die erfasste Körpertemperatur und der Puls der letzten Wochen ausgelesen werden. Alle Einstellungen des Messsystems können durch einen geeigneten RFID-Reader für Laptops oder durch Smartphones über die NFC-Schnittstelle geändert werden. Das vollständige Aufladen des nur 3 g leichten und 15 mm x 25 mm großen Messsystems erfolgt durch eine selbstgedruckte RFID-Reader-Antenne in Verbindung mit einem RFID-Reader und benötigt hierzu weniger als 21 Stunden. Bei vollständig aufgeladenem Energiespeicher ist ein Betrieb von 47 Tagen möglich. Dies wird durch ein speziell für das Messsystem konzipiertes Lade- und Powermanagement erreicht. Neben der Auswahl von energiesparenden Komponenten für die Hardware und deren bestmöglichen Nutzung, wurde die Software so optimiert, dass das Programm schnell und stromsparend abgearbeitet wird. Die Erweiterbarkeit und Anpassung wird durch das modulare Konzept auch in anderen Bereichen gewährleistet.
In thermomechanisch hochbelasteten Bauteilen begrenzt das Wachstum von Ermüdungsrissen die Bauteillebensdauer. Es kommen Lebensdauermodelle und Finite-Elemente Simulationen zum Einsatz, um ein vorzeitiges Bauteilversagen zu verhindern. Hierbei werden im Allgemeinen deterministische Werkstoffeigenschaften unterstellt, sodass die Information über die im realen Werkstoff auftretenden Streuungen verloren geht, was eine Unsicherheit im Auslegungsprozess mit sich bringt. In der vorliegenden Ausarbeitung werden Methoden zur adäquaten Bestimmung der Werkstoffkennwerte und zur Beschreibung ihrer Streuung durch statistische Verteilungen entwickelt. Einen wesentlichen Aspekt der Arbeit stellt die Bestimmung von objektiven Werkstoffkennwerten dar, zu deren Zweck ein Robustheitskriterium eingeführt wird. Anhand zahlreicher Versuchsdatensätze der Nickelbasislegierung MARM247 und des niobstabilisierten austenitischen Stahls X6 CrNiNb 18-10 kann diese Methodik ausgearbeitet werden und führt auf ein probabilistisches Lebensdauermodell, dass die Abschätzung des Einfluusses von statistisch verteilten Werkstoffkennwerten auf die Ermüdungslebensdauer erlaubt. Als Ergebnis einer Monte-Carlo Simulation zeigt sich, dass im Vergleich von deterministischer zu probabilistischer Lebensdauerbewertung eine probabilistische Auswertung bei beiden untersuchten Werkstoffen zu einem um circa Faktor zwei größeren Streuband in der Lebensdauer führt. In einem Bauteilkonzept wird die anhand der Versuchsdaten erarbeitete Methodik erweitert, sodass eine Abschätzung des Ein usses von streuenden Werkstoffeigenschaften auf Bauteilebene durch Finite-Elemente Simulationen möglich wird. Es kommt das Two-Layer-Viscoplasticity Modell zum Einsatz. Um die Streuung seiner Werkstoffkennwerte ermitteln zu können, reicht die vorliegende Datenbasis nicht aus, sodass Annahmen zu den Werkstoffkennwerten getroffen werden müssen.
Smart Home-/Smart-Building-Anwendungen sind ein stetig wachsender Markt. Smart Gardening ist ein Beispiel dafür, Nutzern mehr Komfort und eine bessere Lebensqualität zu Hause oder in Bürogebäuden zu ermöglichen. Im Rahmen dieses Beitrags wird die Entwicklung eines Indoor-Smart-Gardening-Systems mit dem Fokus auf energieautarkes Arbeiten vorgestellt. Herzstück des Systems ist ein 3D-gedruckter Blumentopf für einzelne Pflanzen mit integrierter Elektronik zum Monitoring der wichtigsten Pflanzenparameter und einem integrierten Wasserreservoir mit Tauchpumpe für das automatisierte Bewässern der Pflanze. Energy Harvesting per Solarzellen ermöglicht ein energieautarkes Arbeiten des Blumentopfes. Eine selbstentwickelte Low-Power-Funkschnittstelle im Blumentopf und ein externes Gateway ermöglichen die drahtlose Vernetzung mehrerer Pflanzen. Das Gateway dient zur Auswertung der Pflanzenparameter, der Ansteuerung der im Netzwerk vorhandenen Blumentöpfe und als Benutzerinterface.
In den letzten Jahren sind verstärkt große Batteriespeichersysteme in der Mittel- und Hochspannungsebene in Deutschland installiert worden. Neben dem Einsatz für lokale Anwendungszwecke wie Eigenverbrauchsmaximierung oder Lastspitzenkappung sind seit 2016 etwa 250 MW aus Batteriespeichern für die Teilnahme am Markt für Primärregelleistung (PRL) präqualifiziert worden. Damit können bereits 40 % des aktuellen Bedarfs der deutschen Übertragungsnetzbetreiber (ÜNB) gedeckt werden. Für einen zuverlässigen Betrieb von Batteriespeichern sind intelligente Betriebsstrategien erforderlich, die im Rahmen dieser Analyse vorgestellt werden.
Die öffentliche Diskussion über den Einsatz digitaler Medien in Schule und Unterricht verkennt die zugrundeliegenden Interessen. Seit über 30 Jahren wird jede neue Generation von Digitaltechnik in die Schulen gedrückt. 1984 waren es Personal Computer (PC), in den 1990er Jahren Laptops, aktuell sind es WLAN, Tablets und Smartphones. Die Argumente sind identisch: Angeblich sorgen die Geräte für moderneren, innovativeren Unterricht, höhere Motivation der Schüler/innen, bessere Lernergebnisse. Wissenschaftlich valide Studien belegen das Gegenteil. Der pädagogische Nutzen war und ist bis heute negativ. PISA-Koordinator Andreas Schleicher: „Wir müssen es als Realität betrachten, dass Technologie in unseren Schulen mehr schadet als nützt.“ (Schleicher, 2016) Der Aktionsrat Bildung bestätigt in einer Studie für die Vereinigung der Bayerischer Wirtschaft (vbw) „statistisch signifikant niedrigere Kompetenzen in den Domänen Mathematik und Naturwissenschaften“, wenn Grundschülerinnen und Grundschüler im Unterricht mindestens einmal wöchentlich Computer einsetzen im Vergleich zu Grundschulkindern, die seltener als einmal pro Woche Computer im Unterricht nutzten - und fordert trotzdem, die Schulen müssten schneller digitalisiert werden.
Es geht offensichtlich um Anderes. Es sind wirtschaftliche Interessen der IT-Wirtschaft und der Global Education Industries (GEI), die die Bildungsmärkte nach angelsächsischem Vorbild privatisieren und kommerzialisieren wollen. Es sind zugleich die Geschäftsmodelle der Daten-Ökonomie, die alle Lebensbereiche verdaten und Menschen per Algorithmus und kybernetischen Modellen steuern wollen – wie in den 1950er Jahren (Behaviorismus, programmiertes Lernen). Die Digitalisierung ist „nur“ die technische Infrastruktur zur Datenerhebung, die empirische Bildungsforschung das Instrumentarium zur Quantifizierung auch des Sozialen (Mau, 2018). Nach Arbeitsmarkt und Kommunikation stehen derzeit Bildung und Gesundheit auf der Agenda der Digitalisten. Das Problem: Werden soziale Systeme nach der binären Logik der IT umgebaut, verlieren sie alles Soziale. Daher ist die vordringliche Aufgabe der Pädagogik, die derzeit dominierenden Denkstrukturen von BWL und IT, Empirie, Kennzahlenfixierung und behavioristischen Lerntheorien als dysfunktionalen und a-sozialen Irrweg zu kennzeichnen und stattdessen Schule und Unterricht wieder vom Menschen und seinen Lernprozessen her zu denken.
Die Digitalisierung aller Lebensbereiche ist kein Technik-, sondern ein Systemwechsel. Alles, was wir im Netz tun, wird verdatet; idealiter prenatal bis postmortal. Dieser Datenpool wird mit immer ausgefeilteren Algorithmen des Big Data Mining analysiert und mit Methoden der Empirie, Statistik und Mustererkennung ausgewertet. Der Mensch wird zum Datensatz. Je früher Menschen psychometrisch vermessen werden können, desto exaktere Persönlichkeits-, Lern- und Leistungsprofile entstehen – und umso leichter ist die Einflussnahme. Das ist der Grund für die Forderung nach Digitaltechnik in KiTas und Grundschulen. Menschen werden daran gewöhnt zu tun, was Maschinen ihnen sagen. Das ist Gegenaufklärung aus dem Silicon Valley per App und Web. Wie Alternativen aussehen können, zeigt dieser Beitrag.
Controlling ist ein Begriff aus der Wirtschaftslehre und bezeichnet nicht Kontrollle, sondern Prozeßsteuerung. Definierte Ziele werden durch kleinteilige Messungen und permanente Überwachung aller Arbeitsschritte und Handlungen der beteiligten Personen protokolliert und stetig optimiert. Dieses Konzept der Planungs-, Koordinations- und Kontrollaufgaben wird beim „Bildungs-Controlling“ auf Schulen und Hochschulen übertragen. Ziel ist dabei, entsprechend der Gary Beckerschen Humankapitaltheorie, die Produktion von Humankapital mit validierten Kompetenzen. Zwei Probleme gibt es dabei: Lernen und vor allem Verstehen lassen sich nicht automatisieren und auch nicht automatisiert prüfen. Und: Sozialsysteme unter dem Regime der Kennzahlen des Quality Management (QM) oder Total Quality Management (TQM) verlieren ihre Eigenschaft als soziale Systeme
Wer sich als Pädagoge und Wissenschaftler mit dem Thema „Digitalisierung und Schule“ befasst, stellt fest, dass nur Wenige die Tragweite der beabsichtigten Transformation von Bildungseinrichtungen zu automatisierten, algorithmisch gesteuerten Lernfabriken realisieren. Dabei wird übersehen, dass mit Theorien und empirischen Modellen wie der „datengestützten Schulentwicklung“ und „Learning Analytics“ grundlegende Paradigmenwechsel verbunden sind, die das humane wie das christliche Menschenbild erschüttern. Mit Kybernetik und Behaviorismus auf der einen, mit der sogenannten „Künstlichen Intelligenz“ (KI) und darauf aufbauenden Geschäftsmodellen der Datenökonomie auf der anderen Seite, untergraben diese Beschulungsmodelle die Autonomie, das Selbstbestimmungsrecht und die Handlungsfreiheit des Menschen. Vertreter dieser Disziplinen behaupten, dass sowohl der einzelne Mensch wie Sozialgemeinschaften wie Maschinen programmiert und gesteuert werden können. Sie blenden aus, dass Mündigkeit und Selbstverantwortung das Ziel von Schule und Unterricht sind, nicht maschinell berechnete Verhaltenssteuerung und -manipulation. Diese Fehlentwicklungen sind nicht der Technik an sich geschuldet, die sich anders einsetzen ließe, sondern den Geschäftsmodellen der IT-Anbieter.