Refine
Year of publication
- 2020 (125) (remove)
Document Type
- Part of a Book (26)
- Article (unreviewed) (25)
- Contribution to a Periodical (17)
- Book (11)
- Other (10)
- Article (reviewed) (7)
- Conference Proceeding (7)
- Report (7)
- Working Paper (7)
- Patent (4)
Conference Type
- Konferenzartikel (6)
- Konferenz-Poster (1)
Language
- German (125) (remove)
Is part of the Bibliography
- yes (125) (remove)
Keywords
- Bildungsmanagement (5)
- Projektmanagement (5)
- COVID-19 (4)
- Künstliche Intelligenz (4)
- Corona (3)
- Datenmanagement (3)
- Kundendaten (3)
- Marketing (3)
- Windenergie (3)
- Ablation (2)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (55)
- Fakultät Wirtschaft (W) (36)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (23)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (10)
- INES - Institut für nachhaltige Energiesysteme (4)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (4)
- Rektorat/Verwaltung (3)
- IfTI - Institute for Trade and Innovation (2)
- ACI - Affective and Cognitive Institute (1)
- CRT - Campus Research & Transfer (1)
Open Access
- Closed Access (64)
- Open Access (45)
- Bronze (5)
Jahresbericht 2020
(2020)
Vulnerabilitätsanalyse "Hitzestress und menschliche Gesundheit" am Beispiel der Stadt Reutlingen
(2020)
In diesem Modellprojekt wird das Schutzgut "Menschliche Gesundheit" insbesondere unter dem Gesichtspunkt der im Rahmen des globalen Klimawandels zu erwartenden Überhitzung der Städte ("städtische Hitzeinseln") betrachtet.
In der Großstadt Reutlingen ("Tor zur Schwäbischen Alb/112.500 EW) mit ihrer Pfortenlage am Rande der Schwäbischen Alb und der Höhenlage (400-800 m) sowie der Bebauungsdichte werden bis 2050 bzw. 2100 (Strategie zur Anpassung an den Klimawandel Baden-Württemberg - Vulnerabilitäten und Klimaanpassungsmaßnahmen, 2015) die massivsten Auswirkungen bezüglich Aufenthaltsbehaglichkeit und Gesundheitsfolgen in Reutlingen erwartet.
Der Untersuchungsschwerpunkt liegt im Wirkungsbereich Mensch-Siedlung, d.h. in der Betrachtung von empfindlichen Bevölkerungspopulationen (z.B. ältere Menschen) und hitzeempfindlichen Nutzungsstrukturen (z.B. verdichteten städtischen Siedlungsflächen). Insbesondere die bereits in der abgeschlossenen Gesamtstädtischen Klimaanalyse ermittelten überwärmten Areale ("hot spots") und die im Rahmen des Klimawandels für 2020-2050 zukünftig zu erwartende Hitzestressbelastung bei empfindlichen Bevölkerungsgruppen in Stadtquartieren und Funktionsbauten, stehen im Zenit der Untersuchung.
Dabei wird über das Kriterium Empfindlichkeit (Basis sind z.B. quartierbezogene Datenstrukturen von Älteren, Einrichtungen wie Krankenhäuser, Kinderpflegeeinrichtungen, Alten- Behinderten- und Pflegeheime) die zukünftige Hitzestress-Belastung für Reutlingen erarbeitet. Weiteres wichtiges Kriterium ist die Betroffenheit nach Standortsituation (Höhenlage, Durchlüftungsverhältnisse, Bioklima/PMV = Maß für die bioklimatische Behaglichkeit) und die Anzahl hitzestressgeplagter Menschen (Kinder, Kranke, Ältere). Insbesondere für das Szenarium 2020 bis 2050 (s. Strategie zur Anpassung an den Klimawandel Baden-Württemberg - Vulnerabilitäten und Klimaanpassungsmaßnahmen, 2015) werden objekt- bzw. einrichtungsbezogen (z.B. Altenpflegeeinrichtungen) sowie quartiersspezifisch (Stadtstrukturtypen) die Auswirkungen bzw. Verwundbarkeiten erarbeitet. Dieser objektspezifische (bauklimatische) Ansatz, die innovative Indikatorenbildung zur situativen kommunalen Anwendbarkeit auch über Reutlingen hinaus sowie der partizipative Ansatz mit Nichtregierungsorganisationen (NGO´s) begründet den Modellcharakter ("Reutlinger Modell") dieser Untersuchung. Das Modellprojekt bildet das zweite Modul in einem dreiteiligen Klimaanpassungskonzept für die Stadt Reutlingen.
In dem durchgeführten Verbundvorhaben arbeiteten zum einen die Fachgebiete Geologie/Geothermie sowie Anlagen- und Systemtechnik von geothermischer Kältegewinnung und Kältenutzung der Projektpartner interdisziplinär zusammen, um den aktuellen Wissensstand der Kühlung mittels oberflächennaher Geothermie fachübergreifend zu erfassen, zu bewerten und Schnittstellenprobleme zu bearbeiten. Aus dieser interdisziplinären Betrachtungsweise wurden ganzheitliche Hinweise zur Optimierung des geothermischen Kühlpotenzials sowie Anstöße für technische und planerische Innovationen für die Praxis entwickelt und in diese transferiert.
Zu folgenden Zielen wurden Beiträge erarbeitet:
- Steigerung der Energieeffizienz der Kühlung und Kältebereitstellung
- Nutzung regenerativer Energien zur Kühlung und Kältebereitstellung
- Begrenzung der thermischen Belastung des Untergrunds und des Grundwassers
- Minimierung der Schäden und Risiken durch den Eingriff in den Untergrund
Die Erfindung betrifft eine Schaltungsanordnung (10) für ein Kraftfahrzeug, mit einer Hochvolt-Batterie (12) zum Speichern von elektrischer Energie, mit wenigstens einer elektrischen Maschine (14) zum Antreiben des Kraftfahrzeugs, mit einem Stromrichter (16), mittels welchem von der Hochvolt-Batterie (12) bereitstellbare Hochvolt-Gleichspannung in Hochvolt-Wechselspannung zum Betreiben der elektrischen Maschine (14) umwandelbar ist, und mit einem Ladeanschluss (20) zum Bereitstellen von elektrischer Energie zum Laden der Hochvolt-Batterie (12), wobei der Stromrichter (16) als ein Drei-Stufen-Stromrichter ausgebildet ist und wenigstens eine einer Phase (u) der elektrischen Maschine (14) zugeordnete Schaltereinheit (46) aufweist, welche zwei in Reihe geschaltete Schaltergruppen (52, 54) umfasst, die jeweils zwei in Reihe geschaltete IGBTs (T11, T12, T13, T14) aufweisen, wobei zwischen den IGBTs (T11, T12) einer der Schaltergruppen (52, 54) ein Anschluss (64) angeordnet ist, welcher direkt mit einer Leitung (34) des Ladeanschlusses (20) elektrisch verbunden ist.
Das TMKB-Modell beschreibt einen Weg, den persönlichen und unternehmerischen Erfolg im beruflichen Alltag effizient und nachhaltig zu erreichen. Hierbei steht TMKB für den Transfer von Methoden und Kompetenzen in den Beruf. Dieses Modell beachtet die Theorien der Kompetenzentwicklung im Kontext realer Problemstellungen in Unternehmen. Beispielhaft wird das TMKB-Modell in der ersten Stufe mit dem Schwerpunkt Lean- und Projektmanagement erläutert. Die Zielgruppe dieses Ansatzes lässt sich über die der Auszubildenden bis hin zu Studierenden und Berufserfahrenen erweitern.
Schlussbericht IntelliKOMP
(2020)
Im Rahmen des Verbundprojektes IntelliKOMP sollten smarte Werkzeughalter und Spannfutter für Werkzeugmaschinen im Hinblick auf Industrie 4.0 entwickelt werden. Durch eine hochintegrierte Elektronik in den peripheren Maschinenkomponenten soll mittels Sensoren eine Datenerfassung, -verarbeitung und drahtlose -übertragung erfolgen. Durch diese Daten soll bspw. eine prädiktive Wartung ermöglicht werden.
Das Monitoring von Industrieanlagen stellt in der Wirtschaft sicher, dass hoch-automatisierte Prozesse reibungslos ablaufen können. Meistens steht hier das Monitoring der Anlagen selbst im Mittelpunkt, die Kommunikationsleitungen für den Datenaustausch auf Ethernet-Basis (z.B. Profinet) sind gegenwärtig noch nicht Teil einer kontinuierlichen Überwachung. Zwar werden auch hier die physischen Verbindungen überprüft, jedoch geschieht häufig dies nur zum Zeitpunkt der Inbetriebnahme, wenn die Anlage noch nicht in das Gesamtsystem integriert ist oder während eines Wartungszyklus, wenn die Maschine für die Dauer der Wartung aus dem Betriebsablauf genommen wird. Dies führt dazu, dass insbesondere heute, wo vor allem Ethernet zunehmend als Basis für die industrielle Kommunikation herangezogen wird, Maschinenausfälle aufgrund fehlender Kabelüberwachung immer wahrscheinlicher werden. Um dem entgegenwirken zu können, wurde im Projekt Ko2SiBus ein neues Messverfahren konzipiert, implementiert und validiert, das kostengünstig in neue oder bestehende Systeme integriert werden kann. Um die Tauglichkeit zu zeigen, wurden die Projektergebnisse in Prototypen und Demonstratoren implementiert, die sowohl als Stand-Alone aber auch als Integrationslösungen dienen können.
Die industrielle Kommunikation war früher von relativ eingeschränkten, geschlossenen Feldbussystemen geprägt. Mit der zunehmenden Öffnung von Automatisierungsnetzen durch die horizontale und vertikale Integration in Produktionsanlagen entstehen gefährliche Angriffsflächen, die zum Diebstahl von Produktionsgeheimnissen, der Manipulation oder dem kompletten Lahmlegen der Produktionsprozesse führen können. Hieraus ergeben sich grundlegend neue Anforderung an die Datensicherheit, denen mit innovativen Lösungsansätzen begegnet werden muss.
Ziel des Forschungsvorhabens „SecureField“ war es, die Umsetzbarkeit und Anwendbarkeit des Ansatzes „(D)TLS-over-Anything“ zu untersuchen und nachzuweisen, sowie einen Werkzeugkasten zur Definition und Implementierung entsprechender Sicherheitslösungen vorzubereiten. Als langjährig etablierter Standard im IT-Umfeld stellte sich das (Datagram) Transport Layer Security ((D)TLS) Protokoll in Kombination mit einer industrie- bzw. automatisierungskompatiblen Public-Key-Infrastruktur (PKI) als äußerst vielversprechende Möglichkeit dar, Datensicherheit auch im OT-Umfeld zu erzielen. Hierbei sollten insbesondere KMU adressiert werden, für welche eigene Entwicklungsarbeiten in diesem Umfeld häufig zu aufwändig und technisch sowie wirtschaftlich zu riskant sind.
Mit „SecureField“ konnten Ergebnisse auf mehreren Ebenen erzielt werden. Zunächst konnte im Projektverlauf ein umfassendes und generisches Konzept zur Ende-zu-Ende-Absicherung von Kommunikationspfaden und -protokollen im industriellen Umfeld erarbeitet werden. Dieses Konzept besteht aus einem generischen Kommunikationsmodell sowie aus einem generischen Authentifikationsmodell.
Datengetriebenes Targeting
(2020)
Im Rahmen der weiter voranschreitenden Globalisierung des internationalen Waren- und Handelsverkehrs wächst auch der weltweit virtuelle Zahlungsverkehr. Die Entwicklung eines derartigen Waren- und Zahlungsverkehrs wurde durch den Stand der jeweils vorliegenden Möglichkeiten des Zahlungsverkehrs fundiert, oftmals auch gefördert. Dabei hat gleichzeitig das interregional und international tätige Handelsmanagement selbst nützliche Formen eines Zahlungsverkehrs geschaffen und initiiert. Dieses gilt vor allem auch für das 19. Jahrhundert. Der Beitrag1 verfolgt insbesondere das Ziel, die Entwicklung, Organisation und Technik des vor allem von privaten Bankhäusern getragenen interregionalen und internationalen Zahlungsverkehrs im 19. Jahrhundert zu analysieren.
In den vergangenen Jahren wurden im Rahmen journalistischer Recherchen immer wieder große Datenmengen zu komplexen Firmenkonstruktionen und globalen Finanztransaktionen veröffentlicht, die dem Waschen illegaler Gelder und dem Verschleiern von Vermögenswerten dienten. Als Beispiele seien hierzu die „Panama Papers“ oder „Paradise Papers“ von 2016 genannt, mit denen zahlreiche Briefkastenfirmen und Finanzgeschäfte in Steueroasen gegenüber der Öffentlichkeit aufgedeckt wurden. Die Recherche der Journalisten ordnete den offenbar illegal erworbenen Vermögenswerten auch prominente Namen zu. Als Folge wurden unter anderem Strafverfahren wegen Steuerhinterziehung eingeleitet. Selbst Minister und Regierungschefs mussten zurücktreten. Auch die Europäische Union wurde in den letzten Jahren immer wieder von Geldwäsche-Skandalen erschüttert. Der mit Abstand umfangreichste Fall ereignete sich in der estnischen Filiale der Danske Bank, welche über Jahre massiv die Sorgfaltspflichten missachtet hatte und so in den Jahren 2007 bis 2015 rund 200 Milliarden Euro aus dubiosen russischen Quellen über die Konten der Bank geflossen sein sollen. Es handelt sich derzeit um den weltgrößten Geldwäscheskandal, der bisher aufgedeckt werden konnte. Auch die Deutsche Bank, die als Korrespondenzbank für das dänische Geldhaus tätig war, soll jahrelang verdächtige Transaktionen im Zusammenhang mit der Dankse Bank nicht offengelegt haben. Ferner hatte im Juli 2018 die Berliner Polizei und Staatsanwaltschaft 77 Immobilien einer kurdisch-libanesischen Großfamilie im Wert von zehn Millionen Euro beschlagnahmt. Durch den Kauf der Gebäude sollen illegale Gelder aus Raub und Drogenhandel gewaschen worden sein. Darüber hinaus hat erst im November 2019 das sog. Hawala-Banking in Deutschland Schlagzeilen gemacht. Mehr als 850 Polizeibeamte aus fünf Bundesländern gingen gegen eine vermutlich international agierende kriminelle Vereinigung vor. Die Behörden ermittelten 27 Beschuldigte, die im großen Stil Bargeld ins Ausland transferiert und so über das Hawala-Bankensystem mehr als 200 Millionen Euro aus illegalen Quellen gewaschen haben sollen.
Content Marketing und Customer Journey sind die beiden Themenbereiche, mit denen sich diese Arbeit intensiv auseinandersetzt. Die beiden Begriffe werden in der heutigen Zeit oft als Buzzwords bezeichnet. Es stellt sich die Frage, ob diese neumodischen Schlagwörter ihrer besonderen Beachtung gerecht werden. Der Hype, der um diese Begrifflichkeiten im Laufe der Jahre entstanden ist, ist nach Ansicht der Verfasserin auf jeden Fall gerechtfertigt. Diese Meinung vertreten auch zahlreiche Autoren, die sich mit den Themengebieten in ihrer Literatur auseinandersetzen. Sie unterstreichen die große Bedeutung dieser Kernbereiche für Unternehmen und deren Bestehen in der heutigen Zeit. Viele Autoren betonen zudem die große Relevanz der Auseinandersetzung mit Content Marketing und der Customer Journey bzw. dem Content Marketing entlang der Customer Journey. Florian Schauer-Bieche bezeichnet die heutige Zeit sogar als Beginn einer neuen Ära, der „Content-Ära“.
Infolge des stetigen Wandels auf den Märkten und der heutigen Gesellschaft durch die Digitalisierung verändern sich auch die Maßnahmen im Bereich Marketing (Kaiser 2019). In den Unternehmen befinden sich Marketingaktivitäten stetig in der Umwandlung, um sich den sich verändernden Gegebenheit anzupassen. Die vielfältigen Möglichkeiten, die das Internet heutzutage bietet, sind ein wesentlicher Grund dafür, dass Käufer und Verbraucher der klassischen Werbung immer weniger Vertrauen schenken und stattdessen Empfehlungen von Freunden, Bekannten oder Experte folgen (Kaiser 2019). Diese Entwicklung wird im digitalen Bereich durch die Influencer Kooperationen bedient. Mit der Ausweitung von Onlineangeboten haben sich die Grenzen der Unternehmenskommunikation immer weiter verschoben und umfassen nun neue Kommunikationspartner, die Influencer (Herzmann 2015, S. 9). Influencer sind sogenannte Meinungsführer und Multiplikatoren in den Sozialen Medien. Das Thema der Zusammenarbeit mit Influencern ist schon lange nichts Neues mehr. Wenn man als Unternehmen Aufmerksamkeit erlangen möchte, kann dies mit Hilfe von Meinungsmachern erreicht werden. Denn Influencer haben mehr als nur Reichweite zu bieten, sie haben echte Anhänger und Fans, die auf die Glaubwürdigkeit der Influencer vertrauen, wodurch eine enge Bindung entstehen kann. Infolgedessen, dass es neue Kooperationspartner gibt, müssen die Kommunikationsinhalte und -strukturen im Unternehmen anders aufbereitet werden. Wer sich für Influencer Kooperationen in der Kommunikation entscheidet, muss sich des Stellenwerts erst einmal bewusst werden. Denn insbesondere durch das Beziehungsmanagement zu Influencern kann die digitale Reputation aufgebaut werden und maßgeblich zum Erfolg der Organisation führen (Herzmann 2015, S. 11). Wer sein Produkt oder seine Marke voranbringen will und auf eine genaue Zielgruppe ausrichten möchte, kommt nicht um das Thema Influencer herum. Denn Meinungsmacher haben extrem viele Facetten und kommunizieren über Social Media Kanäle.
Sollen soziale Roboter Teil unserer Gesellschaft werden?
Eingebettet in eine spannende Kriminalgeschichte vermittelt der Wissenschaftscomic von Oliver Korn und Jonas Grund den aktuellen Stand und Ausblick der Wissenschaft auf Social Robots.
Die Geschichte spielt in der nahen Zukunft: In einem internationalen Projekt erforschen Wissenschaftler die Anforderungen an soziale Roboter für den Gesundheitsbereich. Kurz bevor der Prototyp eines Pflegeroboters in einer Feldstudie zum Einsatz kommt, verschwindet er spurlos. In ihrem ersten großen Fall begibt sich die junge Kommissarin Kira auf eine Reise in die Welt der Wissenschaft. Dabei lernt sie viel über soziale Roboter, KI und die Welt internationaler wissenschaftlicher Kooperationen. Immer wieder kommen kritische Stimmen zu Wort: Anti-Roboter-Aktivisten protestieren gegen Automatisierung und ein Schwinden von Menschlichkeit und Empathie. Selbst in der Familie der Kommissarin wird die mögliche Pflege älterer Menschen durch Roboter kontrovers diskutiert.
Übergreifendes Ziel ist es, über alle Altersstufen hinweg Wissen aufzubauen, damit die Vor- und Nachteile dieser neuen Technologien kontrovers, aber kenntnisreich diskutiert werden können. „Soziale Roboter – ein Science Comic“ ist ein Beitrag zu einer informierten Diskussion in den Feldern Robotik, künstliche Intelligenz, Ethik und Politik und damit auch als Lehr- und Lernmittel geeignet.
Der Comic wurde für Jugendliche und Erwachsene konzipiert und gestaltet. Insbesondere aber für jene, die bisher kaum in Berührung mit sozialen Robotern und künstlicher Intelligenz gekommen sind. Eine weitere Zielgruppe sind im Gesundheitswesen tätige Personen, denn die Betreuung und Pflege älterer Menschen gelten als einer der zukünftig wichtigsten Anwendungsbereiche für soziale Roboter.
DINA4 Hochformat, Hardcover Fadenheftung, erschienen in Deutsch und Englisch. Herausgegeben im Selbstverlag Affective & Cognitive Institute (ACI), Hochschule Offenburg
Die wichtigste Erfahrung beim Zeichnen ist der Prozess, mit einem Stift Spuren und Zeichen zu setzen, die direkt beim Zeichnen entstehen. Ob mit Stift auf Papier, mit dem Finger oder einem Stock im Sand: Man lässt sich auf diesen Prozess des Entstehens ein. Es ist ein Wechselspiel von Auge und Hand, mal gewollt und kontrolliert, ein anderes Mal als Spiel aus Neugier, Intuition und Zufall. Wenn es gelingt, den Alltag auszuschließen, ist Zeichnen wie Musizieren oder Tanzen, ein Akt der Poiesis, das Hervorbringen von Werken im autotelischen Zustand. Handeln und Sein ist als Qualität und Erkenntnisform eins oder neudeutsch: Ich bin im Flow.
PHOTOPUR hat die Entwicklung eines photokatalytischen Prozesses zur Beseitigung von Pflanzenschutzmitteln (PSM) aus dem Reinigungswasser von Spritzgeräten zum Ziel. Am INES wurde eine Energieversorgung für die photokatalytische Reinigung in zwei Bachelorarbeiten entwickelt und als Demosystem aufgebaut. Das Gesamtsystem ist nun als mobile Einheit verfügbar und wurde zuletzt um das Reaktormodul für den photokatalytischen Prozeß erweitert und den Partnern für intensive Tests übergeben.
Die angestrebten Klimaschutzziele erfordern, dass Erneuerbare Energien längerfristig zur Hauptenergiequelle der Energieversorgung werden. Um dieses ehrgeizige Ziel zu erreichen, ist es angebracht konventionelle und erneuerbare Energie oder noch besser nachhaltige Einzelprozesse intelligent miteinander zu verknüpfen.
Das Projekt EBIPREP wird von einer interdisziplinären Forschergruppe bestehend aus Chemikern, Prozessingenieuren und Bioprozessingenieuren sowie Physikern, die auf Sensoren und Prozesssteuerung spezialisiert sind durchgeführt. Das Ziel ist es, neue Lösungen für die Nutzungswege von Holzhackschnitzeln und den bei der mechanischen Trocknung anfallenden Holzpresssaft zu entwickeln. Neben der Hackschnitzelvergasung und der katalytischen Reinigung des Holzgases steht die Nutzung des Holzpresssafts in Biogasanlagen und bei der biotechnologischen Wertstofferzeugung, z.B. bei der Enzymherstellung, im Vordergrund.
Was wir tun?
Das EBIPREP-Projekt wird von einer interdisziplinären Forschungsgruppe durchgeführt, die sich aus Chemikern, Prozessingenieuren, Bioprozessingenieuren und Physikern zusammensetzt. Ziel ist es, neue Lösungen für den Einsatz von Hackschnitzeln und Holzpresssaft zu entwickeln, die durch ein innovatives mechanisches Trocknungsverfahren gewonnen werden. Neben der Holzvergasung und katalytischen Reinigung des Holzgases ist der Einsatz von Holzpresssaft in Biogasanlagen und in biotechnologischen Produktionsprozessen von Wertstoffen vorgesehen. Holzhackschnitzel werden thermisch vergast. Es werden Online-Sensoren entwickelt, um die relevanten Parameter der stabilisierten und optimierten Einzelprozesse auszuwerten. Die Verknüpfung von thermischen und biotechnologischer Konversionsprozessen könnte dazu beitragen, die Dimension von Biogasreaktoren erheblich zu reduzieren. Diese Tatsache wird folglich zu einer spürbaren Kostensenkung führen.
Ziele des EBIPREP-Projekts
• die Vorteile der thermischen und biologischen Umwandlung von Biomasse zu kombinieren;
• Entwicklung eines Verfahrens zur Reduzierung von Schadstoffemissionen mit innovativen Sensoren und katalytische Behandlung von Synthesegasen;
• nachhaltige Produktion biotechnologischer wertvoller Produkte
• wirtschaftliche und ökologische Analyse des Gesamtprozesses im Vergleich zu den Einzelprozessen
• Einsatz von Prozessabwässern zur Erzeugung regenerativer Energie oder biotechnologischer Wertstoffe
• Erwerb neuer Kenntnisse auf dem Gebiet der Rückgewinnungstechnik von Rückständen
• und Energieerzeugung;
• Erweiterung neuer Anwendungsfelder für innovative Sensoren und Keramik
• Schäume für Katalysatoren;
• Senkung der Kosten für die Biogasproduktion
Im geplanten Übersichtsvortrag werden die vernetzten Strukturen des Projekts EBIPREP und deren zentralen Ergebnisse vorgestellt.
Eine kontinuierliche Überwachung von Ethernet-Leitungne beugt Maschinenausfällen in der Industrie vor. Aktuell fehlen jedoch geiegnete Methoden, um diese Überwachung flächendeckend durchzuführen. Im Projekt Ko²SiBus wurde deshalb ein kostengünstiges Verfahren zur kontinuierlichen Überwachung von Ethernet-Leitungen entwickelt.
Aus Ideen werden Produkte
(2020)
Das Standardlehrbuch zum internationalen Steuerrecht
Kenntnisse im internationalen Steuerrecht werden in der steuerlichen Ausbildung immer wichtiger. Mit dem „Wilke“ sichern Sie sich einen umfassenden und fundierten Einstieg in diese komplexe Materie. Leicht verständlich und anschaulich vermittelt dieses Standardlehrbuch Ihnen alle relevanten Grundlagen des internationalen Steuerrechts.
Der Aufbau des Buchs orientiert sich dabei sowohl an den Bedürfnissen der Ausbildung als auch denen der Praxis. Als idealer Begleiter unterstützt es Sie in jeder Phase Ihrer beruflichen Entwicklung – von den ersten Schritten in der Steuerberater-Ausbildung bis hin zur erfolgreich abgeschlossenen Weiterbildung zum Fachberater für Internationales Steuerrecht.
Die 15. Auflage berücksichtigt die Entwicklung auf dem Gebiet des internationalen Steuerrechts in Gesetzgebung, Rechtsprechung, Literatur und Verwaltung bis Ende März 2020.
Rechtsstand: 1.4.2020
Gasdynamik
(2020)
Für kompressible Strömungen werden die Erhaltungssätze für Masse, Impuls und Energie hergeleitet. Die Eigenschaften der Stoßgleichungen wie Rankine-Hugoniot-Relation und Rayleigh-Gerade werden betrachtet. Zur Berechnung der Kräfte auf umströmte Körper werden die Auftriebs- und Widerstandsbeiwerte ermittelt. Auf der Basis der Stromfadentheorie wird die Auslegung von Lavaldüsen behandelt. Das physikalische Verhalten linearer Unter- und Überschallströmungen und transsonischer Profilumströmungen wird analysiert.
Alle drei Anträge argumentieren technikdeterministisch, als sei (Digital)Technik mehr als ein mögliches, nicht notwendiges Hilfsmittel im Unterricht. Seit über 30 Jahren wird jede neue Geräte-Generation (PC, Laptops, heute Tablets) mit identischen Argumenten (innovativ, modern, motivationsfördernd) für den Einsatz im Unterricht reklamiert. Doch entscheidend für Lernerfolge und Bildungsprozesse sind die Lehrer-Schülerbeziehung, die direkte Interaktion zwischen Lehrenden und Lernenden und die Sozial- und Klassengemeinschaft, nicht die technische Ausstattung von Schulen. Lernprozesse in Bildungseinrichtungen beruhen auf dem sozialen Miteinander und wechselseitigem Vertrauen. Lernen ist ein individueller und sozialer Prozess, kein technischer Vorgang. Kein Mensch lernt digital.
Keiner der Anträge unterscheidet nach dem Alter der Schülerinnen und Schüler als dem entscheidenden Kriterium für den Einsatz von Medientechnik im Unterricht. Stattdessen wird technikeuphorisch einer zunehmenden Automatisierung des Beschulens und Testens das Wort geredet (Lernsoftware, Lernmanagementsysteme, Lernprofile u.a.). Stand der Wissenschaft (einschließlich der Erfahrungen mit Covid-19 und erzwungenen Schulschließungen) ist aber, dass Präsenzunterricht das oberstes Primat der Schulen sein muss. Schulen sind die Orte des sozialen Miteinander und Schutzraum gerade für sozial Benachteiligte. Das Ziel sind Lern- und Verstehensprozesse der Schülerinnen und Schüler, die Entwicklung ihrer Persönlichkeit und ihre Bildungschancen, nicht quantitative Vergleiche über die technische Ausstattung von Schulen in anderen Bundesländern oder dem Ausland. Pädagogisch argumentierend würde nicht auf digitale Medien(technik) verkürzt; es würden analoge wie technische Medien gleichwertig einbezogen. Ob und ggf. für was man Digitaltechniken altersangemessen und ohne Rückkanal (!) für Nutzerdaten einsetzen kann, ist hingegen erst durch ergebnisoffene Studien zu belegen. Was in allen Anträgen fehlt, ist daher ein klares Verbot der Profilierung Minderjähriger.
Wer darüber hinaus das Ziel der digitalen Transformation der gesamten Gesellschaft mit dem Ziel der digitalen Organisation aller Lebensbereiche kennt, weiß, dass wir IT erst neu denken und alternative Infrastrukturen aufbauen müssen, bevor Digitaltechnik in Schulen einsetzbar wird. Datensparsamkeit und Dezentralisierung, Hoheit über die eigenen Daten und DSGVO-konforme Systeme sind zukunftsweisende Stichworte für IT in Schulen, nicht EdTech als Big Business der Global Education Industries (GEI).
Die entscheidende Frage bei der Konzeption einer möglichen technischen Infrastruktur für Schulen ist keine technische, sondern eine pädagogische: Was soll denn genau gelernt werden, über Rechner und Netzwerke, am Rechner oder mit dem Rechner? Ist diese Frage geklärt, kann man Hard- und Software dafür zusammenstellen.
„Nichts geschieht ohne Risiko, aber ohne Risiko geschieht auch nichts“, sagte der ehemalige Bundespräsident Walther Scheel. Der Ausspruch sensibilisiert dafür, dass in fast allen Themen und Prozessen Risiken stecken und die Akteure ein kalkulierbares Risiko eingehen sollten, um auch in komplexen Themen einen signifikanten Fortschritt zu erlangen. In unserem Fall sind die Akteure Projektleiter und Projektteammitglieder, die kaum eigene/persönliche Risiken eingehen, sondern Projektrisiken professionell managen müssen. Die Teammitglieder sind dabei von den Projekten selten persönlich bedroht, sondern das Projekt oder das Unternehmen und entsprechend sind die Risiken oft auch deutlich größer, als eine einzelne Person es sich vorstellen oder persönlich verantworten kann.
Ein Windenergieprojekt ist eine hochindividuelle Kraftwerksplanung und das Projektmanagement hierzu ist geprägt von zahlreichen Besonderheiten, die berücksichtigt werden müssen. Die mehrjährigen Planungszeiträume, die Energiewende, der technische Fortschritt, die hohen Kosten, die Internationalisierung der Branche und die Diskussionen über den Klimawandel beeinflussen die Durchführung der Projekte, die Entscheidungen eines Projektmanagers und die der weiteren Projektbeteiligten.
Das Buch richtet sich an alle Projektentwickler, Anlagenhersteller und Gutachter aus der Windenergiebranche und jene, die mit dieser Branche zusammenarbeiten. Es vermittelt bewusst praxisnahe Erfahrungen und Erkenntnisse von Projektmanagementthemen über die gesamte Wertschöpfungskette von Wind Onshore.
JARDIN GLOCAL
(2020)
Der Komplexitätsbeitrag als Kriterium für Entscheidungen zur Bereinigung technischer Produkte
(2020)
Die Bereinigung der Produktpalette wird meistens anhand des Umsatzanteils und des Deckungsbeitrags im Zuge der Einführung von Nachfolgeprodukten entschieden. Im vorliegenden Beitrag wird ein Kriterium eingeführt und hergeleitet, das den Beitrag eines Produkts zur Komplexität auf Basis logistikrelevanter Produkteigenschaften quantifiziert. Die Anwendung des Kriteriums wird anhand der Ergebnisse aus einem Praxisbeispiel aufgezeigt.
Die Coronakrise hat weltweit das Wirtschafts- und Gesellschaftsleben in bisher ungekannter Weise verändert. Die ohnehin bereits komplexen Herausforderungen in Zeiten des Klimawandels sind damit noch gestiegen. Genossenschaftliche Innovationsökosysteme können Lösungsansätze für die gravierenden Veränderungen im unternehmerischen, kommunalen und gesellschaftlichen Umfeld schaffen.
Jedes Projektteam braucht engagierte Teammitglieder, der NQSZ 147-04 AA zum Projektmanagement auch
(2020)
… nicht nur in der Energiewirtschaft, sondern auch im positiven und wahrsten Sinne des Wortes in der Fachgruppe PM Windenergie. In über 40 Jahren GPM wurde immer wieder deutlich, dass Projekte und Programme in Wirtschaft und Gesellschaft nicht nur begleitet, sondern auch aus der GPM heraus mitgestaltet werden. Die Entwicklung und die Ergebnisse der Fachgruppe Windenergie machen dies besonders deutlich.
Als Einstieg in den Diskurs über zivile Netzwerktechnologien, mobile Geräte, Onlinedienste und die Frage, wie sich die „Kirche der Zukunft“ (zumindest aus medienwissenschaftlicher Sicht) positionieren kann, dienen drei Zitate. Die Gegenüberstellung der darin vertretenen Positionen soll den Nutzen und die Folgen der zunehmend vollständigen Durchdringung (fast) aller Lebensbereiche mit Digitaltechnik für den Einzelnen wie für die Gesellschaft aufzeigen.
Computer an allen Schulen (1984), Schulen ans Netz (1996), Digitalpakt Schule (2016): Jede neue Rechnergeneration wird für Schule und Unterricht als notwendig reklamiert. Die Argumente wiederholen sich: PCs, Laptops, heute Tablets seien innovativ, motivationsfördernd und ermöglichten „modernen“ Unterricht. Stand der Wissenschaft ist: Weder Nutzen noch Mehrwert von IT in Schulen sind belegt. Die Digitalisierung dient offensichtlich anderen Interessen. Denn ob Kreidetafel oder Whiteboard: Entscheidend für Lernerfolge sind Lehrpersönlichkeiten, ein gut strukturierter Unterricht und der lernförderliche Umgang miteinander, nicht Medientechnik.
Die Diskussionen über die Bedeutung und Folgen der Digitalisierung sind kaum noch überschaubar. Einig sind sich die meisten, dass Digitalisierung und die sogenannte „Künstliche Intelligenz“ (sKI) sowohl „alternativlos“ wie entscheidend für die Zukunft seien. Wer bei diesen Techniken nicht an der Spitze stünde, würde wirtschaftlich abgehängt und letztlich zum Verlierer. Die erste Frage ist aber: Wer steht denn an der Spitze und ist es erstrebenswert, sich dazu zu gesellen? Die zweite Frage ist, was sich konkret an technischen Systemen hinter Schlagworten wie Big Data, Künstlicher Intelligenz und autonomen Systemen verbirgt. Nicht zuletzt steht in Frage, welche Konsequenzen diese Systeme für den Einzelnen haben (können und/oder werden).
Unter dem Deckmantel der Covid-19-Pandemie werden soziale Einrichtungen wie Bildungseinrichtungen oder das Gesundheitssystem systematisch auf Digitalisierung getrimmt. Schon Grundschulkinder werden an die Arbeit am Display gewöhnt und Schulen mit Geldern aus dem Digitalpakt Schule technisch aufgerüstet. Lernsoftware, Schulcloud und Learning Analytics erlauben die Verdatung von Schülerbiographien. Digitale Endgeräte als Leihgabe für Schülerinnen und Schüler bereiten den Fernunterricht für die Zeit nach der Pandemie vor. Auf der Strecke bleiben dabei möglicherweise nicht nur Grundrechte, Privatsphäre und letztlich die Autonomie des Menschen, sondern auch das notwendige Vertrauen in politische Entscheidungen, wenn etwa die Digitalisierung zunehmend aller Lebensbereiche gar nicht mehr hinterfragt wird. Dabei reichen bereits vier Forderungen zur IT-Entwicklung, um demokratisch legitimierte Alternativen von Softwarelösungen zu entwickeln, wie der Streit um die Corona-App gezeigt hat.
Wer sich als Pädagoge und Wissenschaftler mit dem Thema Digitalisierung im Kontext von Unterricht, Lehre und Bildungsprozessen befasst, stellt schnell fest: Kaum jemand realisiert die Tragweite der durch Digitaltechnik und Netzwerke möglichen und von IT-Konzernen forcierten Transformation von Bildungseinrichtungen zu immer stärker automatisierten, kybernetisch gesteuerten Beschulungs- und Prüfanstalten. „It’s the economy, stupid“ wird zum Mantra auch der Bildung. Der Begriff Learning Analytics als Teilaspekt von Big Data Analytics weist ebenso auf Automatisierungstechnik für Lernprozesse wie der Begriff der datengestützten Schulentwicklung (Hartong, Learning Analytics und Big data in der Bildung, 2019). Mit Summit Learning (Facebook), Google Classroom oder Apple Education sind vollautomatisierte Systeme in den USA bereits im Einsatz. Der DigitalPakt Schule schafft die technischen Voraussetzungen für die Beschulung per Netz und Cloud in Deutschland (Lankau, Bildungsmarkt Schule. Tatsächliche Kosten des Digitalpakt Schule und verdeckte Interessen, 2019a).
Künstliche Intelligenz gilt immer noch als eine der zukunftsweisenden Technologien, die viele Bereiche wie etwa Medizin, Handel, Verkehr und öffentliche Verwaltung revolutioniert. So scheint es nicht verwunderlich, dass bereits knapp jedes fünfte Unternehmen in Deutschland zurzeit KI-Systeme implementiert oder zumindest ihren Einsatz plant. Besonders hoch im Kurs stehen KI-Projekte, um Daten zu analysieren. Ganze 70 Prozent der Unternehmen sehen hier das größte Potenzial, so die Ergebnisse einer Umfrage von PWC [1]. Dennoch lauern einige Stolpersteine, wollen Unternehmen intelligente Datenprojekte umsetzen. Welche Hürden auftauchen können und wie sich diese meistern lassen, erläutert dieser Artikel anhand eines KI-Projektes zur Analyse von Geschäftspartnerdaten [2].
Bei vielen Marketingthemen geht es nicht nur um die Vermittlung eines konkreten Kundennutzens, mit dem aufgezeigt wird, welches Problem mit dem beworbenen Produkt – seien es nun Sachgüter oder Dienstleistungen – gelöst werden kann, sondern um die emotionale Ansprache der Zielgruppen. Dabei ist es keineswegs nur eine Kommunikationsaufgabe, sondern die Produktkonzeption und die Gesamtausrichtung des Marketings verändern sich so, dass eine Teilhabe am Produkt, der Produktentwicklung und der Produktidee möglich wird.
Im Rahmen des Forschungsprojekts Professional UX entwickelt die Hochschule Offenburg gemeinsam mit dem Softwarehaus Dr. Hornecker in Freiburg eine innovative Systemlösung, die es ermöglicht, anhand von Mimik, Stimme und Blickverlauf beim Nutzer entstehende Emotionen bei der Nutzung interaktiver Anwendungen zu erfassen und zu interpretieren. Ziel der Untersuchung ist es, Indikatoren zu identifizieren, die eine exakte Zuordnung von wahrgenommenen Reizen zu den jeweils ausgelösten Emotionen erlauben. Sobald negative Emotionen wie Ärger oder Unsicherheit auftreten, kann dieser erfasst und im Nachgang der jeweils irritierende Reiz eliminiert werden. Das Projektteam hat einen ersten Prototyp für die Professional UX Systemlösung in Form von Hard- und Software entwickelt, mit dem es möglich ist, UX-Messungen während der User Interaktion durchzuführen und automatisiert mithilfe von KI auswerten zu lassen.
Emotionen sind Teil jedes menschlichen Wesens: Sie begleiten Konsumenten und Konsumentinnen durch alle Alltagssituationen – auch und insbesondere bei Kaufentscheidungen. Jedoch war es bisher nur bedingt möglich, diese Emotionen im Dialogmarketing genau zu erfassen und zu interpretieren. Die innovative Customer Experience Tracking Methode der Hochschule Offenburg ermöglicht eine verzerrungsreduzierte Messung und Auswertung von Kundenemotionen, die vor, während und nach der Benutzerinteraktion mit Dialogmarketingaktivitäten auftreten. Aus den im Labor oder im Feld gewonnenen Untersuchungsergebnissen lassen sich konkrete Handlungsempfehlungen ableiten, um Dialogmarketingangebote im Offline-, Online- oder crossmedialen Bereich optimal auf die Bedürfnisse und Erwartungen der Kunden und Kundinnen auszurichten.
Der Artikel beschreibt die Herausforderungen für die Kommunikation in Ganztagsschulen im Jahr 2020 als es notwendig war bei einer sehr unbeständigen Organisations- und Kommunikationslage von Seiten der Schulverwaltungen einen Unterrichts- und Ganztagsbetrieb zu organisieren und gegenüber den wesentlichen Stakeholdern zu kommunizieren.
Bei dem vorgestellten Ansatz soll der Auftreffpunkt des Pfeils durch die Kreuzkorrelation von Audio-Signalen bestimmt werden. Das Auftreffen des Pfeils erzeugt ein charakteristisches Geräusch, welches von mehreren Mikrofonen in bestimmter Anordnung um die Dartscheibe herum in elektrische Signale umgewandelt wird. Mithilfe der Schallgeschwindigkeit und den Zeitdifferenzen, welche die Schallwelle zu den einzelnen Mikrofonen benötigt soll dann der Auftreffpunkt berechnet werden.
Mit der Implementierung sowie einer anschließenden aussagekräftigen Evaluierung, soll das, visuelle-inertiale Kartierungs- und Lokalisierungssystem maplab analysiert werden. Hierbei basiert die Kartierung bzw. Lokalisierung auf der Detektion von Umgebungsmerkmalen. Neben der Möglichkeit der Kartenerstellung besteht ferner die Option, mehrere Karten zu fusionieren und somit weitreichende Gebiete zu kartieren sowie für weitere Datenauswertungen zu nutzen. Aufgrund der Durchführung und Bewertung der Ergebnisse in unterschiedlichen Anwendungsszenarien zeigt sich, dass maplab besonders zur Kartierung von Räumen bzw. kleinen Gebäudekomplexen geeignet ist. Die Möglichkeit der Kartenfusionierung bietet weiterhin die Option, den Informationsgehalt von Karten zu erhöhen, welches die Effektivität für eine anschließende Lokalisierung steigert. Bei wachsender Kartierungsgröße hingegen zeigt sich jedoch eine Vergrößerung geometrischer Inkonsistenzen.
Zur Herstellung von Spritzgussformeinsätzen kommen in der Regel spanende Verfahren zum Einsatz. In den letzten Jahren hat sich allerdings auch die additive Herstellung dieser Werkzeuge als zweckmäßig erwiesen. In der Produktentwicklung spielt die Agilität heute eine immer wichtigere Rolle. Um mögliche Potentiale des Additive Tooling im Rahmen des Agile Prototyping und um Unterschiede zu den konventionellen Herstellverfahren aufzuzeigen, werden Angebote für die Fertigung mehrerer Formeinsätze durch eine CNC- und HSC-Fertigung, sowie durch additive Herstellung angefragt und hinsichtlich Beschaffungskosten und -zeiten miteinander verglichen. Zudem erfolgt eine Bewertung der technischen Unterschiede. Aus diesen beiden Betrachtungen kann schließlich ein Profil über die drei Herstellverfahren abgeleitet werden, welches bei der anwendungsfallspezifischen Verfahrensauswahl unterstützen soll.
Fusion 360 – kurz und bündig
(2020)
Dieses Lehrbuch ermöglicht dem Anfänger in der 3D-Modellierung einen schnellen Einstieg in die Arbeit mit dem cloudbasierten CAD-System Autodesk® Fusion 360TM. Der Schwerpunkt liegt dabei auf den grundlegenden Funktionen zur Modellierung von Einzelteilen und dem Zusammenbau von Produkten, sowie in der Erstellung von einfachen technischen Zeichnungen. Dabei werden bei jedem Schritt die besonderen Anforderungen an eine 3D-Druck-gerechte Gestaltung erläutert und umgesetzt. Somit ist das Ergebnis dieser „Schritt für Schritt“-Anleitung die vollständige Modellierung eines Miniatur-Automobils, das am 3D-Drucker in ein reales Modell umgesetzt werden kann. Das didaktische Konzept ist so ausgelegt, dass alle Schritte für ein Selbststudium geeignet sind. Die vorliegende Auflage wurde komplett überarbeitet, sie basiert auf der neuen Benutzeroberfläche User Interface (UI) und enthält ein neues Kapitel zum CNC-Blechbiegen.
Anmerkung zu ArbG Düsseldorf v. 5.3.2020 – 9 Ca 6557/18 – nicht rechtskräftig
Das ArbG Düsseldorf hat einem ehemaligen Arbeitnehmer einen immateriellen Schadensersatz von 5 000 Euro wegen einer verspäteten und teilweise unrichtigen datenschutzrechtlichen Auskunft seitens seines vormaligen Arbeitgebers zugesprochen. Der Beitrag setzt sich mit dieser Entscheidung grundsätzlich auseinander.
Am 01.10.2019 beschäftigte sich der EuGH mit der Frage, wann und inwieweit das Setzen von Cookies ohne vorherige Einwilligung des Internet-Nutzers zulässig sein könnte. Das Ergebnis ist für die Werbeindustrie zwar eigentlich nicht überraschend, aber dennoch für diese höchst ärgerlich. Die praktischen Folgen hingegen sind bislang etwas irritierend, hat sich doch die Zahl von Pop-Up-Fenstern immens vervielfacht, was jedoch, wie hier gezeigt wird, zumeist entweder überflüssig oder aber nicht hinreichend ist.
Beinahe jeder Online-Anbieter wünscht sich ausgiebiges Feedback, also möglichst viele Produktbewertungen, Likes u.Ä. Denn Feedback erzeugt Popularität und diese wiederum bringt neue Kunden. Die lauterkeitsrechtlichen Probleme von Incentives zur Steigerung der Feedback-Rate sind Thema dieses Beitrags.
In der Forschungsgruppe um Prof. Dr. Thomas Wendt werden Themen in unterschiedlichsten Bereichen von Automatisierungstechnik über funktionale Sicherheit bis hin zur 3D-gedruckten Elektronik / Sensorik behandelt. Insgesamt arbeiten vier Doktoranden und vier Mitarbeiter an der Weiterentwicklung der verschiedenen Technologien, die in diesem Artikel zusammengefasst dargestellt sind.
Internet-Auktionsvertrag
(2020)
Die Lithium-Ionen-Batterietechnologie ist seit ihrem kommerziellen Durchbruch zu Beginn der neunziger Jahre zum Standard für die portable Energieversorgung geworden. Zunehmend macht sie auch im mobilen und stationären Bereich klassischen Technologien, wie dem Verbrennungsmotor, Konkurrenz. Da in diesen Anwendungsfeldern aber meist größere Energiemengen erforderlich und wesentlich längere Produktlebenszyklen üblich sind, sind einerseits die Sicherheit und andererseits die Alterung der Batterien von herausragendem Interesse. Diese Arbeit konzentriert sich auf die Untersuchung und Modellierung einer Lithium-Eisenphosphat-Zelle. Dabei wird eine Lithiumeisenphosphat-Kathode mit einer Graphit-Anode kombiniert. Dieser Zelltyp eignet sich besonders für stationäre Anwendungen. Trotz eines bisher vergleichsweise geringen Marktanteils lassen sich, wie im Laufe dieser Arbeit ersichtlich wird, die Ergebnisse gut auf den Großteil der kommerziell verwendeten Lithium-Ionen-Zellen abstrahieren. Ziel der Arbeit ist es, mit Hilfe mathematischer Modellierung dieser Lithium-Ionen-Batterie das Verständnis über die komplexen Alterungsmechanismen zu vertiefen, um mit diesen Erkenntnissen Verbesserungsvorschläge zum Aufbau und der Betriebsweise der Batterien zu erarbeiten. Eine Batterie ist ein hochkomplexes physikalisches System, in dem sich die räumlichen Gradienten der physikalischen Größen um viele Größenordnungen unterscheiden können. Auch bei der zeitlichen Betrachtung laufen wichtige Prozesse wie beispielsweise die Ladung, die Alterung oder das thermische Durchgehen auf sehr unterschiedlichen Zeitskalen ab. Dabei finden in der Zelle gleichzeitig, teilweise in gegenseitiger Abhängigkeit, zahlreiche chemische Reaktionen statt. Zur numerischen Simulation bedarf es also eines Modells, das flexibel mit diesen unterschiedlichen Anforderungen umgeht. Die in dieser Arbeit verwendete hauseigene Software DENIS bildet dieses flexible Gerüst, welches sich des numerischen Lösers LIMEX, der elektrochemischen Simulationsumgebung Cantera und der Mathematiksoftware MATLAB bedient. Das Kontinuum-Modell verwendet drei unterschiedliche Skalen entlang der gleichen räumlichen Dimension (sog. 1D+1D+1D oder pseudo-3D-Modell). Durch diese drei miteinander gekoppelten Skalen werden die Temperaturverteilung, die elektrochemischen Vorgänge und die Diffusion von Lithium in die Aktivmaterialien berechnet. Ähnliche, häufig nach John Newman benannte, Modelle lassen sich in großer Vielfalt in der Literatur finden. Eine wichtige Verbesserung des Modells stellt daher vor allem die Erweiterung um die Nebenreaktionen dar. Dabei ist die Bildung der Solid Electrolyte Interface (SEI) von herausragendem Interesse, jedoch auch deren Zersetzung bei zu hohen Temperaturen, die zum thermischen Durchgehen der Batterie führen kann. Durch die Modellierung der SEI-Nebenreaktion gelingt es, die kalendarische Alterung der Zellen in dem für viele kommerzielle Anwendungen relevanten Bereich von 100 % bis 80 % State of health (SOH) zu simulieren. Eine weitere wichtige Modellerweiterung stellt die Berücksichtigung mechanischer Effekte dar; dies führt zu einer Beschreibung der zyklischen Alterung der Zelle. Dabei wird ein realer mechanischer Effekt mit dem bestehenden elektrochemischen Modell verbunden. Grundlegende Hypothese ist hierbei, dass die SEI-Schicht beim Laden der Zelle aufbricht und es damit zu einer erhöhten Reduktion des Elektrolyten kommt. Somit ist das Modell in der Lage, sowohl kalendarische als auch zyklische Effekte zu simulieren, die auf chemischen und mechanischen Ursachen basieren. Die Berücksichtigung des Effektes der Austrocknung der Elektrode durch die Reduktion des Elektrolyten ermöglicht eine Vorhersage des irreversiblen Kapazitätsverlustes bis weit über die 80 % SOH-Grenze hinaus. Durch Hinzufügen einer zweiten SEI-Reaktion kann darüber hinaus das thermische und elektrische Verhalten der Zelle bei erhöhten Temperaturen außerhalb des Betriebsbereichs sowie bei externem Kurzschluss qualitativ und quantitativ gut abgebildet werden. Abweichungen der Modellvorhersage zu experimentellen Werten lassen sich zum Teil mit der Vernachlässigung von weniger relevanten physikalischen und chemischen Vorgängen erklären. Ein weiterer Grund für Abweichungen ist in der Zusammensetzung der experimentellen Daten zu suchen, bei denen die Batterien stets von der gleichen Zellchemie sind, sich jedoch in der exakten Bauform teilweise unterscheiden. Um das an Parametern deutlich überbestimmte Modell zu validieren, werden die Ergebnisse umfangreicher Experimente mit stationären Lithium-Eisenphosphat-Zellen (LFP) verwendet. Neben Lade- und Entladezyklen sind die Elektrochemische-Impedanz-Spektroskopie (EIS) und Alterungsexperimente an baugleichen Zellen durchgeführt worden. Nur mit dieser experimentellen Unterstützung entsteht somit ein konsistentes thermo-elektrochemisches Modell der Zelle. Aufgrund der erweiterten experimentellen Datengrundlage kann somit die Komplexität des Modells erhöht werden. Diese verschiedenen Modellvorhersagen können mit einem einzigen Satz an Parametern gemacht werden. Durch die Kombination und Integration dieser unterschiedlichen Alterungseffekte in ein konsistentes physikalisches System entsteht damit ein Modell, dessen Aussagekraft sich nicht auf einen spezifischen Betriebsbereich der Zelle reduziert. Die Interaktionen der vielen physikalisch-chemischen Effekte sind für verschiedene Betriebszustände analytisch nur schwer abschätzbar. Mit der modellbasierten Abbildung dieser komplexen Interaktionen wird somit ein wissenschaftlicher Mehrwert geschaffen.
Die transösophageale Neurostimulation ist eine neue Therapieform und könnte unter anderem zur Schmerzlinderung während einer transösophagealen Linksherzstimulation angewendet werden. Sie ist in die Kategorie der Rückenmarksstimulation (SCS) einzuordnen, die die meist verwendete Technik der Neurostimulation ist. Die derzeit auf dem Markt vorhandenen Ösophaguskatheter werden bei einer elektrophysiologischen Untersuchung mit Ablation und transösophagealer Echokardiographie zur Temperaturüberwachung eingesetzt. Das Ziel dieser Arbeit war, das vorhandene Offenburger Herzrhythmusmodell, um die Wirbelsäule zu erweitern, einen neuen Ösophagus-Elektroden- Katheter für die transösophageale elektrische Stimulation des Rückenmarks zu modellieren und mittels 3D-Computer-Simulationen auf Ihre Wirksamkeit zu untersuchen.
Um medizinische Behandlungsverfahren in der Praxis besser verstehen und anwenden zu können, gewinnt die Visualisierung der Prozesse an immer größerer Bedeutung. Durch Anwendung der Computer-Simulationssoftware CST können elektromagnetische und thermische Simulationen zur Analyse verschiedener Herzrhythmusstörungen durchgeführt werden. Eine weitere Form der Visualisierung erfolgt durch haptische, dreidimensionale Druckmodelle. Diese Modelle können mit einem generativen Herstellungsverfahren, wie z. B. einem 3D-Drucker, in kürzester Zeit hergestellt werden.
Diese Arbeit beschäftigt sich mit der Biomechanik der Halswirbelsäule (HWS) beim Umgang mit dem Smartphone. Die Kräfte, die auf Wirbelkörper, Wirbelgelenke, Bandscheiben, Muskeln und Bänder wirken, werden mit steigendem Flexionswinkel der HWS größer. Die Beschwerden hingegen, welche der Smartphone-Nacken hervorruft, sind meist akut und mit regelmäßiger Bewegung und der Stärkung der Nackenmuskulatur gut zu behandeln. Eine Therapie ist somit auch zur Vorbeugung geeignet. Doch die Langzeitauswirkungen sind nicht außer Acht zu lassen, denn durch die steigenden Nutzungsmöglichkeiten der Smartphones steigt auch der durchschnittliche tägliche Gebrauch stärker an. So wird vor allem die tägliche Bildschirmzeit bei Jugendlichen immer länger. Das aktuell noch akute Krankheitsbild des Smartphone-Nackens, das nur selten einen chronischen Verlauf nimmt und Langzeitschäden verursacht, könnte sich durch fehlende oder zu späte Maßnahmen zu einem größeren chronischen Krankheitsbild entwickeln.
Innovationen sind wichtige Treiber für ökonomisches Wachstum und sind für erfolgreiche Volkswirtschaften von zentraler Bedeutung. In Ländern wie Deutschland, Finnland oder Großbritannien sorgen ein innovationsfreundliches gesellschaftliches Klima, die Entwicklung von Spitzentechnologien an Universitäten und Hochschulen sowie privatwirtschaftliche Innovationstätigkeit für langfristigen Wohlstand. Neben multinationalen Konzernen sind kleine und mittlere Unternehmen (KMU) häufig Treiber von innovativen Ideen.
Digitale Geschäftsmodelle zeichnen sich oft durch die spezifische Nutzung von proprietären Daten oder Algorithmen aus. Wettbewerbsvorteile von Firmen mit digitalen Geschäftsmodellen sind dann charakterisiert durch Merkmale von erfolgsrelevanter Information und Aspekten von deren Offenlegung − oder bewusst gewählter Intransparenz − die intrinsisch zu asymmetrischer Information führen. Management und Personal der Firma kennen die Erfolgsaussichten und die relevanten Risikofaktoren dann besser als mögliche Kapitalgeber.
Innovation ist die Triebfeder wirtschaftlicher Entwicklung. Niemand hat das so früh erkannt und so klar formuliert wie Joseph Schumpeter: „Der fundamentale Antrieb, der die kapitalistische Maschine in Bewegung setzt und hält, kommt von den neuen Konsumgütern, den neuen Produktions- oder Transportmethoden, den neuen Märkten, den neuen Formen der industriellen Organisation, welche die kapitalistische Unternehmung schafft.“
Die Literatur hat in den letzten Jahren einen breiten Diskurs zur Digitalisierung im Rechnungswesen eröffnet. Während die erste Digitalisierungswelle noch grundlegende Digitalisierungsprozesse umfasste, betrifft die zweite Digitalisierungswelle das Unternehmen in seiner Gesamtheit und geht weit über eine digitale Datenverarbeitung hinaus. Digitalisierung reicht daher von der Anwendung grundlegender digitaler Technologien zur Unterstützung von Geschäftsprozessen über Automatisierung betrieblicher Prozesse bis hin zu einer umfassenden digitalen Transformation des gesamten Unternehmens.
Unternehmen im B2B und B2C stehen zunehmend vor der Herausforderung etablierte Geschäftsmodelle zu überdenken und die Integration neuer Kommunikations- und Vertriebskonzepte in Erwägung zu ziehen. Doch fehlt es zumeist an „digitalen Kompetenzen“, welche in Form neuer Mitarbeiter und Mitarbeiterinnen eingestellt bzw. durch die Hinzuziehung von Dienstleistern eingekauft werden müssen. Diese benötigen aber zunächst Zeit das Selbstverständnis, die Kultur und Vision des betreffenden Unternehmens zu erfassen.
Mit der zunehmenden Verbreitung des Internets und beginnenden Digitalisierung wurde es für Unternehmen einfacher, sich für Innovationen nach außen zu öffnen. Der Gedanke der Open Innovation erhielt in immer mehr Unternehmen Einzug. Dies auch vor dem Hintergrund, dass es immer schwieriger wird, einem Kunden das richtige Produkt, das seinen Wünschen entspricht, anzubieten und sich dabei noch von der Konkurrenz abzugrenzen.
Dieses Buch verspricht unter dem Titel „… Wie Unternehmen den Wandel meistern“ Antworten zu geben, aber: Prognosen sind schwierig, vor allem, wenn sie die Zukunft betreffen. Dieses mal Winston Churchill, mal Kurt Tucholsky oder anderen zugeschriebene Zitat macht deutlich, dass jeder Unternehmer – Geschäftsführer, Vorstandsmitglied, Inhaber – die Notwendigkeit des Wandels für sich selbst erkennen und diesen zum richtigen Zeitpunkt in angemessenem Umfang einleiten muss. Dabei besteht die Gesamtheit aller betrieblichen Tätigkeiten zu einem ganz wesentlichen Teil aus Projekten und auch der (mehr oder weniger technologiegetriebene) Wandel des Unternehmens selbst wird ein Projekt sein.
Die voranschreitende Digitalisierung ist ein Enabler für Business Analytics wodurch sich wiederum ein weiteres Innovationspotenzial durch dessen Nutzung in der datengetriebenen betrieblichen Entscheidungsunterstützung ergibt. Die Herausforderung besteht nun darin, bereits bei der Planung eines Digitalisierungsprojektes das Potenzial für weitergehende Business Analytics-Anwendungen zu erkennen, um dieses auszuschöpfen. Dabei spielen weniger die Methodenspezialisten, sondern eher die Entscheider in den Fachabteilungen die zentrale Rolle.
Führungskräfte deutscher Unternehmen sehen sich gegenwärtig zwei branchenübergreifenden Anforderungen gegenüber: Innovationen und Digitalisierung. Handelt es sich bei Innovationen um ein wissenschaftlich gut durchdrungenes Thema, zeichnen sich die neuen Möglichkeiten der Digitalisierung erst in Umrissen ab. Einig ist man sich darin, dass die Digitalisierung nicht nur einen bestimmten Unternehmensteil betrifft, sondern das ganze Unternehmen übergreift. So eröffnet sie nicht nur neue Möglichkeiten für einzelne Teilfunktionen, sondern auch Verbesserungen bei funktionsübergreifenden Aufgaben. Wie diese genutzt werden können, zeigen die Autoren und Autorinnen dieses Sammelbandes. Sie präsentieren neue Denkansätze und konkrete Entscheidungshilfen für Unternehmen, die in einer digitalen Wirtschaft innovativ bleiben wollen.
Lenkung von Innovationen
(2020)
Im Februar 2018 meldet das Manager Magazin, das sich immer mehr Manager von fragwürdigen Digitalisierungsexperten beraten lassen und viel Geld damit verbrennen. Geht es um das große Zukunftsthema, sitzt das Portemonnaie augenscheinlich locker. „Wenn Sie ein Budget durchdrücken wollen, schreiben Sie einfach ‚digital‘ an Ihr Projekt“, sagt Bayer-Vorstandschef Werner Baumann und macht indirekt deutlich, welche Defizite es vielerorts bei der Lenkung von Innovationen gibt.
Der Titel „Organisatorische Entscheidungen treffen!“ führt in grundlegende Fragen der Organisation ein. Erläutert wird, woraus eine Organisation besteht und wie man sie durch gezielte Entscheidungen an die Bedürfnisse des Unternehmens anpasst. Die allgemeingültigen Aussagen werden durch zahlreiche konkrete Beispiele illustriert.
Das Buch konzentriert sich auf die wichtigsten Aspekte der organisatorischen Gestaltung. Es möchte daher nicht mit den Grundlagenwerken der Organisationslehre konkurrieren, vielmehr begleitet es eine Lehrveranstaltung, deren Stil sich ständig zwischen Vorlesung und Übung abwechselt. Die Übungsaufgaben, die im Unterricht behandelt werden, stehen auch online zur Verfügung und sind dort um Musterlösungen ergänzt. Darüber hinaus gibt es in der Online-Lernumgebung eine Musterklausur, die der zielgerichteten Prüfungsvorbereitung dient.
Wer das Buch sorgfältig durcharbeitet, den Lehrstoff auf die Übungsaufgaben anwendet und die Probeklausur besteht, erwirbt ein solides Grundlagenwissen und ist damit gut vorbereitet, organisatorische Fragen zu analysieren und entsprechende Entscheidungen vorzubereiten.
Unternehmerische Entscheidungen sind im Regelfall riskant. Um das Ausmaß des Risikos deutlich zu machen, hat sich in der Praxis die Anfertigung von Szenarioanalysen durchgesetzt. Damit jedoch werden vorliegende Risiken systematisch unterschätzt. Bei wichtigen Entscheidungen sollte besser eine Sensitivitätsanalyse oder eine Simulation durchgeführt werden.
Bei bimodaler Cochlea-Implantat-/Hörgerät-Versorgung kann es aufgrund seitenverschiedener Signalverarbeitung zu einer zeitlich versetzten Stimulation der beiden Modalitäten kommen. Jüngste Studien haben gezeigt, dass durch zeitlichen Abgleich der Modalitäten die Schalllokalisation bei bimodaler Versorgung verbessert werden kann. Um solch einen Abgleich vornehmen zu können, ist die messtechnische Bestimmung der Durchlaufzeit von Hörgeräten erforderlich. Kommerziell verfügbare Hörgerätemessboxen können diese Werte häufig liefern. Die dazu verwendete Signalverarbeitung wird dabei aber oft nicht vollständig offengelegt. In dieser Arbeit wird ein alternativer und nachvollziehbarer Ansatz zum Design eines simplen Messaufbaus basierend auf einem Arduino DUE Mikrocontroller-Board vorgestellt. Hierzu wurde ein Messtisch im 3D-Druck gefertigt, auf welchem Hörgeräte über einen 2-ccm-Kuppler an ein Messmikrofon angeschlossen werden können. Über einen Latenzvergleich mit dem simultan erfassten Signal eines Referenzmikrofons kann die Durchlaufzeit von Hörgeräten bestimmt werden. Frequenzspezifische Durchlaufzeiten werden mittels einer Kreuzkorrelation zwischen Ziel- und Referenzsignal errechnet. Aufnahme, Ausgabe und Speicherung der Signale erfolgt über einen ATMEL SAM3X8E Mikrocontroller, welcher auf dem Arduino DUE-Board verbaut ist. Über eigens entworfene elektronische Schaltungen werden die Mikrofone und der verwendete Lautsprecher angesteuert. Nach Abschluss einer Messung (Messdauer ca. 5 s) werden die Messdaten seriell an einen PC übertragen, auf dem die Datenauswertung mittels MATLAB erfolgt. Erste Validierungen zeigten eine hohe Stabilität der Messergebnisse mit sehr geringen Standardabweichungen im Bereich weniger Mikrosekunden für Pegel zwischen 50 und 75 dB (A). Der Messaufbau wird in laufenden Studien zur Quantifizierung der Durchlaufzeit von Hörgeräten verwendet.
Konstrukteure im Maschinenbau stehen häufig vor der Problemstellung, hochfest vorgespannte Schraubenverbindungen und einen durchgehenden Korrosionsschutz zu vereinen. Die Normen und Richtlinien bieten hierzu Stand heute keine ausreichenden Antworten. Die Hochschule Offenburg befasst sich im Rahmen einer industriellen Gemeinschaftsforschung mit der Fragestellung, welchen Einfluss organische Beschichtungen auf die Vorspannkraft insbesondere bei erhöhten Umgebungstemperaturen haben. In dieser Arbeit werden die ersten Ergebnisse zum Einfluss der Einzelschichtstärke des Beschichtungssystems präsentiert.
The age of globalisation is characterised by increased competition. An opportunity to succeed in the face of increasing competition lies in the digitisation of production companies. This article is dedicated to the design of a three-stage model platform of Industry 4.0, which focuses on the consistency of processes from the customer to the supplier at all company levels. The model platform is followed by an overview of the transformation steps for evaluating and shaping progress on the way to become a digitised production company.