Refine
Year of publication
- 2021 (108) (remove)
Document Type
- Part of a Book (33)
- Article (unreviewed) (15)
- Article (reviewed) (11)
- Other (11)
- Report (10)
- Conference Proceeding (8)
- Contribution to a Periodical (8)
- Book (7)
- Patent (3)
- Doctoral Thesis (2)
Conference Type
- Konferenzartikel (7)
- Konferenz-Poster (1)
Language
- German (108) (remove)
Has Fulltext
- no (108) (remove)
Is part of the Bibliography
- yes (108)
Keywords
- Datenqualität (6)
- Kundendaten (6)
- Datenmanagement (5)
- Künstliche Intelligenz (5)
- Maschinelles Lernen (4)
- Regelungstechnik (4)
- Social Media (4)
- TABS (4)
- Corporate Governance (2)
- Handprothese (2)
Institute
- Fakultät Medien (M) (ab 22.04.2021) (34)
- Fakultät Wirtschaft (W) (28)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (20)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (16)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (12)
- INES - Institut für nachhaltige Energiesysteme (6)
- POIM - Peter Osypka Institute of Medical Engineering (6)
- ACI - Affective and Cognitive Institute (2)
- IMLA - Institute for Machine Learning and Analytics (1)
- WLRI - Work-Life Robotics Institute (1)
Open Access
- Closed Access (79)
- Open Access (27)
- Bronze (7)
- Closed (1)
- Diamond (1)
MINT-College TIEFE
(2021)
Das Projekt MINT-College TIEFE konnte in der zweiten Förderperiode die verschiedenen Maßnahmen der vorangegangenen Förderperiode weiter ausbauen und verstetigen. Die Angebote im Rahmen des Projekts MINT-College TIEFE begleiteten die Studierenden über den Student-Life-Cycle hinweg über das komplette Studium der technischen Studiengänge, beginnend in der Schule und endend beim Übergang in den Beruf. Um die Qualität der Lehre an der Hochschule Offenburg zu verbessern, wurden darüber hinaus verschiedene digital unterstützte Lehrformate weiterentwickelt und ausgebaut. Zentrale Angebote des MINT-College, das 2019 zentrale Einrichtung der Hochschule Offenburg wurde, sind die für die Studieneingangsphase entwickelten Angebote der Einführungstage, des Mentorenprogramms, der Brückenkurse, des Lernzentrums und Angebote für den Übergang in den Beruf, wie das Gründerbüro. Die mediendidaktischen Unterstützungsangebote für Lehrende unterstützten den Lernkulturwandel an der Hochschule. Es wurden systematisch nachhaltige Strukturen aufgebaut, um Innovationen für das Lehren und das Lernen auch künftig entwickeln, erproben und etablieren zu können.
Sowohl die Entwicklung neuer als auch die Weiterentwicklung bestehender Quartiere sind mit vielfältigen Herausforderungen verbunden. Durch weitere Klimaschutzmaßnahmen und ein zunehmendes Umweltbewusstsein steigen die energetischen Anforderungen an Wohn- und Gewerbeimmobilien. Die besonders für Deutschland ungünstige demografische Entwicklung bedingt eine weiter zunehmende Urbanisierung, bedingt durch Migration und Zuzug älterer Menschen in Städte, die künftig noch mehr altersgerechte Wohnungen und Pflegeeinrichtungen etablieren müssen. Hinzu kommen die steigenden Anforderungen aus der digitalen Transformation und einer Informationsgesellschaft, die sich mit Konnektivität, Schnelllebigkeit, Individualisierungstendenzen und veränderten Konsumgewohnheiten auseinandersetzen muss.
Ziel der Investitionsmaßnahme Enerlab 4.0 war die Bereitstellung einer umfangreichen in-operando und post-mortem Diagnostik für dezentrale Energieerzeuger und -Speicher, z. B. Batteriezellen und Photovoltaikzellen. Diese sind wichtige Komponenten für verschiedene Bereiche der Industrie 4.0 – von autonomen Sensoren über energieautarke Produktion bis hin zur Qualitätskontrolle. Zu diesem Zweck wurde die apparative Ausstattung der Hochschule Offenburg erweitert, und zwar sowohl für in-operando Diagnostik (elektrische Zyklierer, Impedanzspektrometer, Temperaturprüfschränke) als auch für post-mortem Diagnostik (Glovebox, Probenpräparationen für vorhandene Werkstoffanalytik und chemische Analytik). Be-reits vorhandene Geräte aus anderen laufenden oder abgeschlossenen Projekten wurden in die neue Infrastruktur integriert. Im Ergebnis entstand ein modernes und leistungsfähiges Batterie- und Photovoltaiklabor, welches in zahlreichen laufenden und neuen Vorhaben genutzt wird.
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Bestimmung des Ladezustandes (SOC) einer aufladbaren Batterie (106) eines vorgegebenen Batterietyps oder eines damit in einem physikalischen Zusammenhang stehenden Parameters, insbesondere einer in der Batterie enthaltenen Restladungsmenge Q, wobei das Verfahren mittels eines spannungsgeführten Batteriemodells (102) arbeitet, welches für die betreffende Batterie (106) oder einen entsprechenden Batterietyp parametriert wird. Es muss lediglich die Batteriespannung Umess gemessen und dem Batteriemodell (102) als Eingangsgröße zur Verfügung gestellt werden. Weiterhin betrifft die Erfindung ein Verfahren und eine Vorrichtung zur Bestimmung des Gesundheitszustandes (SOH) einer Batterie (102), wobei das Batteriemodell (102), das auch zur Bestimmung des SOC verwendet wird, einen modellierten Batteriestrom Imodliefert. Aus diesem können modellierte Ladungsmengen während Lade- und Entladephasen der Batterie (106) bestimmt und mit gemessenen Ladungsmengen, die aus dem gemessenen Batteriestrom Imessbestimmt werden, verglichen werden. Da das Batteriemodell (102) nicht altert, kann hierdurch der SOH der Batterie bestimmt werden.
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Bestimmung des Ladezustandes (SOC) einer aufladbaren Batterie (106) eines vorgegebenen Batterietyps oder eines damit in einem physikalischen Zusammenhang stehenden Parameters, insbesondere einer in der Batterie enthaltenen Restladungsmenge Q, wobei das Verfahren mittels eines spannungsgeführten Batteriemodells (102) arbeitet, welches für die betreffende Batterie (106) oder einen entsprechenden Batterietyp parametriert wird. Es muss lediglich die Batteriespannung Umess gemessen und dem Batteriemodell (102) als Eingangsgröße zur Verfügung gestellt werden. Weiterhin betrifft die Erfindung ein Verfahren und eine Vorrichtung zur Bestimmung des Gesundheitszustandes (SOH) einer Batterie (102), wobei das Batteriemodell (102), das auch zur Bestimmung des SOC verwendet wird, einen modellierten Batteriestrom Imodliefert. Aus diesem können modellierte Ladungsmengen während Lade- und Entladephasen der Batterie (106) bestimmt und mit gemessenen Ladungsmengen, die aus dem gemessenen Batteriestrom Imessbestimmt werden, verglichen werden. Da das Batteriemodell (102) nicht altert, kann hierdurch der SOH der Batterie bestimmt werden.
Im Rahmen des Forschungsvorhabens GeoSpeicher.bw wurden mehrere Demostandorte in Baden-Württemberg intensiv durch die Projektpartner untersucht bzw. begleitet. Die Forschungsergebnisse zeigen, dass bestehende Geothermieanlagen gut funktionieren und durch den Betrieb auch klimaschädliche Gasemissionen eingespart werden können. Leider konnte im Rahmen des Vorhabens kein Demoprojekt für einen Aquiferspeicher am städtischen Klinikum Karlsruhe oder auch am Campus Nord des Karlsruhe Instituts für Technologie (KIT) trotz des Nachweises der effektiven Kostenersparnisse und CO2-Einsparungen verwirklicht werden.
Sollte sich die Aquiferspeichertechnologie in Baden-Württemberg etablieren, müsste unbedingt ein Demoprojekt für einen flachen Niedrigtemperatur-Aquiferspeicher entwickelt und gefördert werden. Die Rahmenbedingungen für solch einen Aquiferspeicher wären am Campus Nord grundsätzlich gegeben. Dieser Nachweis wurde durch zahlreiche Untersuchungen im Rahmen von GeoSpeicher.bw eindeutig erbracht.
Energiemanagement im Betrieb
(2021)
Dieses Fachbuch gibt einen vertieften Einblick in das dynamische Verhalten von thermoaktiven Bauteilsystemen. Es wird eine neu entwickelte und vielfach erprobte, selbstlernende und vorausschauende TABS-Steuerung vorgestellt. Dazu wird auf die Erfordernisse einer effektiven TABS-Steuerung eingegangen und die Grundlagen und Funktionsweise der neu entwickelten AMLR-Steuerung erläutert. Anhand mehrerer Anwendungsbeispiele wird die Umsetzung in die bauliche Praxis erläutert und mit Hilfe von umfangreichen Messergebnissen die Funktion der neuen AMLR-Steuerung nachgewiesen. Abschließend werden Empfehlungen für die Anwendung von AMLR in der baulichen TABS-Praxis hinsichtlich Anlagenhydraulik und Umsetzung in der Gebäudeautomation gegeben.
Über zwei Jahrzehnte hat sich an der Hochschule Offenburg im Umfeld von Professor Elmar Bollin eine Forschungsgruppe etabliert, die die Bereiche Gebäudeautomation und nachhaltige Energietechnik zusammenführten. Anfänglich ging es darum die Potenziale der internetbasierten Wetterprognostik und modell-basierten Anlagensteuerung für die Verbesserung des Komforts und der Energieeffizienz im Gebäude zu nutzen. Im Rahmen von Forschungs- und Entwicklungsarbeiten mit Einsatz von dynamischen Gebäudesimulationen konnte schließlich ein Algorithmus gefunden werden, der es ermöglichte auf Basis von prognostizierter Außentemperatur und Sonneneinstrahlung den Energiebedarf eines Bürogebäudes für den Folgetag vorherzusagen. In Verbindung mit der Gebäudeautomation entstand so die adaptive und prädiktive TABS-Steuerung AMLR.
Über zwei Jahrzehnte hat sich an der Hochschule Offenburg eine Forschungsgruppe etabliert, die die beiden Bereiche Gebäudeautomation und nachhaltige Energietechnik zusammenführte. Anfangs ging es darum, Potentiale der internetbasierten Wetterprognostik und modell-basierten Anlagensteuerung für die Verbesserung des Komforts und der Energieeffizienz im Gebäude zu nutzen. Im Rahmen von Forschungs- und Entwicklungsarbeiten mit Einsatz von dynamischen Gebäudesimulationen konnte ein Algorithmus gefunden werden, der es ermöglichte auf Basis von prognostizierter Außentemperatur und Sonneneinstrahlung den Energiebedarf eines Bürogebäudes für den Folgetag vorherzusagen. In Verbindung mit der Gebäudeautomation entstand so die adaptive und prädiktive TABS-Steuerung AMLR.
In die neuen Verfahren, wie Big Data, Machine Learning und Predictive Analytics, werden von Marketing und Vertrieb hohe Erwartungen gesetzt. Doch dem „Garbage in – Garbage out“-Prinzip folgend lassen die Ergebnisse zu wünschen übrig. Grund hierfür ist häufig eine nicht ausreichende Qualität in den zugrunde liegenden Kundendaten. Dieser Beitrag beleuchtet diese Problematik anhand der Wert-Pyramide. Je weiter oben die Daten in der Wertschöpfungskette angesiedelt sind, desto höher ist deren Qualität und umso mehr Wert haben sie für das Unternehmen. Darüber hinaus wird aufgezeigt, wie sich mit Hilfe von Monitoring-Systemen, wie einer Datenqualitäts-Scorecard, Aussagen zur Datenqualität treffen und Verbesserungen derselben messen lassen. So wird der tatsächliche Wert von Daten für Unternehmen ersichtlich.
Duplikaterkennung, -suche und -konsolidierung für Kunden- und Geschäftspartnerdaten, sog. „Identity Resolution“, ist die Voraussetzung für erfolgreiches Customer Relationship Management und Customer Experience Management, aber auch für das Risikomanagement zur Minimierung von Betrugsrisiken und Einhaltung regulatorischer Vorschriften und viele weitere Anwendungsfälle. Diese Systeme sind jedoch hochkomplex und müssen individuell an die kundenspezifischen Anforderungen angepasst werden. Der Einsatz lernbasierter Verfahren bietet großes Potenzial zur automatisierten Anpassung. In diesem Beitrag präsentieren wir für ein KMU praxisfähige, lernbasierte Verfahren zur automatischen Konfiguration von Business-Regeln in Duplikaterkennungssystemen. Dabei wurden für Fachanwender Möglichkeiten entwickelt, um beispielgetrieben das Match-System an individuelle Business-Regeln (u.a. Umzugserkennung, Sperrlistenabgleich) anzupassen und zu konfigurieren. Die entwickelten Verfahren wurden evaluiert und in einer prototypischen Lösung integriert. Wir konnten zeigen, dass unser Machine-Learning-Verfahren, die von einem Domainexperten erstellten Business-Regeln für das Duplikaterkennungssystem „identity“ verbessern konnte. Zudem konnte der hierzu erforderliche Zeitaufwand verkürzt werden.
Die Mehrheit der deutschen Unternehmen verspricht sich aus KI-gestützter Datenanalyse einen großen Geschäftsvorteil. Doch gerade das Thema Datenbestand ist eine der größten, immer noch häufig unterschätzten Hürde beim Trainieren und Einführen von KI-Algorithmen. Im Folgenden sind vier konkrete Erfahrungen und Tipps für KI- & Datenanalyseprojekte in Unternehmen aufgeführt.
Datenanalyse mithilfe von Künstlicher Intelligenz (KI) – für 70 Prozent der von den Beratern von PWC befragten Unternehmen ist dies das vielversprechendste Einsatzszenario. Doch so attraktiv die Vision erscheint, mittels KI das eigene Geschäft oder gar eine ganze Branche zu revolutionieren, so handfest sind die Herausforderungen, die sich in der Praxis ergeben. Ein häufiges Problem ist ein bereits beim Start eines Projekts mangelhafter Datenbestand. Die KI mit qualitativ schlechten Daten zu trainieren, macht keinen Sinn, da sie falsche Informationen lernt. Ohne den Einsatz gewisser Automatisierungen und KI ist es wiederum mühsam, die unzureichende Datenbasis zu verbessern.
Eine Frage der Qualität
(2021)
Künstliche Intelligenz (KI) kommt laut einer Interxion-Studie bei 96 Prozent der Schweizer Unternehmen zum Einsatz. Allerdings gaben nur 22 Prozent der Schweizer IT-Entscheider an, dass sie KI bereits für einen ersten Anwendungsfall einsetzen. Dabei ist KI etwa im Datenmanagement sehr hilfreich – sofern Qualität und Quantität der Trainingsdaten stimmen.
Onlineshops in Deutschland verschenken sehr viel Potenzial im Registrierungs- und Bestellprozess. Dabei lässt sich mit wenigen gezielten Verbesserungen der Checkout barrierefrei und smart gestalten. Zu diesem Ergebnis kommt eine heuristische Untersuchung der Top 100 Onlineshops von Uniserv gemeinsam mit der Hochschule Offenburg. Die Eingabe und Qualität von Adressdaten spielen dabei eine besondere Rolle.
SchulverwaltungSpezial
(2021)
Die Corona-Krise ist eine Herausforderung, bei der Schulleitungen nicht nur im Rahmen des Krisenmanagements und insbesondere der Krisenkommunikation gefordert sind, sondern darüber hinaus, ausgehend von der akuten Krisenbewältigung, auch ein proaktives Risikomanagement vornehmen müssen. Die Prinzipien Klarheit, Transparenz und Partizipation sowie die günstige Kombination von Zentralität und Dezentralität im Rahmen des Krisenmanagements sind die Voraussetzung für den Übergang in ein strategisch orientiertes proaktives Transformationsmanagement.
Im Jahr 2020 sollten für den Zeitungssektor im Rahmen der coronabedingten Neuordnung der Bundesförderungen40 Mio. Euro für die Zustellförderung bereitgestellt werden. Im Rahmen der kontroversen Diskussion um diese direkte staatliche Förderung der Zeitungsbranche wandelte sich die geplante Förderung in ein 220 Mio. Euro-Pogramm zur Unterstützung der digitalen Transformation von Presseverlagen (Deutscher Bundestag 2020c). Im April 2021 erklärte das Bundeswirtschaftsministerium die geplante 220-Millionen-Presseförderung für gescheitert – es wolle das Hilfspaket „nach intensiver Prüfung“ nicht weiterverfolgen. Der vorliegende Beitrag gibt Einblick in die kontroverse Diskussion um die Frage einer direkten staatlichen Pressförderung und stellt sie in den Kontext der wirtschaftlichen und medienpolitischen Kernfrage, „wie sich publizisitsche Inhalte in Zeiten der Disruption etablierter Geschäftsmodelle noch finanzieren lassen“ (Jarren, Künzler & Puppis 2019: 421).
Social Media und die Kommentarmöglichkeiten auf lokalen, redaktionellen digitalen Plattformen sind nicht nur eine Chance für die zielgerichtete Kommunikation von Städten und Gemeinden, sondern auch eine Herausforderung, insbesondere im kontroversen kommunalpolitischen Alltag. Die Dialogmöglichkeiten haben die Möglichkeiten der Bürger*innen gestärkt, sich mit ihren Interessen, Anliegen und Meinungen Gehör zu verschaffen und die von der Verwaltung und den politischen Akteuren gesetzten Themen zu diskutieren und zu hinterfragen. Nicht immer findet hier in der kommunalen Praxis jedoch ein positiver und sachorientierter Dialog statt, so dass es gerade in der Kleinräumigkeit des kommunalen Geschehens auch zu sehr unangenehmen Szenarien kommen kann. Dies beruht dann meist auf einem unterschiedlichen Rollenkonzept der Akteure bis hin zu Abweichungen im Demokratieverständnis. Daher soll hier zunächst das Prinzip der repräsentativen Demokratie in Abgrenzung zu populistischen Rollenverständnissen dargestellt werden, bevor die konkreten Kommunikationsthemen analysiert werden.
Social-Media-Kanäle spielen nicht nur für die Kommunikation von kommunalen Gremien, sondern vor allem im Wahlkampf für kommunale Spitzenämter eine besondere Rolle und erfordern die Berücksichtigung der Grundsätze authentischer Kommunikation.
Bevor man der Frage nachgeht, wie und in welcher Form am besten unterschiedliche Social-Media-Kanäle für die Kommunikation kommunaler Themen eingesetzt werden und somit ein wirksames Tool für die Interaktion der Kommunen mit ihren spezifischen Zielgruppen darstellen können, muss man sich ein paar generelle Gedanken machen, welche Stakeholder und Zielgruppen überhaupt auf diesem Weg bei welchen Themenkategorien erreichbar sind. Gerade aktuelle Fälle wie die Kommunikation während der Corona-Krise zeigen, wie man im Rahmen der Mediaplanung digitale Kanäle in das Gesamtspektrum der Kommunikationskanäle einordnen kann.
Medienmarketing-Controlling
(2021)
Dieses Kapitel beschäftigt sich mit dem Controlling im Rahmen des Medienmarketings und zeigt damit die Strukturen auf, mit denen im Medienunternehmen Marketingprozesse verankert sind und nach welchen Zielgruppen, Märkten und Kennzahlen die Steuerung dieser Marketingaufgaben erfolgt. In Medienunternehmen ist Marketing in der Regel einer der erfolgsentscheidenden Funktionsbereiche, der daher einer detaillierten und permanenten Begleitung und Steuerung nicht nur durch die Fachinstanzen, sondern auch durch das Top-Management bedarf. Gleichzeitig sind Medienunternehmen in vielen Fällen auch publizistische Unternehmen, die neben der kennzahlenorientierten Ausrichtung an den Markt- und Kundenbedürfnissen einer inhaltlichen Leitidee folgen und dadurch in vielen Fällen erst in der Lage sind, tatsächlich neue und überdurchschnittlich erfolgreiche Produkte zu etablieren. Zugleich wird es seit der Jahrtausendwende durch die Transformation und Disruption der Medienmärkte zunehmend schwieriger, Marktsegmente und Medienunternehmen von anderen Branchensegmenten abzugrenzen. Die medienökonomischen Besonderheiten führen zu einer Steigerung der Marktdynamik (beispielsweise durch die Interdependenz von Werbe- und Rezipientenmarkt), sodass den unterschiedlichen Performance-Kennziffern in den vier Hauptfeldern des klassischen Marketingmixes hier eine besondere Bedeutung zukommt.
IoT-Plattformen stellen ein zentrales Element für die Vernetzung von physischen Objekten und die Bereitstellung deren Daten für digitale Zwillinge dar. Der Markt für solche Plattformen ist in den vergangenen Jahren stark gewachsen. Bei inzwischen über 600 Anbietern ist die Wahl der „richtigen“ Plattform für das eigene Unternehmen keine triviale Aufgabe mehr. Dieser Beitrag soll Unternehmen im Auswahlprozess unterstützen, indem gängige Funktionen von IoT-Plattformen und Kriterien für die Auswahl von IoT-Plattformen aufgezeigt werden.
Herzfehler sind weltweit die häufigste Form von angeborenen Organdefekten. In unterschiedlichen Studien wird die Inzidenz zumeist zwischen vier und elf von 1.000 Lebendgeburten angegeben (1–5). Im Rahmen der multizentrischen PAN-Studie (PAN: Prävalenz angeborener Herzfehler bei Neugeborenen), welche die Häufigkeit angeborener Herzfehler bei Neugeborenen in Deutschland zwischen Juli 2006 und Juni 2007 untersuchte, ergab sich eine Gesamtprävalenz von 107,6 pro 10.000 Lebendgeburten. Gegenstand dieser Arbeit sind Untersuchungen an Implantaten zur Behandlung von Atriumseptumdefekten (ASD). Vorhofseptumdefekte machen mit 17,0%, nach den Ventrikelseptumdefekten (VSD) mit 48,9%die zweithäufigste Art von Herzfehlern aus (6, 7).Als Vorhofseptumdefekte werden Öffnungen in der Scheidewand zwischen den Herzvorhöfen bezeichnet. Bei der Therapie eines ASD ist der minimalinvasive Verschluss mittels sogenannter Okkluder heute das Mittel der Wahl. Diese werden über einen femoralen Zugang im Rahmen einer Herzkatheteruntersuchung unter Ultraschallkontrolle und Durchleuchtung an die Implantationsstelle vorgeschoben und dort platziert(8). Die Okkluder bestehen in der Regel aus einem Drahtgeflecht aus Nitinol und haben die typische Form eines sogenannten Doppelschirmchens. Dabei weichen die unterschiedlichen Okkluder der einzelnen Firmen hinsichtlich Form und Beschaffenheit oft erheblich voneinander ab. Derzeit gibt es keine Untersuchungsmethode, die die auf dem Markt befindlichen Okkluder hinsichtlich ihrer mechanischen Eigenschaften vergleichbar macht. Diese Arbeit solleinen Beitrag erbringen, um grundlegende, die Okkludermodelle charakterisierende Parameter zu schaffen, um so deren interindividuelle Vergleichbarkeit zu ermöglichen. Hierzu werden in-vitro Messungen durchgeführt, welche geeignet sind das Verhalten der untersuchten Modelle unter unterschiedlichen Bedingungen und bei variierenden Defektgrößen zu charakterisieren.
Die Serie Kurzes Tutorium Statistik bemüht sich primär um die Vermittlung des Sinnes statistischer Methoden. Die Gestaltung der auf YouTube veröffentlichten Lernvideos folgt der Idee, dass anhand einer einfachen, alltäglichen Problemstellung ein praktisches Verständnis konkreter quantitativer Lösungsansätze besonders gut erzeugt werden kann. Studierende sollen hierdurch motiviert werden, sich intensiv mit den behandelten Verfahren auseinanderzusetzen. In dem Beitrag werden die Rahmenbedingungen und die grundlegende Konzeption des „Kurzen Tutoriums Statistik“ erläutert sowie die konkrete Umsetzung des Videos zu Streumaßen exemplarisch vorgestellt.
Wie entscheiden Helden?
(2021)
Der verstärkte Einsatz von Wärmepumpen bei der Realisierung einer klimaneutralen Wärmeversorgung führt zu einer signifikanten Zunahme und Änderung der elektrischen Lasten in den Verteilnetzen. Daher gilt es, Wärmepumpen so zu steuern, dass sie Verteilnetze wenig belasten oder sogar unterstützen.
Inhalt des Projekts „PV²WP - PV Vorhersage für die netzdienliche Steuerung von Wärmepumpen“ (Projektlaufzeit 1.07.2018 – 30.06.2021) war die Demonstration eines neuen Ansatzes zur Steuerung von Heizungssystemen, die auf Wärmepumpen und thermischen Speichern basieren und in Kombination mit einer Photovoltaikanlage betrieben werden. Das übergeordnete Ziel war dabei die Verbesserung der Netzintegration und Smart-Grid-Tauglichkeit entsprechender Heizungssysteme durch eine kostengünstige Technologie bei gleichzeitiger Erhöhung der Wirtschaftlichkeit.
Dabei wurden drei zukunftsweisende Technologien in Kombination genutzt und demonstriert: wolkenkamerabasierte Kurzfristprognosen, prädiktive Steuerung und Regelung sowie machinelearning-basierte Systemmodellierung als Basis für die Optimierung. Als Demonstrationsumgebung diente mit dem Projekthaus Ulm ein real bewohntes Einfamilienhaus.Umweltforschung
Datenanalysen gibt es schon immer, auch wenn statistische Verfahren, Optimierungsmodelle, Regressionsanalysen oder Zeitreihenmodelle in allen möglichen Publikationen neu aufbereitet und unter dem Titel Business Analytics verkauft werden. Der entscheidende Unterschied liegt jedoch darin, dass heute größere und vor allem andere Datenmengen sowie leistungsfähigere Verarbeitungs- und Speicherkapazitäten zur Verfügung stehen, die zusammen mit bestehenden und neu entwickelten Methoden erhebliche Einsichten ermöglichen. Erfolgversprechend sind Ansätze, die eine komplette Einbettung von Business Analytics in den strategischen Managementprozess garantieren und die optimale Ausschöpfung operationaler Exzellenz über ein Alignment ermöglichen. Die funktionale Perspektive bildet hier das Marketing mit einer konkreten Betrachtung der Kundenloyalität und deren Profitabilität. Dieser Zusammenhang wird über ein Monte-Carlo Simulationsmodell hergestellt. Das darf aber nicht darüber hinwegtäuschen, dass die Breite und die Tiefe der Methoden erheblich sind, vermehrt zu Spezialisierungen führen und andere Analyse-Optionen zur Wahl stehen. Letztendlich müsste es aber deutlich werden, dass das Thema Business Analytics technologische, Domain-spezifische, methodologische und methodische Kenntnisse erfordert, die selten nur durch eine Person erbracht werden können.
Verantwortung in Unternehmen zu übernehmen bedeutet, jeden Tag Unsicherheiten zu akzeptieren und damit umzugehen. Aus diesem Grund bemühen sich Wissenschaft und Praxis um Theorien, Methodologien und Methoden, um dieses Bedürfnis zu unterstützen. Das mittlerweile sehr ausdifferenzierte Feld der Futures Studies ist geprägt von epistemologischen Grundannahmen, die in die theoretischen Positionen hineinragen. Bezüglich der theoretischen Positionen und den methodologischen Rahmen ist danach zu fragen, worauf diese ausgerichtet sind. Geht es nur um Darstellungen oder um bestimmte Vorstellungen, die erreicht werden sollen? Auch die Wahl der Methode, hier konkret die Szenario-Technik, wird davon beeinflusst. Der Rahmen ist damit klar, aber die konkrete Ausgestaltung muss geklärt werden. Das Ziel dieses Beitrags ist es, diese Differenzierung herauszuarbeiten und am Ende mittels zwei Methoden zu erläutern.
Der zielorientierte Umgang mit Risiken im Rahmen digitalwirtschaftlicher Ökosysteme sowie die Abschwächung von Effekten aus Ereignissen, die möglicherweise frühzeitig erkannt werden können, unterstützen Unternehmen im Rahmen der Geschäftstätigkeit. Die Anwendung von Standards, wie beispielsweise des COSO-Rahmenwerks, hilft dabei, die wirtschaftlichen Aktivitäten mit der Risikolandschaft integrativ zu vernetzen. Jedoch bedingen neue Geschäftsmodelle immer neue Risiken, die sich nicht nur aus der Geschäftstätigkeit ergeben, sondern auch das Ergebnis globaler Entwicklungen sein können. Obwohl ein optimal ausgestaltetes und praktiziertes Risikomanagement niemals die Bedrohungen zu 100 % beherrschen kann, sollte es doch die Zielsetzung sein, die Probleme so weit wie möglich zu antizipieren. Aus diesem Grund widmet sich dieser Beitrag den Aspekten Früherkennung, Emergenz und Hyperkonnektivität von Risiken. Im Zusammenhang mit existierenden Risikomanagementpraktiken soll erreicht werden, dass den neuen Gegebenheiten stärker Rechnung getragen wird.
Die Entwicklung der Cyber-Bedrohungslandschaft zwingt Unternehmen zur Auseinandersetzung mit neuen funktionalen Herausforderungen. Da sich die Angriffsoberflächen genauso dynamisch verändern wie die Taktiken und Techniken, sollte die Corporate Governance für ein integratives Cyber-Risikomanagement sorgen, um das Cybersicherheitsmanagement differenziert einzubetten. Dadurch leistet die Corporate Governance einen Beitrag zur Steigerung der Cyber-Resilienz.
Organisation
(2021)
Internet-Auktionsvertrag
(2021)