Refine
Year of publication
- 2021 (241) (remove)
Document Type
- Bachelor Thesis (91)
- Part of a Book (34)
- Master's Thesis (16)
- Contribution to a Periodical (15)
- Article (unreviewed) (15)
- Article (reviewed) (14)
- Other (11)
- Conference Proceeding (10)
- Report (10)
- Working Paper (10)
Conference Type
- Konferenzartikel (8)
- Konferenz-Poster (1)
- Konferenzband (1)
Language
- German (241) (remove)
Keywords
- Datenqualität (6)
- Kundendaten (6)
- Künstliche Intelligenz (6)
- Datenmanagement (5)
- Marketing (5)
- Maschinelles Lernen (5)
- Regelungstechnik (5)
- Schluckspecht (5)
- Social Media (5)
- JavaScript (4)
Institute
- Fakultät Medien (M) (ab 22.04.2021) (72)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (54)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (49)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (39)
- Fakultät Wirtschaft (W) (30)
- INES - Institut für nachhaltige Energiesysteme (12)
- POIM - Peter Osypka Institute of Medical Engineering (6)
- ACI - Affective and Cognitive Institute (2)
- Rektorat/Verwaltung (2)
- CRT - Campus Research & Transfer (1)
Open Access
- Closed Access (179)
- Open Access (60)
- Bronze (10)
- Closed (1)
- Diamond (1)
An der Offenburger Hochschule wurde eine neue Art der Ansteuerungsmethode für Handprothesen und -orthesen entwickelt, die auf der Verwendung einer Augmented Reality Brille basiert. Dieses neue Prothesensystem soll in einer ersten Studie an Probanden auf seine Alltagstauglichkeit getestet werden. Ziel dieser Arbeit ist es, die regulatorischen Anforderungen an eine solche Studie zusammenzustellen, mit Schwerpunkt auf einem Antrag bei einer Ethikkommission. Außerdem sind mittels Literaturrecherche Tests zu identifizieren und zu analysieren, die für die Beurteilung von Handprothesen verwendet werden. Hierfür wird erörtert was Alltagstauglichkeit bedeutet und welche Eigenschaften und Ziele identifizierte Tests haben.
Die Wertschöpfung vorherrschender Datenmengen scheitert, obgleich diese als der Treibstoff der Zukunft gelten, oftmals an den grundlegendsten Dingen. Das Digitalisierungs- und auch Verlagerungsverhalten werden für das Content Management (CM) zunehmend zu einem herausfordernden Fallstrick.
Die Unternehmen sind mit Fragestellungen traktiert, die sich darauf referenzieren, EchtzeitStröme unstrukturierter Daten aus heterogenen Quellen zu analysieren und zu speichern.
Trotz aller Bemühungen, die unaufhaltsam wachsende Menge an Daten- beziehungsweise Content im Rahmen eines effizienten Managements künftig manuell in den Griff zu bekommen, scheint es, als ob die Unternehmen an der kaum zu bewerkstelligenden Herausforderung scheitern werden.
Die vorliegende Arbeit untersucht, inwieweit es einer innovativen Technologie, wie der Künstlichen Intelligenz (KI) gelingen kann, das Content Management nachhaltig zu revolutionieren und damit den Content in seinem Umfang so zu organisieren und zu nutzen, um den Unternehmen eine Perspektive zu bieten, die steigende Welle an Big Data zu bewältigen.
Somit bewegt sich diese Arbeit auf dem Forschungsfeld der KI, als Teilgebiet der Informatik, die enorme Chancen und gleichzeitig Herausforderungen für die Wissenschaft und die Innovationsfähigkeit der Unternehmen mit sich bringt.
Im Rahmen qualitativer Expert*inneninterviews als Lösungsansatz wurde untersucht, inwiefern es KI-gestützten Systemen gelingen kann, Wissensmitarbeiter*innen entlang des Content Life Cycles zu unterstützen und den Nutzer*innen bezüglich der Ausspielung der Inhalte eine optimale Customer Experience zu bieten.
Die fehlende Nachvollziehbarkeit und das Missverständnis des KI-Begriffes sowie die Kluft zwischen der öffentlichen Debatte und der Realität der KI erweisen sich hierbei als die wohl größten Innovationsbremsen des KI-Einsatzes in der Content Management Umgebung.
Die Ergebnisse der Arbeit tragen im Wesentlichen dazu bei, das Verständnis für die KI zu schärfen und gleichzeitig das aufkommende Dilemma des Vertrauensdefizites der Mensch-Maschine-Kommunikation zu entschärfen.
Außerdem wird ein Grundverständnis dafür geschaffen, die KI als geeignetes Tool im Content Management zu erkennen.
Darüber hinaus wird demonstriert, dass sich durch den Einsatz der KI im Content Management ebenfalls immense Vorteile für die Ausspielung user*innenspezifierten Contents ergeben, die im folgenden Verlauf genauer aufgeführt werden.
Die vorliegende Bachelorarbeit befasst sich mit den Marketing-Kommunikationsstrategien im zweiseitigen Markt am Beispiel einer Immobilienplattform.
Das primäre Ziel dieser Arbeit besteht darin, auf Grundlage der Netzwerkeffekte im zweiseitigen Markt und durch Anwendung von Onlinemarketingmaßnahmen die Positionierung der Plattform Immobilien Rith in den Internetsuchergebnissen zu optimieren.
MINT-College TIEFE
(2021)
Das Projekt MINT-College TIEFE konnte in der zweiten Förderperiode die verschiedenen Maßnahmen der vorangegangenen Förderperiode weiter ausbauen und verstetigen. Die Angebote im Rahmen des Projekts MINT-College TIEFE begleiteten die Studierenden über den Student-Life-Cycle hinweg über das komplette Studium der technischen Studiengänge, beginnend in der Schule und endend beim Übergang in den Beruf. Um die Qualität der Lehre an der Hochschule Offenburg zu verbessern, wurden darüber hinaus verschiedene digital unterstützte Lehrformate weiterentwickelt und ausgebaut. Zentrale Angebote des MINT-College, das 2019 zentrale Einrichtung der Hochschule Offenburg wurde, sind die für die Studieneingangsphase entwickelten Angebote der Einführungstage, des Mentorenprogramms, der Brückenkurse, des Lernzentrums und Angebote für den Übergang in den Beruf, wie das Gründerbüro. Die mediendidaktischen Unterstützungsangebote für Lehrende unterstützten den Lernkulturwandel an der Hochschule. Es wurden systematisch nachhaltige Strukturen aufgebaut, um Innovationen für das Lehren und das Lernen auch künftig entwickeln, erproben und etablieren zu können.
Elektronische Türschilder zur Darstellung von Informationen sind insbesondere in öffentlichen Gebäuden zwischenzeitlich weit verbreitet. Die Varianz dieser elektronischen Türschilder reicht vom Tablet-basierten Türschild bis hin zum PC-basierten Türschild mit externem Bildschirm. Zumeist werden die Systeme mit 230 V betrieben. Bei einer großen Summe von Türschildern in öffentlichen Gebäuden kann dies zu einem signifikanten Umsatz an Energie führen. Im Rahmen dieses Papers wird die Entwicklung eines energieautarken arbeiten Türschildes vorgestellt, bei dem ein E-Paper-Display zum Einsatz kommt. Das Türschild lässt sich per Smartphone-App und NFC-Schnittstelle konfigurieren. Es wird insbesondere auf das Low-Power-Hardware-Design der Elektronik und energetische Aspekte eingegangen.
Die verstärkte Nachfrage des Marktes nach regelbaren EC-Antrieben mit erhöhten Leistungsdichten fordert das Einsetzen von höherwertigen Elektroblechsorten. Diese weisen durch ihren höheren Siliziumgehalt höhere Härten auf, was zu neue Herausforderungen bei der Montage führt. Das Fügen sogenannter gekerbter Wellen in das Rotorlamellenpaket kann zu Partikelbildung führen, wenn die Härtedifferenz zwischen den beiden Fügepartnern zu gering ausfällt. Dieser Umstand ist zur Einhaltung der steigenden Anforderungen bezüglich technischer Sauberkeit zu vermeiden, da ansonsten kostspielige Reinigungskonzepte in der Montagelinie installiert werden müssen. Für die Montage von Lagern werden die Rotorwellen selektiv induktiv randschichtgehärtet. Hierbei müssen bspw. Lagerstellen eine Mindesthärte erreichen und Kerbzonen unbehandelt bleiben, damit eine entsprechende Umformbarkeit beim Kerben erhalten bleibt sowie der Verschleiß der Kerbwerkzeuge möglichst geringgehalten wird.
Im Rahmen dieser Masterthesis wird die induktive Wärmebehandlung untersucht. Insbesondere wird hier das induktive Hochgeschwindigkeitsvergüten zur Weiterentwicklung der Welle-Nabe-Verbindung im Kerbbereich betrachtet, um bei gleichbleibender Taktzeit die erforderte Härtedifferenz zum Rotorlamellenwerkstoff zu ermöglichen. Hierbei wird der Kerbbereich wie für die Lagermontage induktiv randschichtgehärtet und anschließend bei höheren Temperaturen angelassen (vergütet).
Die Auswertung der Versuchsergebnisse zeigt, dass mit dem vorhandenen Maschinenfuhrpark nur das Anlassen mit Selbstabschreckung die geforderten Härtetoleranzen als Kompromiss zwischen Spanfreiheit beim Fügen und Werkzeugverschleiß ermöglicht. Diese wiederum zeigen aufgrund der ununterbrochene Wärmeleitung eine in Axialrichtung ausgeweiteten Wärmeeinflusszone, die zu unscharfen Härteübergängen im Vergleich zu nach dem Anlassen aktiv gekühlter Rotorwellen führt. Eine höhere Härte in der Kerbzone führt zu einem kleineren Kerbaufwurf unter gleichbleibenden Kerbbedingungen. Der Nachweis einer Prozessfähigkeit für die Härte ist nicht üblich und kann auch aufgrund der hohen Unsicherheit des Härteprüfverfahrens nicht erbracht werden. Das Anlassen verschlechtert nur geringfügig den Rundlauf. Die Einpresskräfte von Rotorlamellenpaketen hängt von der Höhe des Kerbaufwurfs ab und steigt entsprechend mit deren Zunahme. Für eine serientaugliche Umsetzung ist in Abhängigkeit des Anforderungsprofils eine Rücksprache mit der Designabteilung bezüglich axiale Härteübergang und Kerbeindringtiefe notwendig. Für eine dauerhafte Lösung wird die Verwendung eines Mittelfrequenzgenerators für den Anlassprozess empfohlen.
Im Rahmen dieser Masterarbeit soll ein Radträger für ein Leichtbaufahrzeug entwickelt werden. Dieser soll ein niedriges Gewicht sowie eine hohe Steifigkeit aufweisen und fertigbar sein.
Dabei wird über einen iterativen Prozess aus Simulation, Topologieoptimierung und Neukonstruktion ein neues Radträgerdesign entwickelt.
Zu Beginn der Arbeit wird auf die wissenschaftlichen Grundlagen eingegangen. Dabei spielen vor allem das Thema Leichtbau sowie die finite Elemente Methode eine Rolle. Es wird auf Prinzipien der Konstruktion eingegangen, um das Bauteil fertigungsgerecht und auch effizient zu gestalten.
Im nächsten Kapitel wird der aktuelle Stand der Technik genauer untersucht. Hierbei wird der Entwicklungsprozess der aktuellen Radträger-Varianten untersucht und diese mittels FEM nachgerechnet. Zuvor werden noch die für die Simulation benötigten wirkenden Kräfte berechnet und Plausibilitätstests durchgeführt, bei denen Computersimulationen mit realen Messwerten auf deren Richtigkeit überprüft werden.
In den letzten Kapiteln geht es um die Entwicklung des Radträgers. Hier werden einige Konzepte entwickelt und mittels FEM-Simulationen getestet. Durch den Einsatz von Topologieoptimierungen wird versucht, das Gewicht des Radträgers bei gleichbleibender Steifigkeit zu senken.
Ziel der folgenden Bachelorarbeit ist es, eine Steuerung für einen Motorenprüfstand zu entwickeln. Dieser wurde von Aaron Maier geplant und konstruiert. Die Steuerung soll es ermöglichen, die Motoren des Prüfstands sowohl manuell als auch automatisiert anzusteuern. Dabei sollen die Parameter Drehmoment, Drehzahl, Spannung, Strom sowie die Temperatur der Motoren automatisiert, oder auf Knopfdruck erfasst und abgelegt werden. Die Arbeit umfasst die Auswahl der benötigten Hardwarekomponenten, das Verbauen dieser Komponenten in einem Bedienpult, die elektrische Verschaltung dieser Komponenten, die Programmierung des Microkontrollers und das Erstellen einer Dokumentation.
Sowohl die Entwicklung neuer als auch die Weiterentwicklung bestehender Quartiere sind mit vielfältigen Herausforderungen verbunden. Durch weitere Klimaschutzmaßnahmen und ein zunehmendes Umweltbewusstsein steigen die energetischen Anforderungen an Wohn- und Gewerbeimmobilien. Die besonders für Deutschland ungünstige demografische Entwicklung bedingt eine weiter zunehmende Urbanisierung, bedingt durch Migration und Zuzug älterer Menschen in Städte, die künftig noch mehr altersgerechte Wohnungen und Pflegeeinrichtungen etablieren müssen. Hinzu kommen die steigenden Anforderungen aus der digitalen Transformation und einer Informationsgesellschaft, die sich mit Konnektivität, Schnelllebigkeit, Individualisierungstendenzen und veränderten Konsumgewohnheiten auseinandersetzen muss.
Im Projekt MOBCOM wird ein neues Verfahren zur Zustandsüberwachung von elektrischen Betriebsmitteln in Niederspannungsnetzen und Anlagen entwickelt. Mittels PLC (power line communication) Technologie werden hochfrequente transiente Vorgänge auf dem Stromkanal und dessen Übertragungseigenschaften erfasst und bewertet. Durch Ableiten bestimmter Parameter soll zustandsbedingte Wartung vorhergesagt und so der Ausfall von Betriebsmittel vermieden werden.
Entwicklung eines Kommunikationskonzepts für Black Forest Formula an der Hochschule Offenburg
(2021)
Die vorliegende Masterthesis befasst sich mit der Entwicklung eines Kommunikationskonzepts für das Black Forest Formula Projekt an der Hochschule Offenburg. Die bisherigen kommunikativen Aktivitäten werden im Rahmen dieser Arbeit überarbeitet und erweitert, sodass ein konsistentes Gesamtkonzept für die Kommunikation entsteht. Hierzu werden die einzelnen Phasen eines Konzeptionsprozesses durchlaufen. Das Ziel ist eine langfristige Planung, welche die Interessen der verschiedenen Gruppen innerhalb und außerhalb des Projekts berücksichtigt, um deren Unterstützung zu sichern. Des Weiteren wird durch die Ausrichtung auf festgelegte Kommunikationsziele eine Verbesserung der internen und externen Kommunikation von Black Forest Formula angestrebt. Die Arbeit richtet sich daher insbesondere an die leitenden Mitglieder des Teams und soll diesen als Handlungsempfehlung dienen. Darüber hinaus ist die Arbeit auch für all jene interessant, die sich mit dem Ablauf und den Methoden zur Entwicklung von Kommunikationskonzepten befassen möchten.
Ziel der Investitionsmaßnahme Enerlab 4.0 war die Bereitstellung einer umfangreichen in-operando und post-mortem Diagnostik für dezentrale Energieerzeuger und -Speicher, z. B. Batteriezellen und Photovoltaikzellen. Diese sind wichtige Komponenten für verschiedene Bereiche der Industrie 4.0 – von autonomen Sensoren über energieautarke Produktion bis hin zur Qualitätskontrolle. Zu diesem Zweck wurde die apparative Ausstattung der Hochschule Offenburg erweitert, und zwar sowohl für in-operando Diagnostik (elektrische Zyklierer, Impedanzspektrometer, Temperaturprüfschränke) als auch für post-mortem Diagnostik (Glovebox, Probenpräparationen für vorhandene Werkstoffanalytik und chemische Analytik). Be-reits vorhandene Geräte aus anderen laufenden oder abgeschlossenen Projekten wurden in die neue Infrastruktur integriert. Im Ergebnis entstand ein modernes und leistungsfähiges Batterie- und Photovoltaiklabor, welches in zahlreichen laufenden und neuen Vorhaben genutzt wird.
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Bestimmung des Ladezustandes (SOC) einer aufladbaren Batterie (106) eines vorgegebenen Batterietyps oder eines damit in einem physikalischen Zusammenhang stehenden Parameters, insbesondere einer in der Batterie enthaltenen Restladungsmenge Q, wobei das Verfahren mittels eines spannungsgeführten Batteriemodells (102) arbeitet, welches für die betreffende Batterie (106) oder einen entsprechenden Batterietyp parametriert wird. Es muss lediglich die Batteriespannung Umess gemessen und dem Batteriemodell (102) als Eingangsgröße zur Verfügung gestellt werden. Weiterhin betrifft die Erfindung ein Verfahren und eine Vorrichtung zur Bestimmung des Gesundheitszustandes (SOH) einer Batterie (102), wobei das Batteriemodell (102), das auch zur Bestimmung des SOC verwendet wird, einen modellierten Batteriestrom Imodliefert. Aus diesem können modellierte Ladungsmengen während Lade- und Entladephasen der Batterie (106) bestimmt und mit gemessenen Ladungsmengen, die aus dem gemessenen Batteriestrom Imessbestimmt werden, verglichen werden. Da das Batteriemodell (102) nicht altert, kann hierdurch der SOH der Batterie bestimmt werden.
Im Batterielabor der Hochschule Offenburg wurde ein neues Verfahren zur Bestimmung von Ladezustand und Gesundheitszustand von Lithium-Ionen-Batterien entwickelt. Es beruht auf der Auswertung von Spannungs- und Strommessungen mit einem mathematischen Batteriemodell. Das Verfahren ist genauer und robuster als Standardverfahren, die auf Ladungszählung beruhen. Zudem ist es numerisch einfacher umzusetzen als andere modellbasierte Verfahren. Wir demonstrieren die Methode mit einer Heimspeicherzelle und einer Elektrofahrzeugzelle.
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Bestimmung des Ladezustandes (SOC) einer aufladbaren Batterie (106) eines vorgegebenen Batterietyps oder eines damit in einem physikalischen Zusammenhang stehenden Parameters, insbesondere einer in der Batterie enthaltenen Restladungsmenge Q, wobei das Verfahren mittels eines spannungsgeführten Batteriemodells (102) arbeitet, welches für die betreffende Batterie (106) oder einen entsprechenden Batterietyp parametriert wird. Es muss lediglich die Batteriespannung Umess gemessen und dem Batteriemodell (102) als Eingangsgröße zur Verfügung gestellt werden. Weiterhin betrifft die Erfindung ein Verfahren und eine Vorrichtung zur Bestimmung des Gesundheitszustandes (SOH) einer Batterie (102), wobei das Batteriemodell (102), das auch zur Bestimmung des SOC verwendet wird, einen modellierten Batteriestrom Imodliefert. Aus diesem können modellierte Ladungsmengen während Lade- und Entladephasen der Batterie (106) bestimmt und mit gemessenen Ladungsmengen, die aus dem gemessenen Batteriestrom Imessbestimmt werden, verglichen werden. Da das Batteriemodell (102) nicht altert, kann hierdurch der SOH der Batterie bestimmt werden.
Im Rahmen des Forschungsvorhabens GeoSpeicher.bw wurden mehrere Demostandorte in Baden-Württemberg intensiv durch die Projektpartner untersucht bzw. begleitet. Die Forschungsergebnisse zeigen, dass bestehende Geothermieanlagen gut funktionieren und durch den Betrieb auch klimaschädliche Gasemissionen eingespart werden können. Leider konnte im Rahmen des Vorhabens kein Demoprojekt für einen Aquiferspeicher am städtischen Klinikum Karlsruhe oder auch am Campus Nord des Karlsruhe Instituts für Technologie (KIT) trotz des Nachweises der effektiven Kostenersparnisse und CO2-Einsparungen verwirklicht werden.
Sollte sich die Aquiferspeichertechnologie in Baden-Württemberg etablieren, müsste unbedingt ein Demoprojekt für einen flachen Niedrigtemperatur-Aquiferspeicher entwickelt und gefördert werden. Die Rahmenbedingungen für solch einen Aquiferspeicher wären am Campus Nord grundsätzlich gegeben. Dieser Nachweis wurde durch zahlreiche Untersuchungen im Rahmen von GeoSpeicher.bw eindeutig erbracht.
Energiemanagement im Betrieb
(2021)
Dieses Fachbuch gibt einen vertieften Einblick in das dynamische Verhalten von thermoaktiven Bauteilsystemen. Es wird eine neu entwickelte und vielfach erprobte, selbstlernende und vorausschauende TABS-Steuerung vorgestellt. Dazu wird auf die Erfordernisse einer effektiven TABS-Steuerung eingegangen und die Grundlagen und Funktionsweise der neu entwickelten AMLR-Steuerung erläutert. Anhand mehrerer Anwendungsbeispiele wird die Umsetzung in die bauliche Praxis erläutert und mit Hilfe von umfangreichen Messergebnissen die Funktion der neuen AMLR-Steuerung nachgewiesen. Abschließend werden Empfehlungen für die Anwendung von AMLR in der baulichen TABS-Praxis hinsichtlich Anlagenhydraulik und Umsetzung in der Gebäudeautomation gegeben.
Über zwei Jahrzehnte hat sich an der Hochschule Offenburg im Umfeld von Professor Elmar Bollin eine Forschungsgruppe etabliert, die die Bereiche Gebäudeautomation und nachhaltige Energietechnik zusammenführten. Anfänglich ging es darum die Potenziale der internetbasierten Wetterprognostik und modell-basierten Anlagensteuerung für die Verbesserung des Komforts und der Energieeffizienz im Gebäude zu nutzen. Im Rahmen von Forschungs- und Entwicklungsarbeiten mit Einsatz von dynamischen Gebäudesimulationen konnte schließlich ein Algorithmus gefunden werden, der es ermöglichte auf Basis von prognostizierter Außentemperatur und Sonneneinstrahlung den Energiebedarf eines Bürogebäudes für den Folgetag vorherzusagen. In Verbindung mit der Gebäudeautomation entstand so die adaptive und prädiktive TABS-Steuerung AMLR.
Über zwei Jahrzehnte hat sich an der Hochschule Offenburg eine Forschungsgruppe etabliert, die die beiden Bereiche Gebäudeautomation und nachhaltige Energietechnik zusammenführte. Anfangs ging es darum, Potentiale der internetbasierten Wetterprognostik und modell-basierten Anlagensteuerung für die Verbesserung des Komforts und der Energieeffizienz im Gebäude zu nutzen. Im Rahmen von Forschungs- und Entwicklungsarbeiten mit Einsatz von dynamischen Gebäudesimulationen konnte ein Algorithmus gefunden werden, der es ermöglichte auf Basis von prognostizierter Außentemperatur und Sonneneinstrahlung den Energiebedarf eines Bürogebäudes für den Folgetag vorherzusagen. In Verbindung mit der Gebäudeautomation entstand so die adaptive und prädiktive TABS-Steuerung AMLR.
Analyse domänenseitiger Optimierungen für Deep Reinforcement Learning in der RoboCup Umgebung
(2021)
Mit dem Team "magmaOffenburg" nimmt die Hochschule Offenburg seit 2009 am internationalen Wettbewerb "RoboCup" in der 3D-Simulationsliga für Fußball teil. Dabei kommt es vor allem auf den Einsatz guter Lauf- und Kickverhalten an. Seit 2019 ist es dem Team magmaOffenburg möglich auch Deep Reinforcement Learning für die Weiterentwicklung der Verhalten einzusetzen. Während auf diese Weise schon verwendbare Ergebnisse für das Kicken produziert wurden, so fehlt noch ein Fortschritt beim Laufen lernen. Diese Arbeit beschäftigt sich mit den nötigen Optimierungen auf der Domänenseite, um das gelernte Laufen zu verbessern. Das beinhaltet die Optimierung des Observation- und Actionspaces, sowie auch eine Optimierung der Rewardfunktion. Dabei wurde versucht, die einzelnen Einflüsse verschiedener Parameter und Techniken innerhalb dieser drei Bereiche zu evaluieren. So konnte zum Schluss eine Verbesserung in der Laufgeschwindigkeit von etwas unter einem Meter pro Sekunde auf bis zu 1,8 Metern pro Sekunde erreicht werden. Ausschlaggebend für dieses Ergebnis waren vor allem der Verbesserungen in der Rewardfunktion.
In die neuen Verfahren, wie Big Data, Machine Learning und Predictive Analytics, werden von Marketing und Vertrieb hohe Erwartungen gesetzt. Doch dem „Garbage in – Garbage out“-Prinzip folgend lassen die Ergebnisse zu wünschen übrig. Grund hierfür ist häufig eine nicht ausreichende Qualität in den zugrunde liegenden Kundendaten. Dieser Beitrag beleuchtet diese Problematik anhand der Wert-Pyramide. Je weiter oben die Daten in der Wertschöpfungskette angesiedelt sind, desto höher ist deren Qualität und umso mehr Wert haben sie für das Unternehmen. Darüber hinaus wird aufgezeigt, wie sich mit Hilfe von Monitoring-Systemen, wie einer Datenqualitäts-Scorecard, Aussagen zur Datenqualität treffen und Verbesserungen derselben messen lassen. So wird der tatsächliche Wert von Daten für Unternehmen ersichtlich.
Duplikaterkennung, -suche und -konsolidierung für Kunden- und Geschäftspartnerdaten, sog. „Identity Resolution“, ist die Voraussetzung für erfolgreiches Customer Relationship Management und Customer Experience Management, aber auch für das Risikomanagement zur Minimierung von Betrugsrisiken und Einhaltung regulatorischer Vorschriften und viele weitere Anwendungsfälle. Diese Systeme sind jedoch hochkomplex und müssen individuell an die kundenspezifischen Anforderungen angepasst werden. Der Einsatz lernbasierter Verfahren bietet großes Potenzial zur automatisierten Anpassung. In diesem Beitrag präsentieren wir für ein KMU praxisfähige, lernbasierte Verfahren zur automatischen Konfiguration von Business-Regeln in Duplikaterkennungssystemen. Dabei wurden für Fachanwender Möglichkeiten entwickelt, um beispielgetrieben das Match-System an individuelle Business-Regeln (u.a. Umzugserkennung, Sperrlistenabgleich) anzupassen und zu konfigurieren. Die entwickelten Verfahren wurden evaluiert und in einer prototypischen Lösung integriert. Wir konnten zeigen, dass unser Machine-Learning-Verfahren, die von einem Domainexperten erstellten Business-Regeln für das Duplikaterkennungssystem „identity“ verbessern konnte. Zudem konnte der hierzu erforderliche Zeitaufwand verkürzt werden.
Die Mehrheit der deutschen Unternehmen verspricht sich aus KI-gestützter Datenanalyse einen großen Geschäftsvorteil. Doch gerade das Thema Datenbestand ist eine der größten, immer noch häufig unterschätzten Hürde beim Trainieren und Einführen von KI-Algorithmen. Im Folgenden sind vier konkrete Erfahrungen und Tipps für KI- & Datenanalyseprojekte in Unternehmen aufgeführt.
Datenanalyse mithilfe von Künstlicher Intelligenz (KI) – für 70 Prozent der von den Beratern von PWC befragten Unternehmen ist dies das vielversprechendste Einsatzszenario. Doch so attraktiv die Vision erscheint, mittels KI das eigene Geschäft oder gar eine ganze Branche zu revolutionieren, so handfest sind die Herausforderungen, die sich in der Praxis ergeben. Ein häufiges Problem ist ein bereits beim Start eines Projekts mangelhafter Datenbestand. Die KI mit qualitativ schlechten Daten zu trainieren, macht keinen Sinn, da sie falsche Informationen lernt. Ohne den Einsatz gewisser Automatisierungen und KI ist es wiederum mühsam, die unzureichende Datenbasis zu verbessern.
Eine Frage der Qualität
(2021)
Künstliche Intelligenz (KI) kommt laut einer Interxion-Studie bei 96 Prozent der Schweizer Unternehmen zum Einsatz. Allerdings gaben nur 22 Prozent der Schweizer IT-Entscheider an, dass sie KI bereits für einen ersten Anwendungsfall einsetzen. Dabei ist KI etwa im Datenmanagement sehr hilfreich – sofern Qualität und Quantität der Trainingsdaten stimmen.
Onlineshops in Deutschland verschenken sehr viel Potenzial im Registrierungs- und Bestellprozess. Dabei lässt sich mit wenigen gezielten Verbesserungen der Checkout barrierefrei und smart gestalten. Zu diesem Ergebnis kommt eine heuristische Untersuchung der Top 100 Onlineshops von Uniserv gemeinsam mit der Hochschule Offenburg. Die Eingabe und Qualität von Adressdaten spielen dabei eine besondere Rolle.
Technologie spielt im Sport schon immer eine große Rolle. Mit steigender Leistungsdichte im Spitzensport wird versucht mithilfe technischer Hilfsmittel dem Sportler die optimalen Umstände zu ermöglichen. Dazu gehört nicht nur Technik im Sportequiptment, sondern auch Sportuntersuchungen wie Leistungsdiagnostiken. Im Laufsport zählen dazu Ausdauer- und Krafttests. Bei Ausdauertests werden physiologische Parameter wie Laktat, Herzfrequenz oder Sauerstoffaufnahme gemessen. Zusätzlich wird die Lauftechnik für einen kurzen Zeitpunkt analysiert. Wie sich diese unter anhaltender Belastung verhält, wird nicht untersucht. Mit neuen Technologien im Bereich Bewegungsanalyse, können immer schneller größere Datensätze ausgewertet werden. Aus diesem Grund wird in dieser Studie die Lauftechnik über mehrere Zeitpunkte aufgezeichnet und nach Ermüdungserscheinungen untersucht.
Dazu wurde am Institut für angewandte Trainingswissenschaften (IAT) während einer komplexen Leistungsdiagnostik im März 2021 bei einem Laufbandstufentest (4x2000m oder 4x3000m) die Lauftechnik von 15 Elite- und Elitenachwuchsläufer:innen (m=8, w=7) mithilfe eines 3D-Bewegungsanalyse Systems nach Veränderungen in Winkelstellung und Bodenreaktionskraft untersucht. Als physiologische Vergleichsparameter wurde Herzfrequenz und Laktat aufgenommen.
Bei der Analyse der Daten wurden diese in der Gruppe betrachtet. Dabei haben sich schwach signifikante Veränderungen (p=0,047) der vertikalen Bodenreaktionskraft links am Ende der Stufe aufgezeigt. Weitere signifikante Unterschiede (p=0,020) sind im maximalen Kniehub links zu einem größerer Hüftwinkel am Ende sichtbar. Da sonst keine signifikanten Unterschiede zu sehen sind, lässt sich, bei dem hier durchgeführten Protokoll, nicht statistisch gesichert feststellen, ob auftretende Ermüdungserscheinungen die Lauftechnik beeinflussen und verändern. Um festzustellen, ob es geschlechts- oder protokollanhängige Effekte hinsichtlich einer ermüdungsbedingte Lauftechnikveränderung gibt, wurde auch dies statistisch untersucht.
Hier zeigten sich jeweils in einzelnen Parametern signifikante Unterschiede (Parameter TO\_knee\_left; p=0,026) in der Geschlechtsspezifik und in der protokollabhängigen Untersuchung (Parameter TSw\_hip\_left; p=0,04)
Für weitere Studien zur Untersuchung von Lauftechnikveränderung sollten umfangreichere physiologische Daten zur genaueren Betrachtung der Ermüdung verwendet werden. Grundsätzlich müsste das Protokoll auf eine maximale Ausbelastung (beispielsweise Dauerstufentest von 10-15km oder Ausbelastungs-/Abbruchtest) ausgelegt sein.
Grundlegend ist festzustellen, dass sich Simi-Shape als 3D-Bewegungsanalyse-Methode eignet, um spezifische Parameter in der Lauftechnik zu diagnostizieren, gerade hinsichtlich der Effizienz im Auswerteprozess.
SchulverwaltungSpezial
(2021)
Die Corona-Krise ist eine Herausforderung, bei der Schulleitungen nicht nur im Rahmen des Krisenmanagements und insbesondere der Krisenkommunikation gefordert sind, sondern darüber hinaus, ausgehend von der akuten Krisenbewältigung, auch ein proaktives Risikomanagement vornehmen müssen. Die Prinzipien Klarheit, Transparenz und Partizipation sowie die günstige Kombination von Zentralität und Dezentralität im Rahmen des Krisenmanagements sind die Voraussetzung für den Übergang in ein strategisch orientiertes proaktives Transformationsmanagement.
Die Corona-Pandemie stellte nicht nur die Gesellschaft und Politik, sondern viele Organisationen aus dem Feld der Unternehmen, der Kultur und des Bildungswesens vor neue Herausforderungen. Branchenunabhängig wurde deutlich, wo etwa im Bereich der digitalen Transformation Nachholbedarf besteht. Dies erfordert von den Verantwortlichen ein klares Transformationsmanagement, das neben dem Krisen- und Risikomanagement unterschiedliche Elemente aus der Organisationsentwicklung und dem Changemanagement kombiniert und in ein Managementsystem integriert.
Im Jahr 2020 sollten für den Zeitungssektor im Rahmen der coronabedingten Neuordnung der Bundesförderungen40 Mio. Euro für die Zustellförderung bereitgestellt werden. Im Rahmen der kontroversen Diskussion um diese direkte staatliche Förderung der Zeitungsbranche wandelte sich die geplante Förderung in ein 220 Mio. Euro-Pogramm zur Unterstützung der digitalen Transformation von Presseverlagen (Deutscher Bundestag 2020c). Im April 2021 erklärte das Bundeswirtschaftsministerium die geplante 220-Millionen-Presseförderung für gescheitert – es wolle das Hilfspaket „nach intensiver Prüfung“ nicht weiterverfolgen. Der vorliegende Beitrag gibt Einblick in die kontroverse Diskussion um die Frage einer direkten staatlichen Pressförderung und stellt sie in den Kontext der wirtschaftlichen und medienpolitischen Kernfrage, „wie sich publizisitsche Inhalte in Zeiten der Disruption etablierter Geschäftsmodelle noch finanzieren lassen“ (Jarren, Künzler & Puppis 2019: 421).
Social Media und die Kommentarmöglichkeiten auf lokalen, redaktionellen digitalen Plattformen sind nicht nur eine Chance für die zielgerichtete Kommunikation von Städten und Gemeinden, sondern auch eine Herausforderung, insbesondere im kontroversen kommunalpolitischen Alltag. Die Dialogmöglichkeiten haben die Möglichkeiten der Bürger*innen gestärkt, sich mit ihren Interessen, Anliegen und Meinungen Gehör zu verschaffen und die von der Verwaltung und den politischen Akteuren gesetzten Themen zu diskutieren und zu hinterfragen. Nicht immer findet hier in der kommunalen Praxis jedoch ein positiver und sachorientierter Dialog statt, so dass es gerade in der Kleinräumigkeit des kommunalen Geschehens auch zu sehr unangenehmen Szenarien kommen kann. Dies beruht dann meist auf einem unterschiedlichen Rollenkonzept der Akteure bis hin zu Abweichungen im Demokratieverständnis. Daher soll hier zunächst das Prinzip der repräsentativen Demokratie in Abgrenzung zu populistischen Rollenverständnissen dargestellt werden, bevor die konkreten Kommunikationsthemen analysiert werden.
Social-Media-Kanäle spielen nicht nur für die Kommunikation von kommunalen Gremien, sondern vor allem im Wahlkampf für kommunale Spitzenämter eine besondere Rolle und erfordern die Berücksichtigung der Grundsätze authentischer Kommunikation.
Bevor man der Frage nachgeht, wie und in welcher Form am besten unterschiedliche Social-Media-Kanäle für die Kommunikation kommunaler Themen eingesetzt werden und somit ein wirksames Tool für die Interaktion der Kommunen mit ihren spezifischen Zielgruppen darstellen können, muss man sich ein paar generelle Gedanken machen, welche Stakeholder und Zielgruppen überhaupt auf diesem Weg bei welchen Themenkategorien erreichbar sind. Gerade aktuelle Fälle wie die Kommunikation während der Corona-Krise zeigen, wie man im Rahmen der Mediaplanung digitale Kanäle in das Gesamtspektrum der Kommunikationskanäle einordnen kann.
Medienmarketing-Controlling
(2021)
Dieses Kapitel beschäftigt sich mit dem Controlling im Rahmen des Medienmarketings und zeigt damit die Strukturen auf, mit denen im Medienunternehmen Marketingprozesse verankert sind und nach welchen Zielgruppen, Märkten und Kennzahlen die Steuerung dieser Marketingaufgaben erfolgt. In Medienunternehmen ist Marketing in der Regel einer der erfolgsentscheidenden Funktionsbereiche, der daher einer detaillierten und permanenten Begleitung und Steuerung nicht nur durch die Fachinstanzen, sondern auch durch das Top-Management bedarf. Gleichzeitig sind Medienunternehmen in vielen Fällen auch publizistische Unternehmen, die neben der kennzahlenorientierten Ausrichtung an den Markt- und Kundenbedürfnissen einer inhaltlichen Leitidee folgen und dadurch in vielen Fällen erst in der Lage sind, tatsächlich neue und überdurchschnittlich erfolgreiche Produkte zu etablieren. Zugleich wird es seit der Jahrtausendwende durch die Transformation und Disruption der Medienmärkte zunehmend schwieriger, Marktsegmente und Medienunternehmen von anderen Branchensegmenten abzugrenzen. Die medienökonomischen Besonderheiten führen zu einer Steigerung der Marktdynamik (beispielsweise durch die Interdependenz von Werbe- und Rezipientenmarkt), sodass den unterschiedlichen Performance-Kennziffern in den vier Hauptfeldern des klassischen Marketingmixes hier eine besondere Bedeutung zukommt.
IoT-Plattformen stellen ein zentrales Element für die Vernetzung von physischen Objekten und die Bereitstellung deren Daten für digitale Zwillinge dar. Der Markt für solche Plattformen ist in den vergangenen Jahren stark gewachsen. Bei inzwischen über 600 Anbietern ist die Wahl der „richtigen“ Plattform für das eigene Unternehmen keine triviale Aufgabe mehr. Dieser Beitrag soll Unternehmen im Auswahlprozess unterstützen, indem gängige Funktionen von IoT-Plattformen und Kriterien für die Auswahl von IoT-Plattformen aufgezeigt werden.
Die neue EU-Medizinprodukteverordnung 2017/745, die Medical Device Regulation (MDR), wird nach einer vierjährigen Übergangsphase zum 26. Mai 2021 für sämtliche Medizintechnikhersteller rechtswirksam (Vgl. Europäische-Kommission, 2020). Die MDR ersetzt die bis dato geltende Medical Device Directive (MDD). Ein wesentlicher Bestandteil der MDR für Medizintechnikhersteller ist die verpflichtende Konzeption und Einführung eines Qualitätsmanagementsystems. Die R&E Stricker Reha-Entwicklungen GmbH hat bis zu Beginn dieses Projektes noch kein Qualitätsmanagementsystem in ihrer Unternehmensstruktur implementiert. Da dies allerdings mit der MDR verpflichtend wird, soll durch diese Arbeit ein auf die Firma Stricker angepasstes Qualitätsmanagementsystem erarbeitet werden. Zusätzlich werden durch die MDR erweiternde wie auch neue Anforderungen an die verschiedenen Unternehmensbereiche der Medizintechnikhersteller gestellt (Vgl. Johner Institut GmbH, 2020a). Durch neu konzipierte und implementierte Prozesse sollen jene Anforderungen bzw. der gesamte Bereich des Qualitätsmanagements der Firma Stricker ausgebaut werden.
Herzfehler sind weltweit die häufigste Form von angeborenen Organdefekten. In unterschiedlichen Studien wird die Inzidenz zumeist zwischen vier und elf von 1.000 Lebendgeburten angegeben (1–5). Im Rahmen der multizentrischen PAN-Studie (PAN: Prävalenz angeborener Herzfehler bei Neugeborenen), welche die Häufigkeit angeborener Herzfehler bei Neugeborenen in Deutschland zwischen Juli 2006 und Juni 2007 untersuchte, ergab sich eine Gesamtprävalenz von 107,6 pro 10.000 Lebendgeburten. Gegenstand dieser Arbeit sind Untersuchungen an Implantaten zur Behandlung von Atriumseptumdefekten (ASD). Vorhofseptumdefekte machen mit 17,0%, nach den Ventrikelseptumdefekten (VSD) mit 48,9%die zweithäufigste Art von Herzfehlern aus (6, 7).Als Vorhofseptumdefekte werden Öffnungen in der Scheidewand zwischen den Herzvorhöfen bezeichnet. Bei der Therapie eines ASD ist der minimalinvasive Verschluss mittels sogenannter Okkluder heute das Mittel der Wahl. Diese werden über einen femoralen Zugang im Rahmen einer Herzkatheteruntersuchung unter Ultraschallkontrolle und Durchleuchtung an die Implantationsstelle vorgeschoben und dort platziert(8). Die Okkluder bestehen in der Regel aus einem Drahtgeflecht aus Nitinol und haben die typische Form eines sogenannten Doppelschirmchens. Dabei weichen die unterschiedlichen Okkluder der einzelnen Firmen hinsichtlich Form und Beschaffenheit oft erheblich voneinander ab. Derzeit gibt es keine Untersuchungsmethode, die die auf dem Markt befindlichen Okkluder hinsichtlich ihrer mechanischen Eigenschaften vergleichbar macht. Diese Arbeit solleinen Beitrag erbringen, um grundlegende, die Okkludermodelle charakterisierende Parameter zu schaffen, um so deren interindividuelle Vergleichbarkeit zu ermöglichen. Hierzu werden in-vitro Messungen durchgeführt, welche geeignet sind das Verhalten der untersuchten Modelle unter unterschiedlichen Bedingungen und bei variierenden Defektgrößen zu charakterisieren.
Die Serie Kurzes Tutorium Statistik bemüht sich primär um die Vermittlung des Sinnes statistischer Methoden. Die Gestaltung der auf YouTube veröffentlichten Lernvideos folgt der Idee, dass anhand einer einfachen, alltäglichen Problemstellung ein praktisches Verständnis konkreter quantitativer Lösungsansätze besonders gut erzeugt werden kann. Studierende sollen hierdurch motiviert werden, sich intensiv mit den behandelten Verfahren auseinanderzusetzen. In dem Beitrag werden die Rahmenbedingungen und die grundlegende Konzeption des „Kurzen Tutoriums Statistik“ erläutert sowie die konkrete Umsetzung des Videos zu Streumaßen exemplarisch vorgestellt.
Der Fokus dieser Arbeit liegt auf den Bewegtbildstrategien von Tageszeitungen in Baden-Württemberg. Es sollte aufgezeigt werden welche strategischen Vorgehensweisen die Lokalzeitungen in Baden-Württemberg verwenden und wie sie diese Umsetzen. Weiter sollten Faktoren extrahiert werden, die als erfolgskritisch angenommen werden können. Herausgefunden wurde, dass alle befragten Zeitungsverlage eine konvergenzinduzierte Cross-Media-Strategie verfolgen, in der die Diversifikation vertikal verläuft. Das heißt die Zeitungen sind meist selbst Produzent des Bewegtbilds und nutzen die wechselseitigen Synergieeffekte der redaktionellen Kompetenzen und multimedialen Distributionskanäle. Weiter kann festgestellt werden, dass Im Bereich Bewegtbild Ansätze einer Nischen- oder Fokusstrategie zu erkennen sind.
Als Erfolgsfaktoren können vor allem die lokale Kompetenz, die Format- und Themenwahl von Videos sowie die Redaktionsorganisation, die stark mit der Nutzung von Synergieeffekten zusammenhängt, angenommen werden.