Refine
Document Type
- Bachelor Thesis (2)
- Conference Proceeding (1)
- Report (1)
Conference Type
- Konferenzartikel (1)
Language
- German (4) (remove)
Keywords
- Datenanalyse (4) (remove)
Institute
Open Access
- Closed (2)
- Closed Access (1)
- Diamond (1)
- Open Access (1)
Der Bericht beschreibt die Vorgehensweise für die Entwicklung von Hochleistungszweitaktmotoren beim Institut für Transportwesen und Motorentechnik (ITM). Die gezielte Auswertung von motorischen Daten bietet die Möglichkeit, Motorenentwicklungsprozesse in wichtigen Fragestellung zu unterstützen. Für die Auslegung von Bauteilen und Prozessen werden Simulationsprogramme eingesetzt. Diese Entwicklungswerkzeuge können effizienter angewandt werden, wenn die Berechnungsergebnisse einer Qualitätskontrolle unterliegen. Wichtig hierfür sind Bewertungskriterien, die aus der Erfahrung einer Vielzahl von Versuchen bestehen. Da in Produktion gegangene Motoren üblicherweise schon einen Evolutionsprozeß durchlaufen haben, kann vermutet werden, daß solche Kriterien von erfolgreichen und weniger erfolgreichen Produkten in der Weise abgeleitet werden können, wie dies hier vorgestellt wurde. Die Angabe von Trendfunktionen für konstruktive Merkmale und Betriebsparameter ist notwendig um eine bedarfsorientierte Vorauslegung von Antrieben durchführen zu können. Alle hier vorgestellten Ergebnisse sind natürlich von der Datenmenge abhängig, die zu den jeweiligen Fragestellungen ausgewertet werden kann. Dazu müssen alle durchgeführten Versuchsreihen in die Datenbank eingeführt und mit Ergebnissen der Simulationsrechnungen in Beziehung gesetzt werden.
Unternehmen erzielen durch den Einsatz von Big Data-Analyse bereits heute eine Umsatzsteigerung, bei gleichzeitiger Kostensenkung. Trotzdem setzen lediglich 36% der mittelständischen Unternehmen in Deutschland auf Big-Data Initiativen. Diese Unternehmen sind sich nicht bewusst, welchen Datenschatz sie bereits besitzen, allerdings nicht gewinnbringend nutzen.
Ziel der Arbeit ist es, die Herausforderungen mit denen Unternehmen in der digitalen Transformation konfrontiert werden, sowie die Chancen, die sich durch den Einsatz von Datenanalyse ergeben, herauszuarbeiten.
Die Arbeit stellt einen Leitfaden für kleine und mittelständische Unternehmen dar, die erste Erfahrungen mit Big Data-Analytics machen möchten.
In den letzten Jahren entstand ein regelrechter Hype um das Thema Kryptowährungen und sie sind in Gesellschaft, Politik und Wirtschaft kaum noch wegzudenken. Trotz der hohen Volatilität und des Risikos für Investoren werden Kryptowährungen teilweise auch als eine Alternative für herkömmliche Währungen angesehen. Daher stellt sich die Frage, ob die Einstellung zu Kryptowährungen und auch das Investitionsverhalten auf einer sorgfältigen Auseinandersetzung von Argumenten basiert. Dafür wurde die Forschungsfrage: „Basieren Kaufverhalten und Einstellung zu Kryptowährungen eher auf der intensiven Auseinandersetzung mit tatsächlichen Argumenten oder auf oberflächlichen Reizen?“ aufgestellt. Zur Untersuchung dieser wurde eine Umfrage mit 283 Teilnehmenden durchgeführt. Auf Basis theoretischer Überlegungen zur Einstellungsforschung durch das Elaboration-Likelihood-Model wurde ein Fragebogen entworfen, der den Einfluss der Elaboration auf die Einstellung und das Kaufverhalten empirisch messbar machen sollte. Durch eine Kausalanalyse mittels Strukturgleichungsmodell konnte ein teilweise signifikanter Einfluss von elaborationsbestimmenden Größen auf Einstellung und Kaufverhalten festgestellt werden. Eine Überprüfung der Gütekriterien des Fragebogens mittels explorativer und konfirmatorischer Faktoranalyse ergab in Hinsicht auf Reliabilität und Validität jedoch keine zufriedenstellenden Ergebnisse. Die Ergebnisse des Kausalmodells sollten deswegen mit Vorsicht betrachtet werden. In weiterführenden Forschungen könnte die Struktur der durch den Fragebogen erhobenen Konstrukte für Elaboration und Einstellung überarbeitet werden, um eine bessere Reliabilität und Validität zu erreichen und somit genauere Aussagen über die eigentlichen Beziehungen der Konstrukte treffen zu können.
Im Rahmen dieser Abschlussarbeit wurde ein automatisertes Test-Framework für eine Datenanalyse-Software namens MARS entwickelt. Der Zweck der Entwicklung dieses Frameworks ist es, die von der Software, zurückgegebenen Ergebnisse zu testen und zu vergleichen. In Zukunft soll dieses Framework verwendet werden, um den Start von Tests bei jeder neuen Version von MARS zu automatisieren.
Darüber hinaus ist dieses Framework in zwei Versionen erhältlich. Die erste ist eine grafische Version, um bestimmte Tests gezielt auszuführen und zu evaluieren. Die zweite Version ist eine Kommandozeilenversion, die es ermöglicht, schnell mehrere Tests zu generieren. Diese Version kann bspw. von einem Jenkins-Server aus gestartet werden.
Das Test-Framework wurde mit der Programmiersprache Python erstellt und mit dem Qt-Framework grafisch unterstützt. Die Vielzahl an Modulen und die große Anzahl an Nutzern machen Python zu einer beliebten Sprache für diese Art von Anwendungen. Die hohe Modularität von Qt für Python und die einfache Handhabung machen es zu einem reichhaltigen Werkzeug für die Erstellung von grafischen Benutzeroberflächen.