Refine
Document Type
- Bachelor Thesis (2)
- Conference Proceeding (1)
- Master's Thesis (1)
- Report (1)
Conference Type
- Konferenzartikel (1)
Keywords
- Datenanalyse (5) (remove)
Institute
Open Access
- Closed (3)
- Closed Access (1)
- Diamond (1)
- Open Access (1)
In recent years, the demand for reliable power, driven by sensitive electronic equipment, has surged. Even minor deviations from the nominal supply can lead to malfunctions or failure. Despite technological advancements, power quality issues persist due to various factors like short circuits, overloads, voltage fluctuations, unbalanced loads, and non-linear loads.
This thesis extensively explores power quality anomalies in industrial and commercial sectors, using power system data as the primary analytical resource. It addresses the critical need for power supply reliability in today's evolving power grid industry, affected by non-linear loads, renewable energy integration, and electric vehicles. This field of study is paramount for ensuring power supply reliability and stability in the evolving power grid industry.
The core of this thesis involves a comprehensive investigation of power quality, with a focus on frequency, power, and harmonics in voltage and current signals. The research employs Python programming for advanced data analysis, utilizing techniques such as advanced Fast Fourier Transformation (FFT) analysis. The primary objective is to provide valuable insights aimed at elevating power supply quality and enhancing reliability in both industrial and commercial environments.
Im Rahmen dieser Abschlussarbeit wurde ein automatisertes Test-Framework für eine Datenanalyse-Software namens MARS entwickelt. Der Zweck der Entwicklung dieses Frameworks ist es, die von der Software, zurückgegebenen Ergebnisse zu testen und zu vergleichen. In Zukunft soll dieses Framework verwendet werden, um den Start von Tests bei jeder neuen Version von MARS zu automatisieren.
Darüber hinaus ist dieses Framework in zwei Versionen erhältlich. Die erste ist eine grafische Version, um bestimmte Tests gezielt auszuführen und zu evaluieren. Die zweite Version ist eine Kommandozeilenversion, die es ermöglicht, schnell mehrere Tests zu generieren. Diese Version kann bspw. von einem Jenkins-Server aus gestartet werden.
Das Test-Framework wurde mit der Programmiersprache Python erstellt und mit dem Qt-Framework grafisch unterstützt. Die Vielzahl an Modulen und die große Anzahl an Nutzern machen Python zu einer beliebten Sprache für diese Art von Anwendungen. Die hohe Modularität von Qt für Python und die einfache Handhabung machen es zu einem reichhaltigen Werkzeug für die Erstellung von grafischen Benutzeroberflächen.
Unternehmen erzielen durch den Einsatz von Big Data-Analyse bereits heute eine Umsatzsteigerung, bei gleichzeitiger Kostensenkung. Trotzdem setzen lediglich 36% der mittelständischen Unternehmen in Deutschland auf Big-Data Initiativen. Diese Unternehmen sind sich nicht bewusst, welchen Datenschatz sie bereits besitzen, allerdings nicht gewinnbringend nutzen.
Ziel der Arbeit ist es, die Herausforderungen mit denen Unternehmen in der digitalen Transformation konfrontiert werden, sowie die Chancen, die sich durch den Einsatz von Datenanalyse ergeben, herauszuarbeiten.
Die Arbeit stellt einen Leitfaden für kleine und mittelständische Unternehmen dar, die erste Erfahrungen mit Big Data-Analytics machen möchten.
Der Bericht beschreibt die Vorgehensweise für die Entwicklung von Hochleistungszweitaktmotoren beim Institut für Transportwesen und Motorentechnik (ITM). Die gezielte Auswertung von motorischen Daten bietet die Möglichkeit, Motorenentwicklungsprozesse in wichtigen Fragestellung zu unterstützen. Für die Auslegung von Bauteilen und Prozessen werden Simulationsprogramme eingesetzt. Diese Entwicklungswerkzeuge können effizienter angewandt werden, wenn die Berechnungsergebnisse einer Qualitätskontrolle unterliegen. Wichtig hierfür sind Bewertungskriterien, die aus der Erfahrung einer Vielzahl von Versuchen bestehen. Da in Produktion gegangene Motoren üblicherweise schon einen Evolutionsprozeß durchlaufen haben, kann vermutet werden, daß solche Kriterien von erfolgreichen und weniger erfolgreichen Produkten in der Weise abgeleitet werden können, wie dies hier vorgestellt wurde. Die Angabe von Trendfunktionen für konstruktive Merkmale und Betriebsparameter ist notwendig um eine bedarfsorientierte Vorauslegung von Antrieben durchführen zu können. Alle hier vorgestellten Ergebnisse sind natürlich von der Datenmenge abhängig, die zu den jeweiligen Fragestellungen ausgewertet werden kann. Dazu müssen alle durchgeführten Versuchsreihen in die Datenbank eingeführt und mit Ergebnissen der Simulationsrechnungen in Beziehung gesetzt werden.
In den letzten Jahren entstand ein regelrechter Hype um das Thema Kryptowährungen und sie sind in Gesellschaft, Politik und Wirtschaft kaum noch wegzudenken. Trotz der hohen Volatilität und des Risikos für Investoren werden Kryptowährungen teilweise auch als eine Alternative für herkömmliche Währungen angesehen. Daher stellt sich die Frage, ob die Einstellung zu Kryptowährungen und auch das Investitionsverhalten auf einer sorgfältigen Auseinandersetzung von Argumenten basiert. Dafür wurde die Forschungsfrage: „Basieren Kaufverhalten und Einstellung zu Kryptowährungen eher auf der intensiven Auseinandersetzung mit tatsächlichen Argumenten oder auf oberflächlichen Reizen?“ aufgestellt. Zur Untersuchung dieser wurde eine Umfrage mit 283 Teilnehmenden durchgeführt. Auf Basis theoretischer Überlegungen zur Einstellungsforschung durch das Elaboration-Likelihood-Model wurde ein Fragebogen entworfen, der den Einfluss der Elaboration auf die Einstellung und das Kaufverhalten empirisch messbar machen sollte. Durch eine Kausalanalyse mittels Strukturgleichungsmodell konnte ein teilweise signifikanter Einfluss von elaborationsbestimmenden Größen auf Einstellung und Kaufverhalten festgestellt werden. Eine Überprüfung der Gütekriterien des Fragebogens mittels explorativer und konfirmatorischer Faktoranalyse ergab in Hinsicht auf Reliabilität und Validität jedoch keine zufriedenstellenden Ergebnisse. Die Ergebnisse des Kausalmodells sollten deswegen mit Vorsicht betrachtet werden. In weiterführenden Forschungen könnte die Struktur der durch den Fragebogen erhobenen Konstrukte für Elaboration und Einstellung überarbeitet werden, um eine bessere Reliabilität und Validität zu erreichen und somit genauere Aussagen über die eigentlichen Beziehungen der Konstrukte treffen zu können.