Refine
Year of publication
Document Type
- Bachelor Thesis (59)
- Conference Proceeding (59)
- Master's Thesis (13)
- Article (reviewed) (6)
- Book (1)
Conference Type
- Konferenzband (54)
- Konferenzartikel (5)
Is part of the Bibliography
- no (138) (remove)
Keywords
- Mikroelektronik (54)
- Design automation (3)
- FPGA (3)
- Finite difference methods (3)
- Finite-Elemente-Methode (3)
- Low-Power (3)
- Sensor (3)
- Angewandte Informatik (2)
- Augmented-Reality (2)
- Business Intelligence (2)
Institute
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (138) (remove)
Open Access
- Open Access (74)
- Bronze (54)
- Closed Access (53)
- Closed (11)
The embedding of microwave devices is treated by applying the finite-difference method to three-dimensional shielded structures. A program package was developed to evaluate electromagnetic fields inside arbitrary transmission-line connecting structures and to compute the scattering matrix. The air bridge, the transition through a wall, and the bond wire are examined as interconnecting structures. Detailed results are given and discussed regarding the fundamental behavior of embedding.
Structures for interconnecting active microwave semiconductor-devices, e.g. FET's and MIC's, with the electrical surrounding or with each other have to be designed more and more carefully when increasing the desired upper frequency limit. Therefore, several connecting structures for device embedding have been examined. Mainly, their applicability for the frequency range from 10 GHz to 100 GHz was considered. Additionally, different equivalent circuits were developed to approximately describe their behaviour for CAD-applications.
Der Entwurf von Strukturen zum reflexionsarmen Einbetten von Halbleiterbauteilen in Mikrostreifenleitungsschaltungen gestaltet sich mit steigender Frequenz kritischer. Deshalb wird ein Verfahren vorgestellt, das es ermöglicht, das Streuverhalten solcher Strukturen unter Anwendung der dreidimensionalen Finite-Differenzen-Methode auf die Maxwellschen Gleichungen numerisch zu berechnen. Hierauf aufbauend wurde das Programmpaket F3D entwickelt. Das Streuverhalten einer Verbindung zweier GaAs-Chips durch eine dielektrische Wand wird in Abhängigkeit von Geometrieparametern diskutiert. Außerdem werden Ersatzschaltbilder unterschiedlicher Komplexität für CAD-Anwendungen vorgestellt. Diese ermöglichen zudem eine rechenzeiteffektive Optimierung dieser Struktur, die somit Filteraufgaben übernehmen kann. Dies wird am Beispiel eines Tiefpasses gezeigt.
It is demonstrated that microwave structures incorporating dielectric resonators (DR) are accurately characterised by means of a 3-dimensional finite-difference CAD package. All major assumptions made so far have been dropped, offering the possibility of a rigorous analysis of the embedding of dielectric resonators into microwave structures. In particular, a finite thickness for the microstrip conductor has been taken into account. The coupling of the DR to a microstrip placed in a metallic housing has been theoretically and experimentally investigated. Theoretical and experimental results are in good agreement and give new insight into DR coupling to microstrip circuits.
The advantages of the coupling-of-modes (COM) formalism and the transmission-matrix approach are combined to create exact and computationally efficient analysis and synthesis CAD tools for the design of SAW-resonator filters. The models for the filter components, especially gratings, interdigital transducers (IDTs). and multistrip couplers (MSCs), are based on the COM approach, which delivers closed-form expressions. In order to determine the relevant COM parameters, the integrated COM differential equations are compared with analytically derived expressions from the transmission-matrix approach. The most important second-order effects such as energy storage, propagation loss and mechanical and electrical loading are fully taken into account. As an example, the authors investigate a two-pole, acoustically coupled resonator filter at 914.5 MHz on AT quartz. Excellent agreement between theory and measurement is found.
The advantages of the coupled-mode (COM) formalism and the transmission-matrix approach are combined in order to create exact and computationally efficient analysis and synthesis tools for the design of coupled surface acoustic wave resonator filters. The models for the filter components, in particular gratings, interdigital transducers (IDTs) and multistrip couplers (MSCs), are based on the COM approach that delivers closed-form expressions. To determine the pertinent COM parameters, the COM differential equations are solved and the solution is compared with analytically derived expressions from the transmission-matrix approach and the Green's function method. The most important second-order effects, such as energy storage, propagation loss, and mechanical and electrical loading, are fully taken into account. As an example, a two-pole, acoustically coupled resonator filter at 914.5 MHz on AT quartz is investigated. Excellent agreement between theory and measurement is found.
MPC-Workshop Februar 2001
(2001)
MPC-Workshop Juli 2001
(2001)
MPC-Workshop Januar 2002
(2002)
MPC-Workshop Juni 2002
(2002)
MPC-Workshop Juli 2003
(2003)
MPC-Workshop Januar 2003
(2003)
MPC-Workshop Februar 2004
(2004)
MPC-Workshop Juli 2004
(2004)
MPC-Workshop Februar 2005
(2005)
MPC-Workshop Juli 2005
(2005)
MPC-Workshop Februar 2006
(2006)
MPC-Workshop Juli 2006
(2006)
MPC-Workshop Februar 2007
(2007)
MPC-Workshop Juli 2007
(2007)
Tagungsband zum Workshop der Multiprojekt-Chip-Gruppe Baden-Württemberg, Konstanz, 4. Juli 2008
(2008)
Tagungsband zum Workshop der Multiprojekt-Chip-Gruppe Baden-Württemberg, Künzelsau, 6. Februar 2009
(2009)
Tagungsband zum Workshop der Multiprojekt-Chip-Gruppe Baden-Württemberg, Karlsruhe, 10. Juli 2009
(2009)
Tagungsband zum Workshop der Multiprojekt-Chip-Gruppe Baden-Württemberg, Göppingen, 5. Februar 2010
(2010)
Tagungsband zum Workshop der Multiprojekt-Chip-Gruppe Baden-Württemberg, Reutlingen, 9. Juli 2010
(2010)
This Master's Thesis discusses intelligent sensor networks considering autonomous sensor placement strategies and system health management. Sensor networks for an intelligent system design process have been researched recently. These networks consist of a distributed collective of sensing units, each with the abilities of individual sensing and computation. Such systems can be capable of self-deployment and must be scalable, long-lived and robust. With distributed sensor networks, intelligent sensor placement for system design and online system health management are attractive areas of research. Distributed sensor networks also cause optimization problems, such as decentralized control, system robustness and maximization of coverage in a distributed system. This also includes the discovery and analysis of points of interest within an environment. The purpose of this study was to investigate a method to control sensor placement in a world with several sources and multiple types of information autonomously. This includes both controlling the movement of sensor units and filtering of the gathered information depending on individual properties to increase system performance, defined as a good coverage. Additionally, online system health management was examined in this study regarding the case of agent failures and autonomous policy reconfiguration if sensors are added to or removed from the system. Two different solution strategies were devised, one where the environment was fully observable, and one with only partial observability. Both strategies use evolutionary algorithms based on artificial neural networks for developing control policies. For performance measurement and policy evaluation, different multiagent objective functions were investigated. The results of the study show that in the case of a world with multiple types of information, individual control strategies performed best because of their abilities to control the movement of a sensor entity and to filter the sensed information. This also includes system robustness in case of sensor failures where other sensing units must recover system performance. Additionally, autonomous policy reconfiguration after adding or removing of sensor agents was successful. This highlights that intelligent sensor agents are able to adapt their individual control policies considering new circumstances.
MPC-Workshop Februar 2011
(2011)
MPC-Workshop Juli 2011
(2011)
Diese Arbeit beschäftigt sich mit der Leistungsanalyse und Optimierung eines Flugdatenservers. Für die Durchführung dieser Leistungsanalyse wird eine eigene Anwendung entwickelt. Mit dieser eigens entwickelten Anwendung wird das Leistungsverhalten des Flugdatenservers genau analysiert. Mit den Erkenntnissen aus der Leistungsanalyse werden am Flugdatenserver Optimierungen durchgeführt und weitere Möglichkeiten zur Optimierung aufgezeigt. Bei diesem Flugdatenserver (Air Traffic Control Server) handelt es sich um eine Client/Server-Anwendung zur Visualisierung von Flugbewegungen im Lauftraum. Hierfür wird der Flugdatenserver mit Flugsicherungsdaten durch das Flugüberwachungssystem Automatic Dependent Surveillance (ADS) versorgt.
Im ersten Teil der vorliegenden Master-Thesis geht es um die Entwicklung einer Low-Power Wireless-Lichtschranke. Der Hardware-Aufbau wird ausführlich beschrieben und Besonderheiten für die Low-Power-Auslegung, wie beispielsweise Power-Management, werden vorgestellt. Optische Einheiten, Power-Management-Einheiten, System-On-Chip und Funkstufe werden ausführlich angesprochen. Die interrupt-gesteuerte und zeitlich optimierte Programmierung wird im Anschluss an den Hardware-Aufbau vorgestellt. Auch hier werden Low-Power-Eigenschaften diskutiert. Die Anbindung der Lichtschranke an einen Hub im 868 MHz ISM Band (engl.: Industrial, Scientific and Medical Band) und die Datenübertragung mittels Bluetooth an einen Computer, sowie die Programmierung einer Anzeige-GUI zur Visualisierung der Funkdaten mit LabVIEW werden weiterführend behandelt. Ergänzend hierzu wird die entwickelte Hardware vermessen und charakterisiert. Die Messergebnisse werden ausgewertet und vorgestellt.
Im zweiten Teil der Master-Thesis geht es um die Entwicklung eines Schulungskonzepts. In der Sick AG halten sich alle Abteilungen (Divisions) beim Entwickeln eines Produktes an einen vorgegebenen Produktentstehungsprozess. Division 1 hat im Rahmen dieses Produktentstehungsprozesses eine Konkretisierung vorgenommen: den Masterplan. Für die Einführung des Masterplans wurde ein teilnehmerorientiertes Schulungskonzept entwickelt. Es wird zuerst auf die Inhalte eingegangen. Im Anschluss werden die Teilnehmer untersucht und Motive und Lernvoraussetzungen charakterisiert. Nachdem diese und weitere Rahmenbedingungen geklärt sind, wird ein didaktisch durchdachtes Schulungskonzept entwickelt, ausführlich vorgestellt und diskutiert.
MPC-Workshop Februar 2012
(2012)
MPC-Workshop Juli 2012
(2012)
Eingebettete Systeme werden immer komplexer.Dabei werden System-on-Chips (SoC) eingesetzt und spielen eine sehr wichtige Rolle. Unter SoC versteht man „die Integration aller oder eines großen Teils der Funktionen eines Systems auf einem Chip“ [G]. SoCs haben sehr viele Vorteile. Vor einigen Jahren gab es noch riesige Leiterplatten mit Schaltungen, die aus mehreren Schaltkreisen aufgebaut wurden. Heute werden diese auf einem einzigen Chip realisiert. SoCs sind nicht nur sehr kompakt, sondern verbrauchen auch weniger Energie, da einerseitsdie Bauteile näherbeieinander sind, sie andererseits mit besseren Technologien ausgerüstet sind. Heutige SoCs sind so gebaut, dass sie wiederverwendet werden können. Sie bestehen aus mehreren einzelnen Systemkomponenten, um sowohl Kosten, als auch Entwicklungszeit zu sparen. Neben SoCs sind FPGAs (Field Programmable Gate Array) und CPLDs (ComplexProgrammableLogic Devices)sehr beliebte programmierbare Logikbauelemente, die in der Digitaltechnik ihren Einsatz finden. Sie sind die zwei wesentlichen Gruppen von ProgrammableLogic Devices (PLDs), dieexistieren. Sie bestehen hauptsächlich aus FlipFlops, CPLDs weisen sie aber vergleichsweise weniger auf. FPGAs sind komplexer als CPLDs. In der Hardware wird die Implementierung von arithmetischen Funktionen wie Addierern, Subtrahierern und Multiplizierern teilweise unterstützt. FPGAs sind aus diesem Grund die passenden Bauelemente zur Realisation von Anwendungen wie digitalen Signalverarbeitungssystemen oder Mikroprozessorsystemen.Die größten Hersteller von FPGAs sind Altera und Xilinx. Ein anderes aktuelles Thema sind die Bussysteme in Chips. Aufgrund der Komplexität der oben beschriebenen System-on-Chips, bestehen sie auch aus immer komplexeren Baugruppen, wie Prozessoren, Speichern oder auch Interfacecontrollern. Bussysteme werden zur Verbindung dieser Baugruppen eingesetzt. Je nach Baugruppe-Interfaces werden unterschiedliche Bussystem verwendet. Diese Bussysteme sind mit speziellen Spezifikationen dotiert, die aus diversen Anforderungen folgen. Einheitliche Standards sind daher wichtig. Unter anderen sind Bussysteme wie AMBA, Wishbone und CoreConnect häufig in FPGAs eingesetzt. Ihr Vorteil liegt an Ihren standardisierten Schnittstellen. Auf diese Bussysteme wird ins Detail in Kapitel 2.1 eingegangen. Zu der Familie von AMBA-Bussen gehört der AXI-Bus.Die vorliegende Arbeit beschäftigt sich mit dem AufbaueineswiederverwendbarenMasters, der aufAXI4-Protokoll basiert ist. Dieser sollte zunächst als Ethernet-Master eingesetzt werden, um Burst-Transaktionen zwischen dem Ethernet MAC und einemSpeicher zu ermöglichen, wird aber in anderen Projekten wiederverwendet.
Evaluation des In-Memory Datenbanksystems SAP HANA als Cloudlösung für Business Intelligence Systeme
(2013)
Global agierende Unternehmen sind mit einem stetig ansteigenden Datenaufkommen konfrontiert. Zur Analyse werden diese Daten in Business Intelligence Systeme geladen. Aufbereitete Daten werden heutzutage in der Regel in zeilenbasierten (relationalen) Datenbanksystemen vorgehalten. Ein großer Nachteil dieses Datenbanksystems für diesen Anwendungsfall ist, dass es auf eine hohe Anzahl einfacher Transaktionen mit wenigen Datensätzen ausgelegt ist. Im Kontext eines analysebasierten Modells, wie hier beim Business Intelligence, fallen dagegen hauptsächlich komplexe Abfragen auf einer Vielzahl von Datensätze an [BaGü2009]. Die SAP AG stellt mit dem Produkt SAP HANA eine Lösung zur Verfügung, welche auf die Datenanalyse für Business Intelligence ausgelegt ist und zugleich auch transaktionalen Anforderungen genügen soll. Das System ist als Appliance aus Soft- und Hardware konzipiert, das auf einem spaltenorientierten, In-Memory Datenbanksystem aufbaut. Diese Arbeit geht zunächst auf die Grundlagen des Business Intelligence, die allgemeinen Prinzipien von spaltenorientieren In-Memory Datenbankensystemen sowie deren Abgrenzung zu klassischen relationalen Systemen ein. Weiterhin wird auf die Architektur von SAP HANA und deren Besonderheiten eingegangen. Hauptgegenstand dieser Arbeit ist die Umsetzung einer Demoanwendung basierend auf SAP HANA in einer Cloud Umgebung (SAP HANA ONE). Hierbei wird insbesondere auf die Realisierbarkeit der Anwendung mittels der Entwicklungsumgebung SAP HANA Studio in einer Cloudumgebung eingegangen. Weiterhin steht zur Diskussion inwiefern SAP HANA in bestehende Business Intelligence Umgebungen integriert werden kann.
Diese Arbeit beschäftigt sich primär mit der Erstellung von Konzepten, welche in den Bereichen der langfristigen Planung, welche eine IT-Strategie festlegt und der kurzfristigen Steuerung des Tagesgeschäfts, ein besser strukturiertes und effizienteres Vorgehen im Umgang mit der Vielzahl an anfallenden Daten und Informationen ermöglichen sollen. Hierzu werden in den Grundlagen zunächst alle relevanten Begriffe geklärt, welche in diesem Umfeld auftreten. Im Kapitel Stand der Technik werden, die in der Industrie am meisten zertifizierten Standards, zur Lösung dieser Problematik vorgestellt. In der darauf folgenden Konzeption werden alle notwendigen Elemente konzipiert. Dafür erfolgt zunächst eine Auswahl der ITIL-Prozesse, welche für ein erfolgreiches IT-Controlling umgesetzt werden sollen. Danach wird ein Vorschlag für einen Service-Katalog auf Basis von ITIL entwickelt, der es ermöglichen soll die wachsende Anzahl von IT-Services an Hochschulen zu verwalten. Nach diesem erfolgt eine Konzeption von neuen Kostenstellen und Kostenarten für das Rechenzentrum der Hochschule Offenburg. Dies ist notwendig, da die aktuellen Kostenstellen und Kostenarten nicht mehr den Anforderungen des Rechenzentrums gerecht werden. Auch wird in dieser Arbeit eine Konzeption für ein einfaches ordnerbasiertes Ablagesystem zur Verwaltung von Partner-, Lizenz- und Vertragsdokumenten erstellt. Der letzte Punkt dieser Arbeit besteht in der Konzeption und Umsetzung eines Informationssystems, durch welches alle relevanten Daten grafisch ansprechend aufbereitet zur Verfügung gestellt werden sollen. Die Umsetzung dieses Informationssystems wird in dieser Arbeit mithilfe der beiden Open-Source-Tools Talend und Palo vorgenommen.
Researchers are developing new GNSS receivers and antennas based on an innovative signal-processing scheme to significantly improve GNSS tracking reliability and accuracy under degraded signal conditions. It is based on the principles of synthetic-aperture radar. Like in a multi-antenna phased array receiver, GNSS signals from different spatial locations are combined coherently forming an optimized synthetic antenna-gain pattern. The method is implemented in a real-time PC-based software receiver and works with GPS, GLONASS, and Galileo signals. Multiple frequencies are generally supported. The idea of synthetic-aperture processing is realized as a coherent summation of correlation values of each satellite over the so-called beamforming interval. Each correlation value is multiplied with a phase factor. For example, the phase factor can be chosen to compensate for the relative antenna motion over the beam-forming interval and the resulting sum of the scaled correlation values represents a coherent correlation value maximizing the line of sight signal power.
MPC-Workshop Februar 2013
(2013)
MPC-Workshop Juli 2013
(2013)
Diese Bachelor-Thesis beschreibt die Entwicklung eines Informationssystems, das abteilungsintern für verschiedene Report- und Controllingaufgaben in der Abteilung Organisation/IT genutzt wird. Grundlage bilden Daten über Hard- und Software aller Client-Computer, die von der in der PWO AG eingesetzten Anwendung zur Installation / Softwareverteilung (Microsoft SCCM) wöchentlich gesammelt werden. Zunächst wird die Funktionalität der Inventarisierung auf Korrektheit überprüft und die daraus entstehenden Daten analysiert. Benötigte Daten werden gefiltert, sortiert und teilweise mit bestehenden Datenbanken verknüpft. Daraus entsteht ein Webportal, welches es den zuständigen Mitarbeitern/innen ermöglicht, ohne manuellen Aufwand Clients, Software und Lizenzen zu verwalten und entsprechende Berichte zu erstellen. Zudem wird die bestehende CMDB durch bisher fehlende Daten ergänzt. Ziel ist es, die Aufgaben der IT-Abteilung an die ITIL Vorgaben innerhalb der PWO AG auszurichten, um so effektives und effizientes IT Service Management betreiben zu können. Gleichzeitig wird somit ein Standard für die Tochterwerke entwickelt.
Durch den digitalen Wandel, sowie durch die an Benutzerfreundlichkeit und Leistung zunehmenden technischen Geräte im Endbenutzer-Bereich beginnt die Bedeutung von Augmented-Reality Applikationen zu wachsen. Daher ist das Ziel dieser Arbeit die Entwicklung einer Engine auf iOS Basis, zur Dastellung von Augmented-Reality Inhalten. Die Engine wurde nach dem Vorbild von Komponenten-basierten Game Engines entworfen, da diese beinahe identische Anforderungen besitzen. Die, im Rahmen dieser Arbeit erstellte Engine wurde mit Unterstützung der 5d lab Gmb entwickelt. Durch die Verwendung des, nach Erfahrungswerten, schnellsten Mobile Augmented Reality SDK und einer gelungenen Engine-Architektur konnte ein Produkt entwickelt werden, dass mit bestehenden Applikationen konkurrenzfähig ist.
MPC-Workshop Februar 2014
(2014)
MPC-Workshop Juli 2014
(2014)
Diese Bachelor-Thesis beschreibt die Realisierung einer Webanwendung für Schüler und Studierende, welche interaktiv demonstriert, wie das Binärsystem funktioniert. Die Anwender sollen verstehen, wie ein Computer die Vielzahl an Daten mit lediglich zwei Zuständen, nämlich 1 und 0, verarbeitet. Dabei wird interaktiv gezeigt, wie der Algorithmus zur Umwandlung von Dezimalzahlen ins Binärsystem abläuft und wie man mit Binärzahlen rechnen kann. Außerdem gibt es sehr interessante Knobelaufgaben. Dabei wird versucht, dem User auf spielerische Art und Weise, zum Beispiel durch Spiele und Aktivitäten, die Denkweise eines Informatikers näher zu bringen. Das Ziel soll sein, dass sich das ursprüngliche Bild, welches Schüler von der Informatik haben, positiv verändert. Hierzu wird ein passendes didaktisches Konzept entwickelt, welches didaktische Modelle, Lehr-/Lernbedingungen und Lernziele der Webanwendung abbildet. Zunächst gibt es eine Einführung in die Thematik und der Stand der Technik wird erläutert, d.h. was bereits in diesem Umfeld existiert. Danach wird besonders auf die Realisierung der Applikation eingegangen. Hier werden Techniken und Werkzeuge für einen Lösungsansatz erklärt. Zuletzt wird das Thema zusammengefasst und evaluiert um einen anschließenden Ausblick geben zu können.
Diese Arbeit beschäftigt sich mit den verschiedenen Technologien, welche in verteilten Systemen zur Kommunikation dienen können. Kernpunkt der Arbeit ist es, eine Schnittstelle zu schaffen, in der eine extrem hohe Anzahl einzelner Anwendungen untereinander und mit einer zentralen Simulationsumgebung weitestgehend automatisch - kommunizieren können. Dabei ist auch ein wesentlicher Punkt die Frage wie Daten ausgetauscht werden können. Betrachtet man zunächst das System an sich, so wird es deutlich, dass speziell für die Entwicklung des Gesamtsystems, die Stabilität, Leistungsfähigkeit und Zuverlässigkeit des Interfaces von enormer Wichtigkeit ist.
Diese Arbeit befasst sich mit der Konzeption und Entwicklung einer SharePoint App, die einen Datenabgleich zwischen Zoho CRM und JIRA ermöglicht. Mittels dieser App ist es möglich, einen Supportfall, den der Support mittels Zoho CRM aufgenommen hat, bei Bedarf der Entwicklung zuzuweisen, indem in JIRA ein neues Ticket erstellt wird. Des Weiteren können durch die App Informationen, wie Firmen- und Kontaktdaten beiden Abteilungen zugänglich gemacht werden. Realisiert wird dies auf Basis von SharePoint, auf das alle beteiligten Mitarbeiter Zugriff haben. Zunächst wird für eine Lösung mit SharePoint dessen App-Modell analysiert und die möglichen Hosting-Varianten evaluiert. Die dabei getroffene Entscheidung für eine SharePoint gehostete App wird zudem begründet. Um die Bearbeitung eines Supportfalls innerhalb der App zu ermöglichen, wird ein Workflow entworfen, der neben dem Ablauf der Bearbeitung auch die Kommunikation mit den beteiligten Anwendungen festlegt. Die zu diesem Zweck notwendige persistente Speicherung der Daten in der App erfolgt dabei mithilfe von SharePoint Listen. Diese werden aufgrund eines ähnlichen Aufbaus als Tabellen dargestellt. Die detaillierte Darstellung einzelner Listenelemente dagegen erfolgt mithilfe von Dialog-Fenstern, die von SharePoint bereitgestellt werden. Dabei werden abhängig von dem Land aus dem die App aufgerufen wird, die Texte auf Deutsch oder auf Englisch angezeigt.
The objective of this thesis is the conceptual design of a battery management system for the first prototype of the UWC (University of the Western Cape) Modular Battery System. The battery system is a lithium-ion battery that aims to be used in renewable energy systems and for niche electric vehicles such as golf carts.
The concept that is introduced in this thesis comprises the parameter monitoring, the safety management and has its main focus on an accurate state of charge estimation.
Another battery system that was already implemented is used as base for the parameter monitoring and the safety management for the new battery management system. In contrast to that, the concept for the state of charge estimation must be developed completely.
Different methods for the state of charge estimation which are based on the measured voltage, current and temperature are discussed, evaluated and the chosen method is conceived in this thesis. The method used for the state of charge estimation is different for the time when the battery is active than when it is inactive. During charge and discharge Coulomb counting is used and when the cell is inactive voltage versus state of charge lookup tables are used to update the estimation.
To have an accurate estimation when the cell is inactive only for a short time, a model of the voltage relaxation is used to predict the voltage when the cells are in equilibrium. This allows the algorithm to reset the state of charge that is estimated by Coulomb counting – which tends to have a growing error over time – frequently.
To evaluate the accuracy of the voltage prediction, cell tests were executed where the voltage relaxation was sampled. The recursive least square method to predict the end voltage was tested with a MATLAB programme. With the help of voltage versus state of charge lookup tables it was possible to determine the state of charge accuracy with the accuracy of the voltage prediction.
Im Rahmen dieser Arbeit wurde ein Telepräsenzsystem entwickelt, bei dem ein Teleroboter mit beweglicher Kamera zum Einsatz kommt, der seine Ausrichtung über ein Head-mounted Display synchronisiert. Der Anwender des Systems sieht auf dem Display das Abbild der Umgebung des Teleroboters. Jede Kopfbewegung des Anwenders wird in Echtzeit auf die Kamerabewegung umgesetzt. Der Anwender kann sozusagen seinen Sehsinn temporär auf den Roboter auslagern, der ihn in einer entfernten Umgebung repräsentiert.
In der vorliegenden Bachelorarbeit wird die Verwendung von persistenten Datenstrukturen in Anwendungen untersucht. Dafür werden zunächst verschiedene Eigenschaften von bestehenden Implementierungen persistenter Datenstrukturen im Vergleich zu ephemeralen Implementierungen der Datenstrukturen untersucht. Hierbei werden Laufzeiten und Speicherverbrauch analysiert. Dabei wird gezeigt, in welchen Fällen die Verwendung von persistenten Datenstrukturen Vorteile gegenüber der Verwendung ephemeralen Datenstrukturen bringt.
Im zweiten Teil wird die Verwendung von persistenten Datenstrukturen in asynchronen Umgebungen untersucht. Hierfür werden die grundlegenden Probleme aufgezeigt, die bei der Erzeugung von Thread lokalen Versionen geteilter Zustände entstehen. Es wird aufgezeigt, wie die verschiedenen Versionen durch ein Zusammenführungsverfahren in einen gemeinsamen Zustand überführt werden können. Als konkrete Implementierung wurde eine Framework in Java entwickelt, welches versucht, dieses Problem wiederverwendbar zu lösen. Das entwickelte Framework wird anhand einer Beispielsdomäne evaluiert, indem die Performanz mit der Verwendung von expliziter Synchronisation verglichen wird. Hierbei wird gezeigt, dass in Situationen, in denen die Modifikationen viel Zeit benötigen, der Ansatz des Zusammenführen Vorteile gegenüber expliziter Synchronisation bietet. Im letzten Teil der Arbeit wird die Verwendung eines geteilten persistenten Zustandes im an der Hochschule Offenburg durchgeführtem A 2 O Projekt untersucht, bei dem Software für eine autonomes Modellauto entwickelt wurde. Es werden die Schwierigkeiten bei der Umsetzung der im Framework entwickelten Techniken in C++, sowie mögliche Lösungswege aufgezeigt.
Über die letzten Jahre entstanden unterschiedlichste Gerätschaften, besonders im mobilen Bereich und der Industrie 4.0, die große Datenmengen generieren. Diese müssen in entsprechenden Netzwerken entgegengenommen, verarbeitet und ggf. analysiert werden um einen Mehrwert zu erzielen. Ein Vertreter für die Umsetzung von Echtzeit-Datenverarbeitung ist Apache Spark, ein Open Source Framework, welches für die Analyse von Informationsströmen und Datenbeständen eingesetzt werden kann. Im Rahmen dieser Masterarbeit wird die Apache Spark Plattform von Grund auf erläutert und auf ihre Einsatzfähigkeit im Bereich der verteilten Datenverarbeitung untersucht. Durch die theoretische Einleitung in die Themen Big Data, Streaming Data, Data Mining und Real-Time Analytics wird ein grundlegendes Verständnis für die Aufgaben und Herausforderungen dieses Sachgebiets vermittelt. Es wird die Entwicklung von der Batch- zur Streamingverarbeitung vorgestellt und die Anforderungen, sowie Voraussetzungen für die Umsetzung von Echtzeitsystemen aufgezeigt.
Nachdem diese Grundlagen vermittelt wurden, folgt eine Vorstellung des Projektumfangs der Apache Software Foundation, in welchen sich auch das Spark Projekt einordnen lässt. Die Arbeit erläutert die Grundkonzepte von Apache Spark, wie die Entwicklung, Architektur und der Clusterbetrieb der Plattform. Dabei stützen sich die Untersuchungen auf praktische Beispiele, um die Arbeitsweise von Apache Spark näher aufzuzeigen. Die vorgestellten Themen fallen in die Bereiche der parallelen Datenverarbeitung mit Spark und beschäftigen sich mit den Voraussetzungen für das Erstellen von Anwendungen, die den verteilten Aufbau und die horizontale Skalierbarkeit von Spark ausnutzen. Spark bringt über eigene Bibliotheken auch Funktionalitäten für die Datenverarbeitung in speziellen Aufgabengebieten mit sich. In dieser Arbeit werden ebenfalls die beiden Bibliotheken MLlib, welche im Bereich des maschinellen Lernens Einsatz findet, und Spark Streaming, die Bibliothek für Verarbeitung von Datenflüssen, vorgestellt und deren Funktionsumfang untersucht. Das Kernthema dieser Arbeit bildet die Modellierung von Lösungsmöglichkeiten zur Analyse von Streaming Data. Es wird hierdurch die Funktionsweise von Spark und dessen Streaming Bibliothek anhand von kompletten Applikationen zur Ausreißererkennung in Datenströmen im Detail aufgezeigt.
Die Arbeit zeigt auf, dass Spark durchaus für den Einsatz zur verteilten Datenverarbeitung geeignet ist. Auch der Umgang mit Streaming Data wird durch den Bau der Prototypen nachgewiesen. In dem abschließenden Fazit werden die Erkenntnisse der Arbeit zusammengefasst und die Einsetzbarkeit von Spark diskutiert.
Durch den technischen Fortschritt werden sowohl die diagnostischen, als auch die therapeutischen Medizinprodukte immer komplexer. Gleichzeitig steigt auch der Funktionsumfang an, wodurch Krankheiten besser erkannt und behandelt werden können. Dabei muss das Gerät nicht nur funktional effektiv und sicher sondern auch einfach und intuitiv zu bedienen sein.
Aus diesem Grund muss beim Hersteller als letztes Glied des Entwicklungsprozesses die Produktvalidierung erfolgen. Um diese nach der erfolgreichen Verifizierung vollständig und effizient durchzuführen, wird in dieser Thesis zunächst die Datenanalyse der klinischen Bewertung aufgezeigt. Anschließend werden die Aufgabenanalyse und der Gebrauchstauglichkeitstest mit der Bewertung durch einen Fragebogen als Methoden der Usability-Validierung vorgestellt. Außerdem schließt die Produktvalidierung die Validierung der Lastenheftanforderungen mit ein, was mit Hilfe einer Dokumentenanalyse abgeprüft wird. Abschließend wird die Produktvalidierung in einem Dokument zusammengefasst und die Validität erklärt.
Zur Umsetzung der Validierungen werden am Beispiel eines mobilen EKG-Systems regularienkonforme Validierungsdokumente erörtert.
MPC-Workshop Februar 2015
(2015)
MPC-Workshop Juli 2015
(2015)
Das Ziel der vorliegenden Bachelorarbeit ist es, ein prototypisches Meldesystem für die Bankenaufsicht in einer privaten Cloud zu realisieren. Ferner sollen die Vorteile eines solchen Systems gegenüber bestehenden Systemen abgegrenzt werden. Im ersten Teil wird auf die Entwicklung von Software as a Service-Anwendungen sowie die rechtlichen Grundlagen und Zusammenhänge im Meldewesen eingegangen. Des Weiteren werden das Cloud-Computing und das verwendete Datenformat XBRL durchleuchtet. Anschließend werden bestehende Meldesysteme verglichen. Dabei stehen die unterschiedlichen Bereitstellungsarten im Fokus. Zur Erreichung des Ziels der Thesis wird ein Proof of Concept anhand einer Beispielmeldung aus dem Großkreditmeldewesen umgesetzt. Diese Meldung erfordert sowohl das Befüllen von PDF-Formularen sowie das Erstellen von XBRL-Dateien. Für die Umsetzung wird eine Testumgebung aufgebaut, mit welcher es bedingt möglich ist, reale Bedingungen zu simulieren. Nach einer Evaluation wird hierfür das Platform as a Service-System Openshift verwendet. Damit ist es möglich, eine Private Cloud zu erstellen, auf der eine Java EE Anwendung als Reporting as a Service-Lösung zur Verfügung gestellt wird. Deren Funktionsumfang umfasst das Einlesen, Prüfen, Konvertieren und Validieren von Daten sowie das Versenden von Meldungen zur Bankenaufsicht. Um die heterogenen Systeme im Finanzumfeld abzudecken, werden Testdaten als CSV, XLS und via Datenbank bereitgestellt. Die Tests mit diesen Daten sind sehr positiv. So ist es möglich, Daten aus allen Datenquellen einzulesen und mittels einer Plausibilitätsliste der Bundesbank zu prüfen. Anschließend können die Daten in eines der geforderten Formate PDF oder XBRL konvertiert werden. Durch den Ansatz einer privaten Cloud-Lösung können einige Sicherheitsbedenken ausgeschlossen werden, ohne auf die Vorteile wie Lastverteilung, Multitenancy, Skalierbarkeit und hohe Kompatibilität verzichten zu müssen. Abschließend werden in einer Schlussbetrachtung die Ergebnisse vorgestellt und ein Ausblick für die Zukunft gegeben.
Die Einführung der extrakorporalen Zirkulation unter Verwendung eines medikamentös induzierten Herzstillstands ermöglicht der Herzchirurgie die Herzoperationen, wie sie heute bekannt sind. Eine große Debatte besteht in der optimalen Zusammensetzung und Anwendungsweise der kardioplegischen Lösungen [6]. In der Helios Klinik für Herzchirurgie in Karlsruhe werden die kalte, kristalloide Kardioplegie nach Bretschneider und die modifizierte, kalte Blutkardioplegie nach Calafiore verwendet. Die vorliegende Arbeit beschäftigt sich mit der Frage, ob die Wahl der Kardioplegie Einwirkungen auf den intraoperativen und postoperativen Verlauf einer Bypass-Operation hat.
In der dazu angefertigten Studie wurden die Daten von 135 KHK Patienten retrospektiv erfasst und statistisch analysiert. Darunter wurden 81 Patienten mit der kalten Blutkardioplegie nach Calafiore behandelt und 53 Patienten mit der kristalloiden HTKLösung nach Bretschneider. Die demografischen Daten und Dringlichkeit der Operationen unterscheiden sich nicht signifikant voneinander. Bei den intraoperativen Parametern sind hinsichtlich der Hämoglobin-, Natrium-, und Kaliumkonzentration signifikante Unterschiede erkennbar. Weitere intraoperative Laborwerte zeigen keine Signifikanz. Die intraoperativen Parameter der Myokardprotektionsverfahren unterscheiden sich bezüglich der verabreichten Kardioplegiemenge. Bei postoperativen Parametern sind keine besonderen Signifikanzen notiert.
Die kristalloide Kardioplegie nach Bretschneider wie auch die modifizierte kalte Blutkardioplegie nach Calafiore sind sichere und effektive Verfahren. Einige Unterschiede konnten zugunsten der Blutkardioplegie nach Calafiore gefunden werden, die spezifisch für das jeweilige Verfahren sind. Zwingende Argumente für oder gegen eines dieser Verfahren konnten nicht gefunden werden.
Die in dieser Arbeit erzielten Ergebnisse zur Optimierung der Parameter zur Registrierung elektrisch evozierter Hirnstammpotenziale mit den beiden ERA-Messsystemen Eclipse EP25 und Synergy EDX dienen als Grundlage für die eBERA Untersuchungen. Betrachtet wurden besonders hierbei die Stimulati-onsart, Filtereinstellungen und Mittelungsoptionen.
Bei allen Messungen mit beiden Systemen, Eclipse EP25 und Synergy EDX, wird eine contralaterale Ableitung nahegelegt.
Eine zu empfehlende Filtereinstellung der Hochpassfilter und Tiefpassfilter zur Potenzialregistrierung mittels eBERA ist 0,2 Hz / 3000 Hz bei der Synergy und 33 Hz / 3000 Hz bei der Eclipse EP25. Bei Vorliegen tieffrequenter Einstreuun-gen ist eine Erhöhung der Grenzfrequenz des Hochpassfilters auf 100 Hz zu empfehlen.
Bei der Wahl der Stimulationsart hat sich die alternierende als die beste her-ausgestellt. Dies belegen sowohl die in den Ergebnissen gemessenen Potentia-le als auch Messungen von Kollegen (Steffens, 2016).
Die Mittelungsoption „bayesian weighting“ bei der Eclipse EP25 hat sich bei der eBERA Messung als nicht sehr hilfreich erwiesen. Bei der Synergy EDX hat die Einstellung „Mittel“ im Vergleich zu „Gewichtet“ die besseren Ergebnisse erzielt. Daher wird diese Wahl empfohlen, falls mit diesem System gemessen wird. Weitere weniger einflussreiche Einstellungen werden im Anhang C. „Optimierte Parameter beider Messsysteme“ aufgelistet.
Die Mismatch Negativity (MMN) bezeichnet eine Komponente reizkorrelierter Potentiale. Die MMN ist ein negativer Potentialkomplex, der ungefähr 100 bis 300 ms nach Stimuluspräsentation auftritt, wenn ein neuer Stimulus im Vergleich zu zuvor präsen-tierten, gleichartigen Stimuli ausreichend bzgl. Frequenz, Dauer, Ort oder Intensität abweicht. Der MMN zu Grunde liegen Messungen der späten akustisch evozierten Po-tentiale (SAEP). Die von beiden Stimuli hervorgerufenen SAEP werden separat gemittelt. Bei ausreichender Differenz der Stimuli und geeigneter Stimulusabfolge ist eine Potentialdifferenz zwischen den beiden gemittelten Antworten ableitbar, die MMN.
In dieser Arbeit wurde die Ableitung der MMN mit dem Registriersystem Eclipse EP-25 der Firma Interacoustics in Bezug auf zwei Stimulustypen, Tone-Bursts und Sprach-laute, evaluiert.
Diese Arbeit befasst sich mit der Konzeption und Implementierung eines Dateiimportfilters für Mess- und Kalibrierwerkzeuge. Dieser ermöglicht das Importieren von INCA-Experimenten nach CANape, indem aus Experiment-Exportdateien Konfigurationsdateien generiert werden. Im Zuge der Umsetzung wurde dazu das aus binären Daten bestehende Exportdateiformat von INCA analysiert. Das Ziel dieser Analyse bestand darin, herauszufinden, wo und wie die Informationen in den Exportdateien gespeichert sind. Die so erlangten Erkenntnisse wurden verwendet, um den Dateiimportfilter zu entwickeln. Dieser liest aus Exportdateien die notwendigen Informationen aus, überführt sie in eine CANape interne Repräsentation und generiert daraus eine entsprechende Konfigurationsdatei. Die korrekte Funktionsweise wurde anhand von selbst erstellten Experimenten sowie mithilfe von Kundenexperimenten validiert.
Data Mining of the Edge
(2016)
Kleine, intelligente Systeme prägen zunehmend unsere Umwelt, dass sogenannte Internet of Things wird immer mehr Teil unseres Alltages. Diese Geräte sind immer mehr dazu in der Lage Daten aufzunehmen und zu verarbeiten. Doch wie jede Technische Revolution, führt auch der Ausbau des IoT zu neuen Herausforderungen. Das Ziel dieser Arbeit ist die Bewertung der Qualität von verschiedenen Data Mining Frameworks im Edge Bereich, die Erstellung mehrere Demonstatoren eines Edge Szenario Aufbaus sowie deren Evaluation.
Diese Bachelorarbeit untersucht die Möglichkeiten der Persistierung und anschließenden Analyse verschiedener Messwerte in einer geeigneten Software-Architektur. Zunächst wird dazu die genaue Aufgabenstellung betrachtet. Im Anschluss soll die geplante Software-Architektur und die vorgesehene Kommunikationsart erklärt werden. Um das entwickelte Produkt einfach zur Verfügung stellen zu können, sollen die Tools Vagrant, Puppet und Docker gemeinsam genutzt werden. Nachdem im Anschluss auf die eingesetzte Servertechnologie eingegangen wurde, beschäftigt sich die Arbeit mit der Persistierung der Messdaten. Hierzu werden die verschiedenen Arten verfügbarer Datenbanktechnologien erläutert und darauf aufbauend eine Auswahl getroffen. Als letzten Teil der Anwendung wird auf die Demonstrationsapplikation eingegangen. Hier werden wieder die nötigen Anforderungen erörtert und die Umsetzung beschrieben.
Anhand der gewonnenen Erkenntnisse wird abschließend ein Fazit der verwendeten Technologien und der Architektur verfasst. Hier soll die Eignung der verwendeten Technologien zur Lösung des Problems überprüft und bewertet werden.
Abschließend wird noch ein Ausblick auf die zukünftige Entwicklung in diesem Bereich gegeben.
Die Vision vom "Internet der Dinge" prägt seit Jahren Forschung und Entwicklung, wenn es um smarte Technologien und die Vernetzung von Geräten geht. In der Zukunft wird die reale Welt zunehmend mit dem Internet verknüpft, wodurch zahlreiche Gegenstände (Dinge) des normalen Alltags dazu befähigt werden, zu interagieren und sowohl online als auch autark zu kommunizieren. Viele Branchen wie Medizin, Automobilbau, Energieversorgung und Unterhaltungselektronik sind gleichermaßen betroffen, wodurch trotz Risiken auch neues wirtschaftliches Potential entsteht. Im Bereich "Connected Home" sind bereits Lösungen vorhanden, mittels intelligenter Vernetzung von Haushaltsgeräten und Sensoren, die Lebensqualität in den eigenen vier Wänden zu erhöhen. Diese Arbeit beschäftigt sich mit dem Thread Protokoll; einer neuen Technologie zur Integration mehrerer Kommunikationsschnittstellen innerhalb eines Netzwerks. Darüber hinaus wird die Implementierung auf Netzwerkebene (Network Layer) vorgestellt, sowie aufbereitete Informationen bezüglich verwendeter Technologien dargestellt.
MPC-Workshop Februar 2016
(2016)
In dieser Bachelor Arbeit wird die Realisierung und messtechnische Analyse dreier Delta-Sigma-Modulatoren vorgestellt. Zwei der drei Modulatoren sind mit diskreten Bauteilen realisiert, ein dritter als integrierte Schaltung. Bei den diskret realisierten Modulatoren handelt es sich um Modulatoren 1. und 2. Ordnung, der als integrierte Schaltung verbaute Modulator ist ein Modulator 7. Ordnung.
Die Messdaten werden mithilfe eines Mikrocontrollers aufgezeichnet und am Computer mit MATLAB ausgewertet. Für die Auswertung der Modulatoren wird jeweils der Signalrauschabstand und die harmonische Verzerrung des Signals ermittelt. Zusätzlich wird bei jeder Messung eines Modulators das Spektrum des Signals ermittelt und dargestellt. Bei den beiden diskreten Modulatoren ergibt sich bei den Messungen ein Signalrauschabstand von 54 dB bis 56 dB, bei dem als integrierte Schaltung implementierten Delta-Sigma-Modulator wird ein Wert von 70 dB bis 76 dB erreicht. Für die harmonische Verzerrung der Signale wird beim Modulator 1. Ordnung ein Wert von 64 dB, beim Modulator 2. Ordnung 72 dB und beim 7. Ordnung 91 dB gemessen.
How can manufacturers or service companies provide better services with connected products, without having acquired a powerful IT infrastructure nor the competences for software development?
Today companies can appeal to a relocated-IT-infrastructure provider, which is called Cloud.
Consequently, they do not have to manage and take care of the safety/security aspect, the updates and the breakdown of the infrastructure internally, as those are all managed by the provider.
It is possible to outsource the development of the software of the connected product to an external company. However, the question now is how fast this company can juggle from one Cloud to another in order to fulfil their clients wishes?
neverMind offers a solution based on a multi-protocols-platform linking the different connected products to a multitude of Clouds without having to redesign the whole communication stack/building block for each change in the Cloud-solution. This is the object of my thesis.
The development follows the V-Model, the first steps to understand the complexity of the project were the realisation of the product technical and architectural specifications. The last step before the Implementation was to design in details the progress and the process of every parts of the platform.
The outcome of the requirements analysis led me to divide the project in two parts:
• a “General Interface” acting as a gateway between the Client-application and “Cloud-modules”
• the “Cloud-modules” themselves.
So far, the specifications are drown up; the General Interface and a client example are coded, as well as a first Cloud-module template.
Das Ziel der vorliegenden Bachelorarbeit war es, die Fähigkeiten des LDC1000 EVM von Texas Instruments (TI) zur hochauflösenden induktiven Distanzmessung, integriert in ein Kraftmesssystem, als Alternative zur Dehnungsmessung mit Dehnungsmessstreifen zu untersuchen. Hierzu wurden zunächst Versuche an einem Wegmessaufbau bezüglich Auflösung, Rauschverhalten und der Qualitätsmerkmale für messtechnische Systeme wie Nullpunktstabilität, Linearität und Hystereseverhalten durchgeführt. Anschließend diente eine entworfene Druckmessdose, mit applizierten Dehnungsmessstreifen als Referenz, zur weiteren Untersuchung der Qualitätsmerkmale und zur Optimierung des LDC1000-Systems. Als Messobjekte zur Abstandsmessung kamen die Werkstoffe AlMgSi0,5, St37, AlCu4Mg1 und 1.4305 verschiedener Geometrien zum Einsatz. Die Ergebnisse bestätigen die Angabe von TI zur Sub-Mikrometer-Auflösung des Systems, ein relativ hoher Rauschanteil beschränkt allerdings die Genauigkeit. Die Resultate der Untersuchungen von Nullpunktstabilität und Hystereseverhalten lassen einen Einsatz im Bereich der Kraftmesstechnik unter gewissen Voraussetzungen zu, das nichtlineare Verhalten der induktiven Wegmessung hingegen macht eine nachträgliche Linearisierung der Messwerte unumgänglich. Diese Bachelorarbeit richtet sich an all diejenigen, die sich detallierter mit Alternativen zur Dehnungsmessung auseinandersetzen oder genauere Untersuchungen zum LDC1000 EVM von TI durchführen.
Orthogonal Frequency Division Multiplexing (OFDM) ist ein modernes Mehrträgermodulationsverfahren, das sich gut an die besonderen Eigenschaften eines Mobilfunkkanals mit zeitvarianter Mehrwegeausbreitung anpassen kann. Es eignet sich aufgrund seines Aufbaus vor allem für Breitbandübertragungen und wird in vielen aktuellen Funksystemen wie LTE, WLAN, DVB-T usw. eingesetzt. In DSL wird die Basisbandvariante von OFDM eingesetzt, die „Discrete Multitone Transmission (DMT)“ genannt wird. Viele Aussagen über OFDM lassen sich auch auf DMT übertragen.
Moduliert wird mit Hilfe der inversen Fouriertransformation, die viele Unterträger parallel verarbeitet und am Schluss aufsummiert. Dies hat den Nachteil einer hohen Signalfluktuation, die bei Verstärkern zu Problemen führt.
Reale Verstärker haben eine nichtlineare Verstärkungskennlinie mit einer maximalen Ausgangsamplitude. Wird diese überschritten, wird das Signal abgeschnitten (geclippt). Dies hat sowohl vermehrte Bitfehler aufgrund des Orthogonalitätsverlustets der Unterträgersignale zueinander zur Folge, als auch eine erhöhte Außerbandabstrahlung.
Eine mögliche Lösung besteht darin, die Aussteuerung des Verstärkers klein zu halten. Daraus resultieren jedoch erhöhte Kosten und eine verringerte Energieeffizienz. Man ist daher bemüht die Signalfluktuation möglichst gering zu halten. Eine Maßzahl für die Amplitudenschwankungen ist das Peak-to-Average-Power-Ratio (PAPR).
Um das PAPR zu senken, gibt es eine ganze Reihe unterschiedlicher Verfahren. In dieser Arbeit werden die gängigsten davon vorgestellt und das Interleavingverfahren, die Tone Reservations (TR) und das Active Constellation Expanding (ACE) genauer untersucht.
Durch die Digitalisierung erschlossen sich in den letzten 15 Jahren nicht nur viele Möglichkeiten neues Bildmaterial oder Videomaterial aufzunehmen und zu verwahren, sondern auch die Zugänglichkeit der breiten Masse zu solcher Technologie. Abseits der Datenmengen wie sie Social Media Plattformen tagtäglich verarbeiten, existieren die Sende- und Rundfunkanstalten mit gigantischen Archiven von Videomaterial. Der Großteil davon ist von dokumentarischer oder szenischer Natur sowie verschiedenste Interviews aus allen Bereichen des öffentlichen Lebens.
Nach dem aktuellen Stand wird das Videomaterial von Hand kategorisiert und zur Indizierung verschlagwortet. Die Aufgabe war es nun, diesen Prozess zumindest teilweise zu automatisieren. Dazu sollten auf dem Markt verfügbare Technologien in Bereich der Gesichtserkennung und Texterkennung auf ihre Nutzbarkeit zu diesem Zweck hin evaluiert werden. Dabei soll mit Hilfe der in Interviews verwendeten Bauchbinden das momentan gezeigte Gesicht "gelernt" werden, um es später ohne solche Hilfe wiederzuerkennen.
Implementierung von Softcore-Prozessoren und/oder weiteren IPs (Intellectual Properties) in FPGAs
(2017)
In heutigen Low-Power-Anwendungen ist es mittlerweile Standard sogenannte System-on-a-Chip (SoC)-Systeme zu entwickeln. Diese benötigen eine Recheneinheit, sowie nur die notwendigste Hardware, um die Energieversorgung auch über Energy-Harvesting zu ermöglichen.
Im Rahmen dieser Abschlussarbeit wurde der aktuelle Stand von verfügbaren Hardcore- und Softcore-Prozessoren evaluiert. Aufgrund der hohen Anforderung an den Prozessor in Low-Power-Systemen, wurden Hardcore-Prozessoren für die weitere Untersuchung ausgeschlossen. Obwohl diese sehr leistungstarke und energieeffiziente Prozessoren sind, weisen Hardcore-Prozessoren nicht die notwendige Flexibilität in einer minimalen Konfiguration auf, um die Ansprüche einer Low-Power-Anwendung zu erfüllen.
Aus diesem Grund wurden von verschiedenen Quellen Softcore-Prozessoren untereinander mit zusätzlich, ausgewählten Kriterien untersucht. Die Wahl fiel auf den NEO430, welcher auf der Architektur des Mikrocontrollers MSP430 von Texas Instrument basiert.
Mit dem NEO430 als Softcore, wurde ein Demonstrator-System entwickelt und auf dem Development-Board DE2-115 von Terasic implementiert. Im Zuge der Entwicklung des Demonstrators wurden weiterhin frei verfügbare IP-Cores zur Anbindung an den NEO430 untersucht. Der Demonstrator umfasste eine selbst entwickelte CRC-Berechnung, um damit die Programmierbarkeit, die Funktionen des NEO430 zu testen und dessen Ressourcenverbrauch, sowie Erweiterbarkeit über der Wishbone-Schnittstelle zu evaluieren.
Die Evaluierung des Demonstrator-Systems ergab einen Ressourcenverbrauch von 1253 Logikelemente des Development-Boards. Neben dem Demonstrator wurden weitere Konfigurationen, wie eine Minimale-, die Standard-Konfiguration und insbesondere eine Konfiguration ohne der Wishbone-Schnittstelle evaluiert.
Durch die starke Verbreitung der MSP430-Serie in der Industrie, ist der NEO430 ein interessanter Kandidat für Low-Power-Systeme
In dieser Thesis wird die Visualisierung der Stammdaten der MARKANT Handels und
Service GmbH (MARKANT) überarbeitet. Zu Beginn wird auf die Firma MARKANT,
die aktuelle Lösung der Visualisierung und die daraus resultierenden Probleme eingegangen.
In der Thesis wird zunächst ein generisches Diagramm erstellt, welches Daten,
die eine hierarchische Ordnung haben, zeichnet. Darauf aufbauend soll als Beispiel, das
Organigramm der Firma MARKANT, mit allen Anforderungen, umgesetzt werden.
Um das Ziel zu erreichen, wird eine Marktübersicht eingeholt und die Frameworks
verglichen. Nachdem eine engere Auswahl getroffen ist, sollen die Frameworks hinsichtlich
der Visualisierung genauer evaluiert werden.
Nach der Wahl des Frameworks wird eine Konzeption erstellt, bei der auf einen neuen
Technologiestack, sowie auf die Bedienbarkeit des Diagrammes durch den Endanwender
eingegangen wird.
Anhand der erstellten Konzeption werden die verschiedenen Funktionen des Diagrammes
implementiert. Ein neuer Stack wird aufgebaut und an das System der Firma
MARKANT angepasst.
Abschließend zeigt ein Vergleich zwischen der alten und der neuen Visualisierung auf,
was in der Thesis erreicht wurde.
Implementierung von schnellen Algorithmen auf Basis der FFT in einem digitalen Signalprozessor
(2017)
In dieser Bachelor-Thesis geht es um die Weiterentwicklung des bestehenden Laborversuchs „Schnelle Algorithmen auf Basis der FFT“ des Labors „Digitale Signalverarbeitung“. Dieser Versuch wird momentan mit einem digitalen Signalprozessor (TMS320C6713) umgesetzt. Dabei sollen eine schnelle Faltung, sowie Erweiterungen der bestehenden Software, welche mit dieser zusammenhängen, implementiert werden. Des Weiteren sollen Verbesserungen und Korrekturen an dem bestehenden Projekt vorgenommen werden. Um herauszufinden, was bereits implementiert ist, wird das bestehende Projekt zunächst analysiert. Anschließend wird die schnelle Faltung mit dem für das Labor benötigten Funktionsumfang implementiert. Zudem werden darüber hinaus Erweiterungen der Software umgesetzt, wie z.B. eine Sprachauswahl.
Im Rahmen dieser Abschlussarbeit wurde evaluiert, welche Hardware-Plattform für Einsteiger im Bereich der System-on-Chip (SoC) Field-Programmable-Gate-Arrays (FPGAs) (SoC-FPGAs)geeignet ist, speziell Altera Cyclone V SoC. Dabei wurde die Vorgehensweise sowie die benötigten Programme, die für die Entwicklung benötigt werden, ermittelt. Als Beispiel Applikation diente hier die Bildverarbeitung. Die Hardware-Plattform soll es ermöglichen, dass diese von Programmierern im Bereich der Bildverarbeitung genutzt werden kann, ohne dass diese sich um die Hardware kümmern müssen. Zusätzlich sollte evaluiert werden, ob und wie man den FPGA benutzen kann, um Algorithmen auf der Hardware auszuführen, und so einen Performance Gewinn zu erhalten.
Für die Thesis stand zu Beginn ein Hardware-Paket, bestehend aus einem FPGA-SoC-Board, Kamera-Modul sowie TFT-Display zur Verfügung. Dieses Paket stellte sich als nicht geeignet heraus, da die Hersteller entweder keine oder nur mangelhafte Dokumentation zu den Modulen bereitstellten.
Als geeignete Hardware wurde das DE0-Nano-SoC von der Firma Terasic gewählt. Das verwendete Kamera–Modul sowie Display–Modul stammt ebenfalls von Terasic. Diese Module bieten den Vorteil, dass sie auch mit anderen Boards von Terasic kompatibel und gut dokumentiert sind und es Beispiel-Programme für diese Module gibt. Für die gewählte Hardware-Plattform wurde ein IP-Core für die Kommunikation mit der Kamera, sowie ein IP-Core für die Berechnung von Bayer-Raw-Format in das 16 bit(565)-RGB-Format entworfen und implementiert. Die Funktion der IP-Cores wurde mit Hilfe von Simulationen verifiziert.
Es wurden die Arbeitsschritte und Abläufe ermittelt, die nötig sind, um das System vom embedded Linux zu programmieren und mit den IP-Cores zu kommunizieren.
Entwicklung eines miniaturisierten Energieversorgungs-Moduls zur autarken Versorgung von Funkmodulen
(2017)
Diese Abschlussarbeit beschäftigt sich mit der Entwicklung eines miniaturisierten Energieversorgungs-Moduls. Das Modul soll gleichzeitig aus drei Energy-Harvestern Energie sammeln und diese in einem Doppelschichtkondensator zwischenspeichern. Diese Energie kann anschließend von einem Funksensorknoten zum Sammeln und Übermitteln von Daten genutzt werden.
Solch ein aufgebautes System verspricht bei einem geringen Volumen eine hohe Lebensdauer,geringen Wartungsaufwand und eine hohe Leistung, ohne dass eine drahtgebundene Energieversorgung oder große Batterien notwendig sind.
Nach dem Erstellen eins Konzepts und der Auswahl der dafür passenden Komponenten wurde zunächst ein Evaluations-Board aufgebaut. Auf diesem wurden alle in Frage kommenden Komponenten vermessen und die Funktion getestet. Aus den dadurch erworbenen Erkenntnissen wurde das miniaturisierte Energieversorgungs-Modul entwickelt. Das miniaturisierte Modul bietet folgende Möglichkeiten: Aus drei verschiedenen Energy Harvestern wird gleichzeitig die Energie gesammelt und aufbereitet. Durch die Nutzung eines effizienten Wandler-Moduls wird bei der Energieaufbereitung eine Effizienz von über 85 % erreicht. Drei Wandler-Module verbrauchen zusammen lediglich eine Leistung von P = 3, 459 µW. Der Maximum Power Point jedes einzelnen Harvesters kann separat eingestellt werden. Auch alle anderen Komponenten werden stromsparend gewählt. Die Energie wird in einem 1, 5 F Doppelschichtkondensator gespeichert. Zusätzlich wird als Backup-Energieversorgung eine Lithium Knopfzelle eingesetzt.
Dadurch können auch sicherheitskritische Anwendungen realisiert werden. Konnte durch die Energy Harvester nicht genügend Energie gesammelt werden, wird die Batterie dem Funksensorknoten zugeschaltet. Das miniaturisierte Modul hat die Maße 20 mm x 40 mm. Nach abschließenden Messungen mit einem neu implementierten Funksensorknoten, der in einer anderen Bachelorthesis entstanden ist [1], wurde eine Sendewiederholrate von 1, 1 s nachgewiesen. Dies stellt einen sehr guten Wert dar und reicht für die meisten Anwendungen aus.
Zuletzt wird aus allen Komponenten inklusive des Funksensorknotens ein Demonstrationsmuster zusammengebaut. Dieses hat die Maße von 5 cm x 5 cm x 5 cm und kann zur weiterführenden Forschung oder als Anschauungsmaterial genutzt werden.
Die vorliegende Bachelor-Thesis ist bei der Firma AUMA in Müllheim in der Abteilung Testingentstanden.
Diese Arbeit ist in zwei Teile unterteilt. Im ersten Teil wird näher auf den Entwurf eines Motorenprüfstands und dessen Realisierung eingegangenen, während sich der zweite Teil damit befasst, wie dieser für die Ausbildung – und die Einarbeitung in Mess- und Steuerungstechnik – von Auszubildenden genutzt werden soll. In diesem Versuchsaufbau wird vorrangig ein Gleichstrommotor getestet.
Die Begründung für die Erstellung eines Motoren-Bremsprüfstands liegt darin, dass es eine der Hauptaufgaben der Abteilung Testing ist, in Labor-Prüfeinrichtungen Antriebe der AUMA Gruppe zu testen. Diese Prüfeinrichtungen arbeiten in der Regel mit gefährlichen Spannungen und dürfen nur von Fachkräften in Betrieb genommen werden. In Zukunft sollen Auszubildende im Zuge einer praxisnahen und handlungsorientierten Ausbildung die Möglichkeit haben, sich selbstständig in die Bereiche der Mess- und Steuerungstechnik einzuarbeiten.
Mit dem realisierten Motoren-Bremsprüfstand ist es in der Abteilung Testing möglich, in Zukunft Auszubildende ressourcenschonend und in einem gefahrenfreien Umfeld in die Aufgaben der Abteilung Testing einzuarbeiten. Somit reduziert sich die benötigte Einarbeitungszeit, in der ein Mitarbeiter die Auszubildenden betreuen muss. Mit dem gebauten Prüfstand können Auszubildende die Charakteristik eines Gleichstrommotors verstehen und die Messmethoden, zur Erfassung von Drehmoment, Drehwinkel, Temperatur, sowie elektrische Größen, anwenden. Diese Erkenntnisse lassen sich optimal auf größere Prüfstände übertragen und bereiten die Auszubildenden auf spätere Aufgaben im Unternehmen AUMA und der Abteilung Testing vor.