Refine
Year of publication
Document Type
- Bachelor Thesis (59)
- Conference Proceeding (59)
- Master's Thesis (13)
- Article (reviewed) (6)
- Book (1)
Conference Type
- Konferenzband (54)
- Konferenzartikel (5)
Is part of the Bibliography
- no (138) (remove)
Keywords
- Mikroelektronik (54)
- Design automation (3)
- FPGA (3)
- Finite difference methods (3)
- Finite-Elemente-Methode (3)
- Low-Power (3)
- Sensor (3)
- Angewandte Informatik (2)
- Augmented-Reality (2)
- Business Intelligence (2)
Institute
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (138) (remove)
Open Access
- Open Access (74)
- Bronze (54)
- Closed Access (53)
- Closed (11)
Das Ziel der vorliegenden Bachelorarbeit ist es, ein prototypisches Meldesystem für die Bankenaufsicht in einer privaten Cloud zu realisieren. Ferner sollen die Vorteile eines solchen Systems gegenüber bestehenden Systemen abgegrenzt werden. Im ersten Teil wird auf die Entwicklung von Software as a Service-Anwendungen sowie die rechtlichen Grundlagen und Zusammenhänge im Meldewesen eingegangen. Des Weiteren werden das Cloud-Computing und das verwendete Datenformat XBRL durchleuchtet. Anschließend werden bestehende Meldesysteme verglichen. Dabei stehen die unterschiedlichen Bereitstellungsarten im Fokus. Zur Erreichung des Ziels der Thesis wird ein Proof of Concept anhand einer Beispielmeldung aus dem Großkreditmeldewesen umgesetzt. Diese Meldung erfordert sowohl das Befüllen von PDF-Formularen sowie das Erstellen von XBRL-Dateien. Für die Umsetzung wird eine Testumgebung aufgebaut, mit welcher es bedingt möglich ist, reale Bedingungen zu simulieren. Nach einer Evaluation wird hierfür das Platform as a Service-System Openshift verwendet. Damit ist es möglich, eine Private Cloud zu erstellen, auf der eine Java EE Anwendung als Reporting as a Service-Lösung zur Verfügung gestellt wird. Deren Funktionsumfang umfasst das Einlesen, Prüfen, Konvertieren und Validieren von Daten sowie das Versenden von Meldungen zur Bankenaufsicht. Um die heterogenen Systeme im Finanzumfeld abzudecken, werden Testdaten als CSV, XLS und via Datenbank bereitgestellt. Die Tests mit diesen Daten sind sehr positiv. So ist es möglich, Daten aus allen Datenquellen einzulesen und mittels einer Plausibilitätsliste der Bundesbank zu prüfen. Anschließend können die Daten in eines der geforderten Formate PDF oder XBRL konvertiert werden. Durch den Ansatz einer privaten Cloud-Lösung können einige Sicherheitsbedenken ausgeschlossen werden, ohne auf die Vorteile wie Lastverteilung, Multitenancy, Skalierbarkeit und hohe Kompatibilität verzichten zu müssen. Abschließend werden in einer Schlussbetrachtung die Ergebnisse vorgestellt und ein Ausblick für die Zukunft gegeben.
Die Einführung der extrakorporalen Zirkulation unter Verwendung eines medikamentös induzierten Herzstillstands ermöglicht der Herzchirurgie die Herzoperationen, wie sie heute bekannt sind. Eine große Debatte besteht in der optimalen Zusammensetzung und Anwendungsweise der kardioplegischen Lösungen [6]. In der Helios Klinik für Herzchirurgie in Karlsruhe werden die kalte, kristalloide Kardioplegie nach Bretschneider und die modifizierte, kalte Blutkardioplegie nach Calafiore verwendet. Die vorliegende Arbeit beschäftigt sich mit der Frage, ob die Wahl der Kardioplegie Einwirkungen auf den intraoperativen und postoperativen Verlauf einer Bypass-Operation hat.
In der dazu angefertigten Studie wurden die Daten von 135 KHK Patienten retrospektiv erfasst und statistisch analysiert. Darunter wurden 81 Patienten mit der kalten Blutkardioplegie nach Calafiore behandelt und 53 Patienten mit der kristalloiden HTKLösung nach Bretschneider. Die demografischen Daten und Dringlichkeit der Operationen unterscheiden sich nicht signifikant voneinander. Bei den intraoperativen Parametern sind hinsichtlich der Hämoglobin-, Natrium-, und Kaliumkonzentration signifikante Unterschiede erkennbar. Weitere intraoperative Laborwerte zeigen keine Signifikanz. Die intraoperativen Parameter der Myokardprotektionsverfahren unterscheiden sich bezüglich der verabreichten Kardioplegiemenge. Bei postoperativen Parametern sind keine besonderen Signifikanzen notiert.
Die kristalloide Kardioplegie nach Bretschneider wie auch die modifizierte kalte Blutkardioplegie nach Calafiore sind sichere und effektive Verfahren. Einige Unterschiede konnten zugunsten der Blutkardioplegie nach Calafiore gefunden werden, die spezifisch für das jeweilige Verfahren sind. Zwingende Argumente für oder gegen eines dieser Verfahren konnten nicht gefunden werden.
The embedding of microwave devices is treated by applying the finite-difference method to three-dimensional shielded structures. A program package was developed to evaluate electromagnetic fields inside arbitrary transmission-line connecting structures and to compute the scattering matrix. The air bridge, the transition through a wall, and the bond wire are examined as interconnecting structures. Detailed results are given and discussed regarding the fundamental behavior of embedding.
Tagungsband zum Workshop der Multiprojekt-Chip-Gruppe Baden-Württemberg, Reutlingen, 9. Juli 2010
(2010)
Tagungsband zum Workshop der Multiprojekt-Chip-Gruppe Baden-Württemberg, Künzelsau, 6. Februar 2009
(2009)
Tagungsband zum Workshop der Multiprojekt-Chip-Gruppe Baden-Württemberg, Konstanz, 4. Juli 2008
(2008)
Tagungsband zum Workshop der Multiprojekt-Chip-Gruppe Baden-Württemberg, Karlsruhe, 10. Juli 2009
(2009)
Tagungsband zum Workshop der Multiprojekt-Chip-Gruppe Baden-Württemberg, Göppingen, 5. Februar 2010
(2010)
Orthogonal Frequency Division Multiplexing (OFDM) ist ein modernes Mehrträgermodulationsverfahren, das sich gut an die besonderen Eigenschaften eines Mobilfunkkanals mit zeitvarianter Mehrwegeausbreitung anpassen kann. Es eignet sich aufgrund seines Aufbaus vor allem für Breitbandübertragungen und wird in vielen aktuellen Funksystemen wie LTE, WLAN, DVB-T usw. eingesetzt. In DSL wird die Basisbandvariante von OFDM eingesetzt, die „Discrete Multitone Transmission (DMT)“ genannt wird. Viele Aussagen über OFDM lassen sich auch auf DMT übertragen.
Moduliert wird mit Hilfe der inversen Fouriertransformation, die viele Unterträger parallel verarbeitet und am Schluss aufsummiert. Dies hat den Nachteil einer hohen Signalfluktuation, die bei Verstärkern zu Problemen führt.
Reale Verstärker haben eine nichtlineare Verstärkungskennlinie mit einer maximalen Ausgangsamplitude. Wird diese überschritten, wird das Signal abgeschnitten (geclippt). Dies hat sowohl vermehrte Bitfehler aufgrund des Orthogonalitätsverlustets der Unterträgersignale zueinander zur Folge, als auch eine erhöhte Außerbandabstrahlung.
Eine mögliche Lösung besteht darin, die Aussteuerung des Verstärkers klein zu halten. Daraus resultieren jedoch erhöhte Kosten und eine verringerte Energieeffizienz. Man ist daher bemüht die Signalfluktuation möglichst gering zu halten. Eine Maßzahl für die Amplitudenschwankungen ist das Peak-to-Average-Power-Ratio (PAPR).
Um das PAPR zu senken, gibt es eine ganze Reihe unterschiedlicher Verfahren. In dieser Arbeit werden die gängigsten davon vorgestellt und das Interleavingverfahren, die Tone Reservations (TR) und das Active Constellation Expanding (ACE) genauer untersucht.
Verschiedenste Hersteller von Prothesen treiben die Entwicklungen in der Neuroprothetik immer weiter voran. Jedoch steigen dadurch nicht nur die Komplexität und die Funktionen einer solchen Prothese, sondern auch die Kosten. Oft wird vernachlässigt, dass ein einfaches Greifen meist schon ausreicht und damit oftmals viel mehr Personen geholfen werden kann als mit einer teuren Highend-Prothese.
Die vorliegende Masterthesis soll zeigen, dass es möglich ist, mit einfachen Mitteln einen funktionsfähigen bionischen Prototyp zu entwickeln. Die Steuerung funktioniert per Knopfdruck, Bewegungen werden automatisch ausgeführt.
Hierfür wurde auf der Rekonstruktion der ersten eisernen Hand des Götz von Berlichin-gen aufgebaut. Diese wurde mit günstiger und einfach beschaffbarer Elektronik verändert, damit die Prothese durch elektrische Motoren aktiv ansteuerbar ist. Das Modell wurde mit SolidWorks 2018 verändert. Die elektronischen Bauteile wurden über ein Arduino Board UNO R3 angesteuert, welcher die Schnittstelle zum Computer bildet.
Der Entwurf von Strukturen zum reflexionsarmen Einbetten von Halbleiterbauteilen in Mikrostreifenleitungsschaltungen gestaltet sich mit steigender Frequenz kritischer. Deshalb wird ein Verfahren vorgestellt, das es ermöglicht, das Streuverhalten solcher Strukturen unter Anwendung der dreidimensionalen Finite-Differenzen-Methode auf die Maxwellschen Gleichungen numerisch zu berechnen. Hierauf aufbauend wurde das Programmpaket F3D entwickelt. Das Streuverhalten einer Verbindung zweier GaAs-Chips durch eine dielektrische Wand wird in Abhängigkeit von Geometrieparametern diskutiert. Außerdem werden Ersatzschaltbilder unterschiedlicher Komplexität für CAD-Anwendungen vorgestellt. Diese ermöglichen zudem eine rechenzeiteffektive Optimierung dieser Struktur, die somit Filteraufgaben übernehmen kann. Dies wird am Beispiel eines Tiefpasses gezeigt.
In dieser Bachelor Arbeit wird die Realisierung und messtechnische Analyse dreier Delta-Sigma-Modulatoren vorgestellt. Zwei der drei Modulatoren sind mit diskreten Bauteilen realisiert, ein dritter als integrierte Schaltung. Bei den diskret realisierten Modulatoren handelt es sich um Modulatoren 1. und 2. Ordnung, der als integrierte Schaltung verbaute Modulator ist ein Modulator 7. Ordnung.
Die Messdaten werden mithilfe eines Mikrocontrollers aufgezeichnet und am Computer mit MATLAB ausgewertet. Für die Auswertung der Modulatoren wird jeweils der Signalrauschabstand und die harmonische Verzerrung des Signals ermittelt. Zusätzlich wird bei jeder Messung eines Modulators das Spektrum des Signals ermittelt und dargestellt. Bei den beiden diskreten Modulatoren ergibt sich bei den Messungen ein Signalrauschabstand von 54 dB bis 56 dB, bei dem als integrierte Schaltung implementierten Delta-Sigma-Modulator wird ein Wert von 70 dB bis 76 dB erreicht. Für die harmonische Verzerrung der Signale wird beim Modulator 1. Ordnung ein Wert von 64 dB, beim Modulator 2. Ordnung 72 dB und beim 7. Ordnung 91 dB gemessen.
This thesis deals with the implementation of the SUBSCALE algorithm in the Python programming language. First, the current state of research and the needs of the target group are considered. Then, the choice of language is decided based on the findings. On the basis of self-generated requirements, the implementation is carried out.
Finally, the code is evaluated for accuracy, consistency, and execution time, as well as its applicability in practice.
Since the implementation of the current work proved to be unconvincing, an approach is tested in which Python is used only as a front-end.
Durch den technischen Fortschritt werden sowohl die diagnostischen, als auch die therapeutischen Medizinprodukte immer komplexer. Gleichzeitig steigt auch der Funktionsumfang an, wodurch Krankheiten besser erkannt und behandelt werden können. Dabei muss das Gerät nicht nur funktional effektiv und sicher sondern auch einfach und intuitiv zu bedienen sein.
Aus diesem Grund muss beim Hersteller als letztes Glied des Entwicklungsprozesses die Produktvalidierung erfolgen. Um diese nach der erfolgreichen Verifizierung vollständig und effizient durchzuführen, wird in dieser Thesis zunächst die Datenanalyse der klinischen Bewertung aufgezeigt. Anschließend werden die Aufgabenanalyse und der Gebrauchstauglichkeitstest mit der Bewertung durch einen Fragebogen als Methoden der Usability-Validierung vorgestellt. Außerdem schließt die Produktvalidierung die Validierung der Lastenheftanforderungen mit ein, was mit Hilfe einer Dokumentenanalyse abgeprüft wird. Abschließend wird die Produktvalidierung in einem Dokument zusammengefasst und die Validität erklärt.
Zur Umsetzung der Validierungen werden am Beispiel eines mobilen EKG-Systems regularienkonforme Validierungsdokumente erörtert.
In der vorliegenden Bachelorarbeit wird die Verwendung von persistenten Datenstrukturen in Anwendungen untersucht. Dafür werden zunächst verschiedene Eigenschaften von bestehenden Implementierungen persistenter Datenstrukturen im Vergleich zu ephemeralen Implementierungen der Datenstrukturen untersucht. Hierbei werden Laufzeiten und Speicherverbrauch analysiert. Dabei wird gezeigt, in welchen Fällen die Verwendung von persistenten Datenstrukturen Vorteile gegenüber der Verwendung ephemeralen Datenstrukturen bringt.
Im zweiten Teil wird die Verwendung von persistenten Datenstrukturen in asynchronen Umgebungen untersucht. Hierfür werden die grundlegenden Probleme aufgezeigt, die bei der Erzeugung von Thread lokalen Versionen geteilter Zustände entstehen. Es wird aufgezeigt, wie die verschiedenen Versionen durch ein Zusammenführungsverfahren in einen gemeinsamen Zustand überführt werden können. Als konkrete Implementierung wurde eine Framework in Java entwickelt, welches versucht, dieses Problem wiederverwendbar zu lösen. Das entwickelte Framework wird anhand einer Beispielsdomäne evaluiert, indem die Performanz mit der Verwendung von expliziter Synchronisation verglichen wird. Hierbei wird gezeigt, dass in Situationen, in denen die Modifikationen viel Zeit benötigen, der Ansatz des Zusammenführen Vorteile gegenüber expliziter Synchronisation bietet. Im letzten Teil der Arbeit wird die Verwendung eines geteilten persistenten Zustandes im an der Hochschule Offenburg durchgeführtem A 2 O Projekt untersucht, bei dem Software für eine autonomes Modellauto entwickelt wurde. Es werden die Schwierigkeiten bei der Umsetzung der im Framework entwickelten Techniken in C++, sowie mögliche Lösungswege aufgezeigt.
Die in dieser Arbeit erzielten Ergebnisse zur Optimierung der Parameter zur Registrierung elektrisch evozierter Hirnstammpotenziale mit den beiden ERA-Messsystemen Eclipse EP25 und Synergy EDX dienen als Grundlage für die eBERA Untersuchungen. Betrachtet wurden besonders hierbei die Stimulati-onsart, Filtereinstellungen und Mittelungsoptionen.
Bei allen Messungen mit beiden Systemen, Eclipse EP25 und Synergy EDX, wird eine contralaterale Ableitung nahegelegt.
Eine zu empfehlende Filtereinstellung der Hochpassfilter und Tiefpassfilter zur Potenzialregistrierung mittels eBERA ist 0,2 Hz / 3000 Hz bei der Synergy und 33 Hz / 3000 Hz bei der Eclipse EP25. Bei Vorliegen tieffrequenter Einstreuun-gen ist eine Erhöhung der Grenzfrequenz des Hochpassfilters auf 100 Hz zu empfehlen.
Bei der Wahl der Stimulationsart hat sich die alternierende als die beste her-ausgestellt. Dies belegen sowohl die in den Ergebnissen gemessenen Potentia-le als auch Messungen von Kollegen (Steffens, 2016).
Die Mittelungsoption „bayesian weighting“ bei der Eclipse EP25 hat sich bei der eBERA Messung als nicht sehr hilfreich erwiesen. Bei der Synergy EDX hat die Einstellung „Mittel“ im Vergleich zu „Gewichtet“ die besseren Ergebnisse erzielt. Daher wird diese Wahl empfohlen, falls mit diesem System gemessen wird. Weitere weniger einflussreiche Einstellungen werden im Anhang C. „Optimierte Parameter beider Messsysteme“ aufgelistet.
In dieser Thesis wird die Visualisierung der Stammdaten der MARKANT Handels und
Service GmbH (MARKANT) überarbeitet. Zu Beginn wird auf die Firma MARKANT,
die aktuelle Lösung der Visualisierung und die daraus resultierenden Probleme eingegangen.
In der Thesis wird zunächst ein generisches Diagramm erstellt, welches Daten,
die eine hierarchische Ordnung haben, zeichnet. Darauf aufbauend soll als Beispiel, das
Organigramm der Firma MARKANT, mit allen Anforderungen, umgesetzt werden.
Um das Ziel zu erreichen, wird eine Marktübersicht eingeholt und die Frameworks
verglichen. Nachdem eine engere Auswahl getroffen ist, sollen die Frameworks hinsichtlich
der Visualisierung genauer evaluiert werden.
Nach der Wahl des Frameworks wird eine Konzeption erstellt, bei der auf einen neuen
Technologiestack, sowie auf die Bedienbarkeit des Diagrammes durch den Endanwender
eingegangen wird.
Anhand der erstellten Konzeption werden die verschiedenen Funktionen des Diagrammes
implementiert. Ein neuer Stack wird aufgebaut und an das System der Firma
MARKANT angepasst.
Abschließend zeigt ein Vergleich zwischen der alten und der neuen Visualisierung auf,
was in der Thesis erreicht wurde.
How can manufacturers or service companies provide better services with connected products, without having acquired a powerful IT infrastructure nor the competences for software development?
Today companies can appeal to a relocated-IT-infrastructure provider, which is called Cloud.
Consequently, they do not have to manage and take care of the safety/security aspect, the updates and the breakdown of the infrastructure internally, as those are all managed by the provider.
It is possible to outsource the development of the software of the connected product to an external company. However, the question now is how fast this company can juggle from one Cloud to another in order to fulfil their clients wishes?
neverMind offers a solution based on a multi-protocols-platform linking the different connected products to a multitude of Clouds without having to redesign the whole communication stack/building block for each change in the Cloud-solution. This is the object of my thesis.
The development follows the V-Model, the first steps to understand the complexity of the project were the realisation of the product technical and architectural specifications. The last step before the Implementation was to design in details the progress and the process of every parts of the platform.
The outcome of the requirements analysis led me to divide the project in two parts:
• a “General Interface” acting as a gateway between the Client-application and “Cloud-modules”
• the “Cloud-modules” themselves.
So far, the specifications are drown up; the General Interface and a client example are coded, as well as a first Cloud-module template.
MPC-Workshop Juni 2002
(2002)
MPC-Workshop Juli 2018
(2018)
MPC-Workshop Juli 2015
(2015)
MPC-Workshop Juli 2014
(2014)
MPC-Workshop Juli 2013
(2013)
MPC-Workshop Juli 2012
(2012)
MPC-Workshop Juli 2011
(2011)
MPC-Workshop Juli 2007
(2007)
MPC-Workshop Juli 2006
(2006)
MPC-Workshop Juli 2005
(2005)
MPC-Workshop Juli 2004
(2004)
MPC-Workshop Juli 2003
(2003)
MPC-Workshop Juli 2001
(2001)
MPC-Workshop Januar 2003
(2003)
MPC-Workshop Januar 2002
(2002)
MPC-Workshop Februar 2016
(2016)
MPC-Workshop Februar 2015
(2015)
MPC-Workshop Februar 2014
(2014)
MPC-Workshop Februar 2013
(2013)
MPC-Workshop Februar 2012
(2012)
MPC-Workshop Februar 2011
(2011)
MPC-Workshop Februar 2007
(2007)
MPC-Workshop Februar 2006
(2006)
MPC-Workshop Februar 2005
(2005)
MPC-Workshop Februar 2004
(2004)
MPC-Workshop Februar 2001
(2001)
Die vorliegende Bachelor-Thesis befasst sich mit der Thematik, eine drahtlose Energieübertragung mit Hilfe induktiv resonanter Kopplung zu simulieren und aufzubauen. Durch die in den letzten Jahren immer größer werdende Elektromobilität steigt auch das Interesse an einem drahtlosen Transfer von elektrischem Strom. Doch auch in kleineren Leistungsbereichen ist ein drahtloses Aufladen, wie z.B. bei Laptops und Handys, ein angesagtes Thema. Mit Hilfe von zwei resonanten Schwingkreisen wird ein Austausch an Energie zwischen Sender- und Empfängerschwingkreis demonstriert. Die Grundlagen der magnetischen Induktion wie auch die Grundlagen von elektrischen Schwingkreisen sind hierfür essentiell und werden in dem ersten Kapitel aufgegriffen. Durch das Aufstellen eines mathematischen Modells, im zweiten Kapitel, wird das Prinzip der magnetischen Kopplung und das Phänomen der Frequenzspaltung von gekoppelten Systemen ausführlich behandelt und aufgestellt. Spider-Web Spulen, welche schon in niedrigen Frequenzbereichen hohe Güten aufweisen können, werden für den folgenden Aufbau verwendet. In den darauf folgenden Kapiteln wird das über das Magnetfeld gekoppelte System ausführlich untersucht. Das System erzielt eine Leistungsübertragung von 20W über 30 cm mit einer Effizienz von ungefähr 52%. Des Weiteren konnte der Punkt der kritischen Kopplung, durch eine Verminderung der ohmschen Last im Sendeschwingkreis, auf 50 cm gelegt werden.
Diese Arbeit beschäftigt sich mit der Leistungsanalyse und Optimierung eines Flugdatenservers. Für die Durchführung dieser Leistungsanalyse wird eine eigene Anwendung entwickelt. Mit dieser eigens entwickelten Anwendung wird das Leistungsverhalten des Flugdatenservers genau analysiert. Mit den Erkenntnissen aus der Leistungsanalyse werden am Flugdatenserver Optimierungen durchgeführt und weitere Möglichkeiten zur Optimierung aufgezeigt. Bei diesem Flugdatenserver (Air Traffic Control Server) handelt es sich um eine Client/Server-Anwendung zur Visualisierung von Flugbewegungen im Lauftraum. Hierfür wird der Flugdatenserver mit Flugsicherungsdaten durch das Flugüberwachungssystem Automatic Dependent Surveillance (ADS) versorgt.
Das Team "magmaOffenburg" nimmt seit 2009 an der 3D-Simulationsliga des RoboCups teil. Wie gut das Laufen auf zwei Beinen in der verwendeten Simulationsumgebung "SimSpark" funktioniert ist einer der zentralen Faktoren für ein erfolgreiches Abschneiden. Bisher wird für das Laufen ausschließlich eine inverskinematische Walk-Engine verwendet.
In dieser Arbeit wird mit genetischen Algorithmen und einer modellfreien Parametrisierung Laufen komplett "from scratch" gelernt. Derselbe Ansatz wurde zuvor bereits erfolgreich für das Lernen von Kicks eingesetzt. Gegenüber der alten Walk-Engine zeichnet diesen Ansatz besonders aus, dass zum ersten Mal die Zehengelenke genutzt werden, welche eines der verfügbaren Robotermodelle besitzt. Dies ermöglicht einen natürlicheren und schnelleren Gang. Zwar ist die Stabilität des gelernten Laufens noch nicht vergleichbar mit dem bisherigen (der Spieler fällt etwa 26% häufiger hin), aber beispielsweise beim Vorwärtslaufen konnten mit einer Geschwindigkeit von 1.3 m/s statt 1 m/s Steigerungen von 30% erzielt werden.
Darüber hinaus wurde untersucht, wie dem Agenten im Anschluss an das gelernte Laufen wieder ein Übergang zur alten Walk-Engine gelingen kann. Der erfolgreichste Ansatz basiert ebenfalls wieder auf einer mit genetischen Algorithmen trainierten Bewegung. Er ist in etwa der Hälfte der Fälle erfolgreich.
Im Rahmen dieser Arbeit wird ein dezentrales Usermanagement entwickelt, das ein vorhandenes aber veraltetes Usermanagement ersetzen soll.
Zuerst werden verschiedene Technologien für die Umsetzung evaluiert. Dabei wird begründet, warum z. B. dem Relationalen Datenbanksystem von Oracle der Vorzug gegenüber einem NoSQL-System wie MongoDB gegeben wird.
Im Rahmen einer ausführlichen Konzeption werden zuerst die Anforderungen detailliert formu-liert. In einem Grob-Entwurf werden die Beziehungen des alten und des neuen Usermanagements zur Außenwelt dargestellt. Datenmodellierung und Skizzierung der Paket- bzw. Klassen-Struktur innerhalb der Anwendung bilden die Grundlage für die spätere Implementierung. Ein besonderer Schwerpunkt bei der Konzeptionierung liegt auf dem Entwurf der REST-API.
Bei der Implementierung werden die Schritte von der Einrichtung des Spring-Frameworks bis zur lauffähigen Anwendung beschrieben. Der Umgang mit der Datenbank und dem OR-Mapper sind Schwerpunkte der Implementierung, ebenso wie die Umsetzung der REST-Schnittstellen. Die fachlichen Prozesse der Daten-Migration, der Verarbeitung von Requests aus einem zentralen System und des GLN-Mappings werden in eigenen Kapiteln behandelt.
Am Ende werden die erzielten Ergebnisse dokumentiert, offene Punkte angesprochen und ein Fazit gezogen.
Ziel der vorliegenden Arbeit ist es, einen Fräsroboter zu konstruieren, der kompakter und leichter sein soll als ein bereits im Labor CompAssMed existierender Fräsroboter. Für den neuen Fräsroboter sollte zusätzlich eine Ansteuerung programmiert werden. Mit der Ansteuerung soll es möglich sein, die Fräserspitze im Arbeitsraum des Fräsroboters programmgesteuert zu positionieren. Eine Augmented-Reality-Brille soll evaluiert werden, um ihre Integrationsfähigkeit in das Labor zu untersuchen. Alle Ziele wurden erreicht. Das Gewicht des neuen Fräsroboters ist 75 % geringer und er hat eine 85 % kleinere Grundfläche als der vorhandene Fräsroboter. Die Ansteuerung des neuen Fräsroboters, wurde als MATLAB-Skript realisiert und ist funktional. Die Evaluierung der Augmented-Reality-Brille wurde mit dem Ergebnis durchgeführt, dass sie nicht in die Softwareinfrastruktur des Labors CompAssMed integriert werden kann.
Intelligente Assistenten - Untersuchung der Spracheingabe in Verbindung mit dem ERP-System SIVAS.ERP
(2018)
Die vorliegende Bachelorarbeit wurde für die schrempp edv GmbH erstellt. Die Untersuchung von Technologien intelligenter Assistenz und eine fundierte Einsatzempfehlung für zukünftige Entwicklungen in Verbindung mit dem ERP-System SIVAS sind die primären Ziele der Abschlussarbeit. Das Hauptaugenmerk der Analyse liegt auf der Spracherkennung und der Sprachverarbeitung. Diese Technologien sollen den Umgang mit den komplexen Anwendungen im SIVAS-Umfeld erleichtern.
Der erste Teil der Abschlussarbeit befasst sich mit den theoretischen Grundlagen intelligenter (Sprach-) Assistenz. Im zweiten Teil wird die SIVAS.Montage-App und ein Szenario zur prototypischen Umsetzung intelligenter Assistenz vorgestellt.
Die folgenden Teile beschäftigen sich mit der Spracherkennung und Sprachverarbeitung von Google und Microsoft. Die beiden Unternehmen betreiben seit Jahren intensive Forschungen zu den Sprachtechnologien und bieten erfolgreiche Lösungskonzepte an. Analysierte Frameworks der Spracherkennung sind die Google Speech API und die Bing Speech API. Kandidaten der Sprachverarbeitung sind Dialogflow von Google und LUIS von Microsoft.
Das Ergebnis der Analyse ist die Einsatzempfehlung der Frameworks von Google. Insbesondere bei der ermittelten Fehlerrate als Schlüsselkriterium der Spracherkennung, kann Google mit 11,11 % gegenüber Microsoft mit 23,09 % überzeugen. Der Vergleich der Frameworks zur Sprachverarbeitung liefert ähnliche Resultate. Google ist Microsoft bei der Klassifizierung bisher unbekannter Aussagen der Anwender mit einer Genauigkeit von 86,67 % um fünf Prozentpunkte überlegen. Informationen werden mit Hilfe von Dialogflow erfolgreicher und strukturell besser aufbereitet extrahiert.
Abschließend wird SIVAS mit den analysierten Google-Technologien mittels einer prototypischen Umsetzung des ausgewählten Szenarios zur Erfassung von Montagezeiten zusammengebracht.
Researchers are developing new GNSS receivers and antennas based on an innovative signal-processing scheme to significantly improve GNSS tracking reliability and accuracy under degraded signal conditions. It is based on the principles of synthetic-aperture radar. Like in a multi-antenna phased array receiver, GNSS signals from different spatial locations are combined coherently forming an optimized synthetic antenna-gain pattern. The method is implemented in a real-time PC-based software receiver and works with GPS, GLONASS, and Galileo signals. Multiple frequencies are generally supported. The idea of synthetic-aperture processing is realized as a coherent summation of correlation values of each satellite over the so-called beamforming interval. Each correlation value is multiplied with a phase factor. For example, the phase factor can be chosen to compensate for the relative antenna motion over the beam-forming interval and the resulting sum of the scaled correlation values represents a coherent correlation value maximizing the line of sight signal power.
Implementierung von Softcore-Prozessoren und/oder weiteren IPs (Intellectual Properties) in FPGAs
(2017)
In heutigen Low-Power-Anwendungen ist es mittlerweile Standard sogenannte System-on-a-Chip (SoC)-Systeme zu entwickeln. Diese benötigen eine Recheneinheit, sowie nur die notwendigste Hardware, um die Energieversorgung auch über Energy-Harvesting zu ermöglichen.
Im Rahmen dieser Abschlussarbeit wurde der aktuelle Stand von verfügbaren Hardcore- und Softcore-Prozessoren evaluiert. Aufgrund der hohen Anforderung an den Prozessor in Low-Power-Systemen, wurden Hardcore-Prozessoren für die weitere Untersuchung ausgeschlossen. Obwohl diese sehr leistungstarke und energieeffiziente Prozessoren sind, weisen Hardcore-Prozessoren nicht die notwendige Flexibilität in einer minimalen Konfiguration auf, um die Ansprüche einer Low-Power-Anwendung zu erfüllen.
Aus diesem Grund wurden von verschiedenen Quellen Softcore-Prozessoren untereinander mit zusätzlich, ausgewählten Kriterien untersucht. Die Wahl fiel auf den NEO430, welcher auf der Architektur des Mikrocontrollers MSP430 von Texas Instrument basiert.
Mit dem NEO430 als Softcore, wurde ein Demonstrator-System entwickelt und auf dem Development-Board DE2-115 von Terasic implementiert. Im Zuge der Entwicklung des Demonstrators wurden weiterhin frei verfügbare IP-Cores zur Anbindung an den NEO430 untersucht. Der Demonstrator umfasste eine selbst entwickelte CRC-Berechnung, um damit die Programmierbarkeit, die Funktionen des NEO430 zu testen und dessen Ressourcenverbrauch, sowie Erweiterbarkeit über der Wishbone-Schnittstelle zu evaluieren.
Die Evaluierung des Demonstrator-Systems ergab einen Ressourcenverbrauch von 1253 Logikelemente des Development-Boards. Neben dem Demonstrator wurden weitere Konfigurationen, wie eine Minimale-, die Standard-Konfiguration und insbesondere eine Konfiguration ohne der Wishbone-Schnittstelle evaluiert.
Durch die starke Verbreitung der MSP430-Serie in der Industrie, ist der NEO430 ein interessanter Kandidat für Low-Power-Systeme
Implementierung von schnellen Algorithmen auf Basis der FFT in einem digitalen Signalprozessor
(2017)
In dieser Bachelor-Thesis geht es um die Weiterentwicklung des bestehenden Laborversuchs „Schnelle Algorithmen auf Basis der FFT“ des Labors „Digitale Signalverarbeitung“. Dieser Versuch wird momentan mit einem digitalen Signalprozessor (TMS320C6713) umgesetzt. Dabei sollen eine schnelle Faltung, sowie Erweiterungen der bestehenden Software, welche mit dieser zusammenhängen, implementiert werden. Des Weiteren sollen Verbesserungen und Korrekturen an dem bestehenden Projekt vorgenommen werden. Um herauszufinden, was bereits implementiert ist, wird das bestehende Projekt zunächst analysiert. Anschließend wird die schnelle Faltung mit dem für das Labor benötigten Funktionsumfang implementiert. Zudem werden darüber hinaus Erweiterungen der Software umgesetzt, wie z.B. eine Sprachauswahl.
Diese Bachelorarbeit untersucht die Möglichkeiten der Persistierung und anschließenden Analyse verschiedener Messwerte in einer geeigneten Software-Architektur. Zunächst wird dazu die genaue Aufgabenstellung betrachtet. Im Anschluss soll die geplante Software-Architektur und die vorgesehene Kommunikationsart erklärt werden. Um das entwickelte Produkt einfach zur Verfügung stellen zu können, sollen die Tools Vagrant, Puppet und Docker gemeinsam genutzt werden. Nachdem im Anschluss auf die eingesetzte Servertechnologie eingegangen wurde, beschäftigt sich die Arbeit mit der Persistierung der Messdaten. Hierzu werden die verschiedenen Arten verfügbarer Datenbanktechnologien erläutert und darauf aufbauend eine Auswahl getroffen. Als letzten Teil der Anwendung wird auf die Demonstrationsapplikation eingegangen. Hier werden wieder die nötigen Anforderungen erörtert und die Umsetzung beschrieben.
Anhand der gewonnenen Erkenntnisse wird abschließend ein Fazit der verwendeten Technologien und der Architektur verfasst. Hier soll die Eignung der verwendeten Technologien zur Lösung des Problems überprüft und bewertet werden.
Abschließend wird noch ein Ausblick auf die zukünftige Entwicklung in diesem Bereich gegeben.
Hochgenaue Systeme zur Positionsbestimmung spielen im heutigen Zeitalter für den privaten, kommerziellen aber auch militärischen Bereich eine immer wichtigere Rolle. Anwendungsgebiete wie Wandern, Geocaching, Mauterhebungssysteme, autonome Luft-, Land- und Seefahrt, sowie etliche militärische Verwendungen sind nur ein kleiner Überblick dieser Anwendungsmöglichkeiten.
Die durch die Anwendungsgebiete auftretende Notwendigkeit der Satellitennavigation, stellt meine Motivation dar, den Laborversuch Messtechnische Analyse eines Systems zur Satellitennavigation zu erneuern. Dieser Laborversuch soll den Studierenden des Studiengangs Elektrotechnik/Informationstechnik mit dem Schwerpunkt Kommunikationstechnik die Satellitennavigation anhand moderner Laboreinrichtung näherbringen.
Die nachfolgende Arbeit beschäftigt sich zu Beginn mit den allgemeinen theoretischen Grundlagen der Satellitennavigation, gefolgt von systemspezifischen Beschreibungen. Die weiteren Kapitel beinhalten die Versuchsbeschreibung, eine Musterlösung und Informationen für den betreuenden akademischen Mitarbeiter.
Des Weiteren wurden Messreihen aufgezeichnet, welche die einzelnen
Satellitennavigationssysteme qualitativ gegenüberstellen. Auf die Messreihen wird in dieser Thesis nicht eingegangen. Hierfür darf an dieser Stelle auf einen Beitrag in der Hochschulzeitschrift Forschung im Fokus verwiesen werden.
Die vorliegende Bachelor Thesis befasst sich mit der Funktionsweise des ArduPilot Open Source Autopiloten. Für die Ausführung erfolgt mit einem Pixhawk Flugcontroller. Dabei wird die Funktionsweise der Regler und der Navigation des Luftfahrzeuges untersucht. Nach der Analyse des Regler Aufbaus werden wird die Regelung für einen Multiplex EasyStar 2 ausgelegt und in dem Flugzeug verbaut. Für die Kommunikation mit dem Pixhawk Flugcontroller und der Parametereinstellung für die Regelung wird die Mission Planner Bodenstation verwendet. Die Regelung wird mit praktischen Flugtests und der automatischen Tuning Funktion durchgeführt. Mit Hilfe der angelegten Daten Protokolle während des Flugs wird im Nachhinein das Flugverhalten des Multiplex EasyStar 2 ausgewertet und angepasst. Nach der Auslegung der Regelparameter besteht die Aufgabe darin, einen vollautonomen Flug mit automatischem Start und automatischer Landung durchzuführen. Die Wegpunkt Generierung für den autonomen Flug erfolgt mit der Mission Planner Bodenstation. Es soll mit dieser Arbeit die Zuverlässigkeit und Genauigkeit des Systems überprüft werden.
Structures for interconnecting active microwave semiconductor-devices, e.g. FET's and MIC's, with the electrical surrounding or with each other have to be designed more and more carefully when increasing the desired upper frequency limit. Therefore, several connecting structures for device embedding have been examined. Mainly, their applicability for the frequency range from 10 GHz to 100 GHz was considered. Additionally, different equivalent circuits were developed to approximately describe their behaviour for CAD-applications.
Im Rahmen dieser Abschlussarbeit wurde evaluiert, welche Hardware-Plattform für Einsteiger im Bereich der System-on-Chip (SoC) Field-Programmable-Gate-Arrays (FPGAs) (SoC-FPGAs)geeignet ist, speziell Altera Cyclone V SoC. Dabei wurde die Vorgehensweise sowie die benötigten Programme, die für die Entwicklung benötigt werden, ermittelt. Als Beispiel Applikation diente hier die Bildverarbeitung. Die Hardware-Plattform soll es ermöglichen, dass diese von Programmierern im Bereich der Bildverarbeitung genutzt werden kann, ohne dass diese sich um die Hardware kümmern müssen. Zusätzlich sollte evaluiert werden, ob und wie man den FPGA benutzen kann, um Algorithmen auf der Hardware auszuführen, und so einen Performance Gewinn zu erhalten.
Für die Thesis stand zu Beginn ein Hardware-Paket, bestehend aus einem FPGA-SoC-Board, Kamera-Modul sowie TFT-Display zur Verfügung. Dieses Paket stellte sich als nicht geeignet heraus, da die Hersteller entweder keine oder nur mangelhafte Dokumentation zu den Modulen bereitstellten.
Als geeignete Hardware wurde das DE0-Nano-SoC von der Firma Terasic gewählt. Das verwendete Kamera–Modul sowie Display–Modul stammt ebenfalls von Terasic. Diese Module bieten den Vorteil, dass sie auch mit anderen Boards von Terasic kompatibel und gut dokumentiert sind und es Beispiel-Programme für diese Module gibt. Für die gewählte Hardware-Plattform wurde ein IP-Core für die Kommunikation mit der Kamera, sowie ein IP-Core für die Berechnung von Bayer-Raw-Format in das 16 bit(565)-RGB-Format entworfen und implementiert. Die Funktion der IP-Cores wurde mit Hilfe von Simulationen verifiziert.
Es wurden die Arbeitsschritte und Abläufe ermittelt, die nötig sind, um das System vom embedded Linux zu programmieren und mit den IP-Cores zu kommunizieren.
Durch die Digitalisierung erschlossen sich in den letzten 15 Jahren nicht nur viele Möglichkeiten neues Bildmaterial oder Videomaterial aufzunehmen und zu verwahren, sondern auch die Zugänglichkeit der breiten Masse zu solcher Technologie. Abseits der Datenmengen wie sie Social Media Plattformen tagtäglich verarbeiten, existieren die Sende- und Rundfunkanstalten mit gigantischen Archiven von Videomaterial. Der Großteil davon ist von dokumentarischer oder szenischer Natur sowie verschiedenste Interviews aus allen Bereichen des öffentlichen Lebens.
Nach dem aktuellen Stand wird das Videomaterial von Hand kategorisiert und zur Indizierung verschlagwortet. Die Aufgabe war es nun, diesen Prozess zumindest teilweise zu automatisieren. Dazu sollten auf dem Markt verfügbare Technologien in Bereich der Gesichtserkennung und Texterkennung auf ihre Nutzbarkeit zu diesem Zweck hin evaluiert werden. Dabei soll mit Hilfe der in Interviews verwendeten Bauchbinden das momentan gezeigte Gesicht "gelernt" werden, um es später ohne solche Hilfe wiederzuerkennen.
Evaluation des In-Memory Datenbanksystems SAP HANA als Cloudlösung für Business Intelligence Systeme
(2013)
Global agierende Unternehmen sind mit einem stetig ansteigenden Datenaufkommen konfrontiert. Zur Analyse werden diese Daten in Business Intelligence Systeme geladen. Aufbereitete Daten werden heutzutage in der Regel in zeilenbasierten (relationalen) Datenbanksystemen vorgehalten. Ein großer Nachteil dieses Datenbanksystems für diesen Anwendungsfall ist, dass es auf eine hohe Anzahl einfacher Transaktionen mit wenigen Datensätzen ausgelegt ist. Im Kontext eines analysebasierten Modells, wie hier beim Business Intelligence, fallen dagegen hauptsächlich komplexe Abfragen auf einer Vielzahl von Datensätze an [BaGü2009]. Die SAP AG stellt mit dem Produkt SAP HANA eine Lösung zur Verfügung, welche auf die Datenanalyse für Business Intelligence ausgelegt ist und zugleich auch transaktionalen Anforderungen genügen soll. Das System ist als Appliance aus Soft- und Hardware konzipiert, das auf einem spaltenorientierten, In-Memory Datenbanksystem aufbaut. Diese Arbeit geht zunächst auf die Grundlagen des Business Intelligence, die allgemeinen Prinzipien von spaltenorientieren In-Memory Datenbankensystemen sowie deren Abgrenzung zu klassischen relationalen Systemen ein. Weiterhin wird auf die Architektur von SAP HANA und deren Besonderheiten eingegangen. Hauptgegenstand dieser Arbeit ist die Umsetzung einer Demoanwendung basierend auf SAP HANA in einer Cloud Umgebung (SAP HANA ONE). Hierbei wird insbesondere auf die Realisierbarkeit der Anwendung mittels der Entwicklungsumgebung SAP HANA Studio in einer Cloudumgebung eingegangen. Weiterhin steht zur Diskussion inwiefern SAP HANA in bestehende Business Intelligence Umgebungen integriert werden kann.
Eingebettete Systeme werden immer komplexer.Dabei werden System-on-Chips (SoC) eingesetzt und spielen eine sehr wichtige Rolle. Unter SoC versteht man „die Integration aller oder eines großen Teils der Funktionen eines Systems auf einem Chip“ [G]. SoCs haben sehr viele Vorteile. Vor einigen Jahren gab es noch riesige Leiterplatten mit Schaltungen, die aus mehreren Schaltkreisen aufgebaut wurden. Heute werden diese auf einem einzigen Chip realisiert. SoCs sind nicht nur sehr kompakt, sondern verbrauchen auch weniger Energie, da einerseitsdie Bauteile näherbeieinander sind, sie andererseits mit besseren Technologien ausgerüstet sind. Heutige SoCs sind so gebaut, dass sie wiederverwendet werden können. Sie bestehen aus mehreren einzelnen Systemkomponenten, um sowohl Kosten, als auch Entwicklungszeit zu sparen. Neben SoCs sind FPGAs (Field Programmable Gate Array) und CPLDs (ComplexProgrammableLogic Devices)sehr beliebte programmierbare Logikbauelemente, die in der Digitaltechnik ihren Einsatz finden. Sie sind die zwei wesentlichen Gruppen von ProgrammableLogic Devices (PLDs), dieexistieren. Sie bestehen hauptsächlich aus FlipFlops, CPLDs weisen sie aber vergleichsweise weniger auf. FPGAs sind komplexer als CPLDs. In der Hardware wird die Implementierung von arithmetischen Funktionen wie Addierern, Subtrahierern und Multiplizierern teilweise unterstützt. FPGAs sind aus diesem Grund die passenden Bauelemente zur Realisation von Anwendungen wie digitalen Signalverarbeitungssystemen oder Mikroprozessorsystemen.Die größten Hersteller von FPGAs sind Altera und Xilinx. Ein anderes aktuelles Thema sind die Bussysteme in Chips. Aufgrund der Komplexität der oben beschriebenen System-on-Chips, bestehen sie auch aus immer komplexeren Baugruppen, wie Prozessoren, Speichern oder auch Interfacecontrollern. Bussysteme werden zur Verbindung dieser Baugruppen eingesetzt. Je nach Baugruppe-Interfaces werden unterschiedliche Bussystem verwendet. Diese Bussysteme sind mit speziellen Spezifikationen dotiert, die aus diversen Anforderungen folgen. Einheitliche Standards sind daher wichtig. Unter anderen sind Bussysteme wie AMBA, Wishbone und CoreConnect häufig in FPGAs eingesetzt. Ihr Vorteil liegt an Ihren standardisierten Schnittstellen. Auf diese Bussysteme wird ins Detail in Kapitel 2.1 eingegangen. Zu der Familie von AMBA-Bussen gehört der AXI-Bus.Die vorliegende Arbeit beschäftigt sich mit dem AufbaueineswiederverwendbarenMasters, der aufAXI4-Protokoll basiert ist. Dieser sollte zunächst als Ethernet-Master eingesetzt werden, um Burst-Transaktionen zwischen dem Ethernet MAC und einemSpeicher zu ermöglichen, wird aber in anderen Projekten wiederverwendet.
In der vorliegenden Bachelorarbeit geht es um den Entwurf eines Dauerfestigkeitsprüfstands für Kraftsensoren, deren Messprinzip auf Dehnmessstreifen basiert. Ziel des Dauerfestigkeitsprüfstands ist es, die in der Konstruktionsphase simulierten Ergebnisse für die Dauerfestigkeit der Sensoren nachzuweisen. Erst dadurch sind optimale Verbesserungen der Messkörpergeometrien möglich.
Das Ziel der vorliegenden Bachelorarbeit war es, die Fähigkeiten des LDC1000 EVM von Texas Instruments (TI) zur hochauflösenden induktiven Distanzmessung, integriert in ein Kraftmesssystem, als Alternative zur Dehnungsmessung mit Dehnungsmessstreifen zu untersuchen. Hierzu wurden zunächst Versuche an einem Wegmessaufbau bezüglich Auflösung, Rauschverhalten und der Qualitätsmerkmale für messtechnische Systeme wie Nullpunktstabilität, Linearität und Hystereseverhalten durchgeführt. Anschließend diente eine entworfene Druckmessdose, mit applizierten Dehnungsmessstreifen als Referenz, zur weiteren Untersuchung der Qualitätsmerkmale und zur Optimierung des LDC1000-Systems. Als Messobjekte zur Abstandsmessung kamen die Werkstoffe AlMgSi0,5, St37, AlCu4Mg1 und 1.4305 verschiedener Geometrien zum Einsatz. Die Ergebnisse bestätigen die Angabe von TI zur Sub-Mikrometer-Auflösung des Systems, ein relativ hoher Rauschanteil beschränkt allerdings die Genauigkeit. Die Resultate der Untersuchungen von Nullpunktstabilität und Hystereseverhalten lassen einen Einsatz im Bereich der Kraftmesstechnik unter gewissen Voraussetzungen zu, das nichtlineare Verhalten der induktiven Wegmessung hingegen macht eine nachträgliche Linearisierung der Messwerte unumgänglich. Diese Bachelorarbeit richtet sich an all diejenigen, die sich detallierter mit Alternativen zur Dehnungsmessung auseinandersetzen oder genauere Untersuchungen zum LDC1000 EVM von TI durchführen.
Diese Bachelor-Thesis befasst sich mit der Entwicklung eines Torsomodells, das zur Simulation von Herzkatheteruntersuchungen mit Hilfe von projektorbasierter erweiterter Realität verwendet werden soll. Das zu erstellende Modell beinhaltet ein Herz sowie eine Leistenarterie, welche zum Herzen führt. Aufgrund des zur Verfügung stehenden Budgets konnte lediglich das Herzmodell als 3D-Druck realisiert werden, jedoch nicht das Torsomodell. Hierfür wurde eine Schaufensterpuppe verwendet, da diese zusätzlich zum Kostenpunkt leicht in der Bearbeitung war.
Die vorliegende Bachelor-Thesis ist bei der Firma AUMA in Müllheim in der Abteilung Testingentstanden.
Diese Arbeit ist in zwei Teile unterteilt. Im ersten Teil wird näher auf den Entwurf eines Motorenprüfstands und dessen Realisierung eingegangenen, während sich der zweite Teil damit befasst, wie dieser für die Ausbildung – und die Einarbeitung in Mess- und Steuerungstechnik – von Auszubildenden genutzt werden soll. In diesem Versuchsaufbau wird vorrangig ein Gleichstrommotor getestet.
Die Begründung für die Erstellung eines Motoren-Bremsprüfstands liegt darin, dass es eine der Hauptaufgaben der Abteilung Testing ist, in Labor-Prüfeinrichtungen Antriebe der AUMA Gruppe zu testen. Diese Prüfeinrichtungen arbeiten in der Regel mit gefährlichen Spannungen und dürfen nur von Fachkräften in Betrieb genommen werden. In Zukunft sollen Auszubildende im Zuge einer praxisnahen und handlungsorientierten Ausbildung die Möglichkeit haben, sich selbstständig in die Bereiche der Mess- und Steuerungstechnik einzuarbeiten.
Mit dem realisierten Motoren-Bremsprüfstand ist es in der Abteilung Testing möglich, in Zukunft Auszubildende ressourcenschonend und in einem gefahrenfreien Umfeld in die Aufgaben der Abteilung Testing einzuarbeiten. Somit reduziert sich die benötigte Einarbeitungszeit, in der ein Mitarbeiter die Auszubildenden betreuen muss. Mit dem gebauten Prüfstand können Auszubildende die Charakteristik eines Gleichstrommotors verstehen und die Messmethoden, zur Erfassung von Drehmoment, Drehwinkel, Temperatur, sowie elektrische Größen, anwenden. Diese Erkenntnisse lassen sich optimal auf größere Prüfstände übertragen und bereiten die Auszubildenden auf spätere Aufgaben im Unternehmen AUMA und der Abteilung Testing vor.
Im ersten Teil der vorliegenden Master-Thesis geht es um die Entwicklung einer Low-Power Wireless-Lichtschranke. Der Hardware-Aufbau wird ausführlich beschrieben und Besonderheiten für die Low-Power-Auslegung, wie beispielsweise Power-Management, werden vorgestellt. Optische Einheiten, Power-Management-Einheiten, System-On-Chip und Funkstufe werden ausführlich angesprochen. Die interrupt-gesteuerte und zeitlich optimierte Programmierung wird im Anschluss an den Hardware-Aufbau vorgestellt. Auch hier werden Low-Power-Eigenschaften diskutiert. Die Anbindung der Lichtschranke an einen Hub im 868 MHz ISM Band (engl.: Industrial, Scientific and Medical Band) und die Datenübertragung mittels Bluetooth an einen Computer, sowie die Programmierung einer Anzeige-GUI zur Visualisierung der Funkdaten mit LabVIEW werden weiterführend behandelt. Ergänzend hierzu wird die entwickelte Hardware vermessen und charakterisiert. Die Messergebnisse werden ausgewertet und vorgestellt.
Im zweiten Teil der Master-Thesis geht es um die Entwicklung eines Schulungskonzepts. In der Sick AG halten sich alle Abteilungen (Divisions) beim Entwickeln eines Produktes an einen vorgegebenen Produktentstehungsprozess. Division 1 hat im Rahmen dieses Produktentstehungsprozesses eine Konkretisierung vorgenommen: den Masterplan. Für die Einführung des Masterplans wurde ein teilnehmerorientiertes Schulungskonzept entwickelt. Es wird zuerst auf die Inhalte eingegangen. Im Anschluss werden die Teilnehmer untersucht und Motive und Lernvoraussetzungen charakterisiert. Nachdem diese und weitere Rahmenbedingungen geklärt sind, wird ein didaktisch durchdachtes Schulungskonzept entwickelt, ausführlich vorgestellt und diskutiert.
Entwicklung und Implementierung einer Methode zur Funktions- und Verschleißprüfung von Sägeanlagen
(2019)
Die Firma KASTO Maschinenbau produziert Lagersysteme und Sägemaschinen und möchte in Zukunft mit Hilfe von prädiktiver Wartung einen Mehrwert für den Kunden, die firmeneigenen Servicetechniker und die Inbetriebnehmer generieren. Für diesen Weg in Richtung prädiktive Wartung werden in der vorliegenden Arbeit, zunächst mittels Recherche, Grundlagen definiert. Die anschließende Analyse verschiedener Bauteile und Baugruppen in der Lagertechnik und im Sägemaschinenbau führt zur Konkretisierung der Umsetzungsmöglichkeiten.
Im weiteren Verlauf der Arbeit werden die verschleißkritischen Bauteile eines KASTOwin-Bandsägeautomats behandelt. Durch die Analyse der einzelnen Verschleißformen und -erscheinungen an dessen Komponenten können Parameter zur Verschleiß-überwachung ermittelt werden. Die Überwachung dieser Prozesse soll dabei mit bestehender Sensorik durchgeführt werden und beschränkt sich deshalb hauptsächlich auf die Messeinrichtung der Frequenzumformer. Für die Komponenten Sägebandantrieb, Sägevorschubantrieb, Materialvorschubantrieb, Bandverlaufsensor, sowie das Hydrauliksystem werden entsprechende Methoden zur Funktions- und Verschleiß-prüfung ausgearbeitet.
Auf Basis dieser Methoden wird dann die Implementierung in Form eines SPS-Programms und einer dazu passenden, grafischen Benutzeroberfläche durchgeführt. Das bestehende SPS-Programm und die Benutzeroberfläche werden durch zusätzliche Programmteile ergänzt. Sämtliche Ergänzungen sind portabel und modular ausgelegt, sodass diese problemlos auch in anderen Sägemaschinen ergänzt werden können. Um kritische Verschleißsituationen nach deren Eintritt zu analysieren und daraus Schlüsse im Sinne der prädiktiven Wartung zu ziehen, ist die Sicherung aller Langzeitdaten von enormer Bedeutung. Da der remanente Speicher der SPS jedoch begrenzt ist, werden sämtliche Daten über die Visualisierung gesichert. Alle aufgenommen Daten werden sowohl grafisch als auch in Form von Werten visualisiert und können dem Kunden und Servicetechniker, sowie dem Inbetriebnehmer Aufschluss über den Zustand der Komponenten geben.
Letztlich werden die implementierten Abläufe an einer Vorführmaschine getestet. Es kann dabei die Funktion sämtlicher Prüfungen bestätigt werden
In dieser Arbeit werden 3D-Scanner, deren verschiedene Funktionsarten und Einsatz-möglichkeiten vorgestellt. Ein besonderes Augenmerk liegt hierbei auf medizinischen Anwendungen.
Außerdem wird eine programmierte Ansteuerung in C++ eines 3D-Scanners vom Typ Artec Eva demonstriert. Hierbei werden die mit Qt erstellte GUI und Teile des Quellcodes vorgestellt und erklärt. Ziele der Programmierung waren, außer der Ansteuerung in C++ eine Darstellung mit Hilfe des Visualization Toolkits VTK und es zu ermöglichen, die aufgenommenen Daten auch abspeichern zu können.
Schließlich werden Grundlagen der Kalibrierung und der Koordinatentransformation dargelegt und am Beispiel der Kalibrierung des Artec EVA Scanners exemplarisch aufgezeigt.
Der gesamte Quellcode, welcher im Rahmen dieser Arbeit entstand, ist im Anhang der Arbeit zu finden.
Entwicklung eines miniaturisierten Energieversorgungs-Moduls zur autarken Versorgung von Funkmodulen
(2017)
Diese Abschlussarbeit beschäftigt sich mit der Entwicklung eines miniaturisierten Energieversorgungs-Moduls. Das Modul soll gleichzeitig aus drei Energy-Harvestern Energie sammeln und diese in einem Doppelschichtkondensator zwischenspeichern. Diese Energie kann anschließend von einem Funksensorknoten zum Sammeln und Übermitteln von Daten genutzt werden.
Solch ein aufgebautes System verspricht bei einem geringen Volumen eine hohe Lebensdauer,geringen Wartungsaufwand und eine hohe Leistung, ohne dass eine drahtgebundene Energieversorgung oder große Batterien notwendig sind.
Nach dem Erstellen eins Konzepts und der Auswahl der dafür passenden Komponenten wurde zunächst ein Evaluations-Board aufgebaut. Auf diesem wurden alle in Frage kommenden Komponenten vermessen und die Funktion getestet. Aus den dadurch erworbenen Erkenntnissen wurde das miniaturisierte Energieversorgungs-Modul entwickelt. Das miniaturisierte Modul bietet folgende Möglichkeiten: Aus drei verschiedenen Energy Harvestern wird gleichzeitig die Energie gesammelt und aufbereitet. Durch die Nutzung eines effizienten Wandler-Moduls wird bei der Energieaufbereitung eine Effizienz von über 85 % erreicht. Drei Wandler-Module verbrauchen zusammen lediglich eine Leistung von P = 3, 459 µW. Der Maximum Power Point jedes einzelnen Harvesters kann separat eingestellt werden. Auch alle anderen Komponenten werden stromsparend gewählt. Die Energie wird in einem 1, 5 F Doppelschichtkondensator gespeichert. Zusätzlich wird als Backup-Energieversorgung eine Lithium Knopfzelle eingesetzt.
Dadurch können auch sicherheitskritische Anwendungen realisiert werden. Konnte durch die Energy Harvester nicht genügend Energie gesammelt werden, wird die Batterie dem Funksensorknoten zugeschaltet. Das miniaturisierte Modul hat die Maße 20 mm x 40 mm. Nach abschließenden Messungen mit einem neu implementierten Funksensorknoten, der in einer anderen Bachelorthesis entstanden ist [1], wurde eine Sendewiederholrate von 1, 1 s nachgewiesen. Dies stellt einen sehr guten Wert dar und reicht für die meisten Anwendungen aus.
Zuletzt wird aus allen Komponenten inklusive des Funksensorknotens ein Demonstrationsmuster zusammengebaut. Dieses hat die Maße von 5 cm x 5 cm x 5 cm und kann zur weiterführenden Forschung oder als Anschauungsmaterial genutzt werden.
Diese Arbeit beschäftigt sich mit den verschiedenen Technologien, welche in verteilten Systemen zur Kommunikation dienen können. Kernpunkt der Arbeit ist es, eine Schnittstelle zu schaffen, in der eine extrem hohe Anzahl einzelner Anwendungen untereinander und mit einer zentralen Simulationsumgebung weitestgehend automatisch - kommunizieren können. Dabei ist auch ein wesentlicher Punkt die Frage wie Daten ausgetauscht werden können. Betrachtet man zunächst das System an sich, so wird es deutlich, dass speziell für die Entwicklung des Gesamtsystems, die Stabilität, Leistungsfähigkeit und Zuverlässigkeit des Interfaces von enormer Wichtigkeit ist.
Zum aktuellen Zeitpunkt sind alle Sensoren einer Herz-Lungen-Maschine des Unternehmens Getinge kabelgebunden. Dadurch besteht das Risiko, dass sich während einer OP Keime auf den Kabeln sammeln, die Kabel steigern den Zeitaufwand beim Reinigen und Konnektieren und lassen das Gesamtsystem unübersichtlich wirken.
Das Ziel dieser Arbeit ist es, ein Konzept zu entwickeln, wie die Datenübertragung von einem Sensor zu einer Herz-Lungen-Maschine drahtlos erfolgen kann. Dazu wurden elf gewichtete Anforderungen an einen Funkstandard für eine drahtlose Datenübertragung definiert. Bezüglich dieser Anforderungen wurden 15 Funkstandards anhand einer Literaturrecherche analysiert. Es stellte sich heraus, dass sich ZigBee, IEEE 802.15.6, Z-Wave und EnOcean für diese Anwendung eignen, wobei ZigBee im Vergleich zu den anderen Funkstandards als am besten geeignet bewertet wurde.
Um die Eigenschaften von ZigBee bezüglich der definierten Anforderungen zu verifizieren, wurde ein ZigBee-Prototyp implementiert und getestet. Für die Bereitstellung der Mess-Funktionalität für die Tests wurde ein Programm in C++ geschrieben. Mit Hilfe dieser Tests konnte die Erfüllung der Anforderungen von ZigBee bestätigt werden.
Auf dieser Grundlage ist es möglich, die drahtlose Datenübertragung zwischen Sensor und Herz-Lungen-Maschine auf Basis des ZigBee-Funkstandards zu entwickeln. Ausblickend ist es für die Entwicklung von drahtlosen Sensoren einer Herz-Lungen-Maschine ratsam, die Akzeptanz der Anwender zu erfragen und die regulatorischen Anforderungen für Funk bei Medizinprodukten zu erläutern.
Diese Arbeit beschäftigt sich primär mit der Erstellung von Konzepten, welche in den Bereichen der langfristigen Planung, welche eine IT-Strategie festlegt und der kurzfristigen Steuerung des Tagesgeschäfts, ein besser strukturiertes und effizienteres Vorgehen im Umgang mit der Vielzahl an anfallenden Daten und Informationen ermöglichen sollen. Hierzu werden in den Grundlagen zunächst alle relevanten Begriffe geklärt, welche in diesem Umfeld auftreten. Im Kapitel Stand der Technik werden, die in der Industrie am meisten zertifizierten Standards, zur Lösung dieser Problematik vorgestellt. In der darauf folgenden Konzeption werden alle notwendigen Elemente konzipiert. Dafür erfolgt zunächst eine Auswahl der ITIL-Prozesse, welche für ein erfolgreiches IT-Controlling umgesetzt werden sollen. Danach wird ein Vorschlag für einen Service-Katalog auf Basis von ITIL entwickelt, der es ermöglichen soll die wachsende Anzahl von IT-Services an Hochschulen zu verwalten. Nach diesem erfolgt eine Konzeption von neuen Kostenstellen und Kostenarten für das Rechenzentrum der Hochschule Offenburg. Dies ist notwendig, da die aktuellen Kostenstellen und Kostenarten nicht mehr den Anforderungen des Rechenzentrums gerecht werden. Auch wird in dieser Arbeit eine Konzeption für ein einfaches ordnerbasiertes Ablagesystem zur Verwaltung von Partner-, Lizenz- und Vertragsdokumenten erstellt. Der letzte Punkt dieser Arbeit besteht in der Konzeption und Umsetzung eines Informationssystems, durch welches alle relevanten Daten grafisch ansprechend aufbereitet zur Verfügung gestellt werden sollen. Die Umsetzung dieses Informationssystems wird in dieser Arbeit mithilfe der beiden Open-Source-Tools Talend und Palo vorgenommen.