Refine
Year of publication
Document Type
- Bachelor Thesis (59) (remove)
Has Fulltext
- yes (59)
Is part of the Bibliography
- no (59)
Keywords
- FPGA (3)
- Angewandte Informatik (2)
- Augmented-Reality (2)
- Business Intelligence (2)
- Funksensor (2)
- Low-Power (2)
- Regelung (2)
- AMBA AXI (1)
- Ablaufsteuerung (1)
- Antenna (1)
Institute
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (59) (remove)
Open Access
- Closed Access (43)
- Open Access (16)
Die Einführung der extrakorporalen Zirkulation unter Verwendung eines medikamentös induzierten Herzstillstands ermöglicht der Herzchirurgie die Herzoperationen, wie sie heute bekannt sind. Eine große Debatte besteht in der optimalen Zusammensetzung und Anwendungsweise der kardioplegischen Lösungen [6]. In der Helios Klinik für Herzchirurgie in Karlsruhe werden die kalte, kristalloide Kardioplegie nach Bretschneider und die modifizierte, kalte Blutkardioplegie nach Calafiore verwendet. Die vorliegende Arbeit beschäftigt sich mit der Frage, ob die Wahl der Kardioplegie Einwirkungen auf den intraoperativen und postoperativen Verlauf einer Bypass-Operation hat.
In der dazu angefertigten Studie wurden die Daten von 135 KHK Patienten retrospektiv erfasst und statistisch analysiert. Darunter wurden 81 Patienten mit der kalten Blutkardioplegie nach Calafiore behandelt und 53 Patienten mit der kristalloiden HTKLösung nach Bretschneider. Die demografischen Daten und Dringlichkeit der Operationen unterscheiden sich nicht signifikant voneinander. Bei den intraoperativen Parametern sind hinsichtlich der Hämoglobin-, Natrium-, und Kaliumkonzentration signifikante Unterschiede erkennbar. Weitere intraoperative Laborwerte zeigen keine Signifikanz. Die intraoperativen Parameter der Myokardprotektionsverfahren unterscheiden sich bezüglich der verabreichten Kardioplegiemenge. Bei postoperativen Parametern sind keine besonderen Signifikanzen notiert.
Die kristalloide Kardioplegie nach Bretschneider wie auch die modifizierte kalte Blutkardioplegie nach Calafiore sind sichere und effektive Verfahren. Einige Unterschiede konnten zugunsten der Blutkardioplegie nach Calafiore gefunden werden, die spezifisch für das jeweilige Verfahren sind. Zwingende Argumente für oder gegen eines dieser Verfahren konnten nicht gefunden werden.
Das Projekt PHOTOPUR soll die Reduzierung von Pestiziden in Oberflächengewässern ermöglichen. In dieser Arbeit wird eine Automatisierung eines ersten Demosystems entwickelt, welches den gesamten Reinigungsprozess abbildet. Eine Projektierung der Automatisierung des Systems wird mit den dafür vorgesehenen Fließschemas und Gerätelisten durchgeführt. Darauf aufbauend wird die Ablaufsteuerung des Demosystems durch einen Ablauf-Funktionsplan umgesetzt. Um eine Systemüberwachung der Anlage zu gewährleisten wurde dazu eine Visualisierung ausgearbeitet. Zusätzlich wurden die Regelstrecken der Durchflussregelungen in den zwei Teilprozessen des Reinigungsprozesses bestimmt und durch unterschiedliche Einstellregeln der optimale Regler der Regelkreise ermittelt.
Die in dieser Arbeit entwickelte Software, beinhaltet die drei folgenden Umsetzungen: Realisierung der Ablaufsteuerung, Implementierung der Reglerparameter durch einen vorhandenen Regelalgorithmus und die Visualisierung des Demosystems.
Evaluation des In-Memory Datenbanksystems SAP HANA als Cloudlösung für Business Intelligence Systeme
(2013)
Global agierende Unternehmen sind mit einem stetig ansteigenden Datenaufkommen konfrontiert. Zur Analyse werden diese Daten in Business Intelligence Systeme geladen. Aufbereitete Daten werden heutzutage in der Regel in zeilenbasierten (relationalen) Datenbanksystemen vorgehalten. Ein großer Nachteil dieses Datenbanksystems für diesen Anwendungsfall ist, dass es auf eine hohe Anzahl einfacher Transaktionen mit wenigen Datensätzen ausgelegt ist. Im Kontext eines analysebasierten Modells, wie hier beim Business Intelligence, fallen dagegen hauptsächlich komplexe Abfragen auf einer Vielzahl von Datensätze an [BaGü2009]. Die SAP AG stellt mit dem Produkt SAP HANA eine Lösung zur Verfügung, welche auf die Datenanalyse für Business Intelligence ausgelegt ist und zugleich auch transaktionalen Anforderungen genügen soll. Das System ist als Appliance aus Soft- und Hardware konzipiert, das auf einem spaltenorientierten, In-Memory Datenbanksystem aufbaut. Diese Arbeit geht zunächst auf die Grundlagen des Business Intelligence, die allgemeinen Prinzipien von spaltenorientieren In-Memory Datenbankensystemen sowie deren Abgrenzung zu klassischen relationalen Systemen ein. Weiterhin wird auf die Architektur von SAP HANA und deren Besonderheiten eingegangen. Hauptgegenstand dieser Arbeit ist die Umsetzung einer Demoanwendung basierend auf SAP HANA in einer Cloud Umgebung (SAP HANA ONE). Hierbei wird insbesondere auf die Realisierbarkeit der Anwendung mittels der Entwicklungsumgebung SAP HANA Studio in einer Cloudumgebung eingegangen. Weiterhin steht zur Diskussion inwiefern SAP HANA in bestehende Business Intelligence Umgebungen integriert werden kann.
Durch die Digitalisierung erschlossen sich in den letzten 15 Jahren nicht nur viele Möglichkeiten neues Bildmaterial oder Videomaterial aufzunehmen und zu verwahren, sondern auch die Zugänglichkeit der breiten Masse zu solcher Technologie. Abseits der Datenmengen wie sie Social Media Plattformen tagtäglich verarbeiten, existieren die Sende- und Rundfunkanstalten mit gigantischen Archiven von Videomaterial. Der Großteil davon ist von dokumentarischer oder szenischer Natur sowie verschiedenste Interviews aus allen Bereichen des öffentlichen Lebens.
Nach dem aktuellen Stand wird das Videomaterial von Hand kategorisiert und zur Indizierung verschlagwortet. Die Aufgabe war es nun, diesen Prozess zumindest teilweise zu automatisieren. Dazu sollten auf dem Markt verfügbare Technologien in Bereich der Gesichtserkennung und Texterkennung auf ihre Nutzbarkeit zu diesem Zweck hin evaluiert werden. Dabei soll mit Hilfe der in Interviews verwendeten Bauchbinden das momentan gezeigte Gesicht "gelernt" werden, um es später ohne solche Hilfe wiederzuerkennen.
Diese Bachelor-Thesis beschreibt die Entwicklung eines Informationssystems, das abteilungsintern für verschiedene Report- und Controllingaufgaben in der Abteilung Organisation/IT genutzt wird. Grundlage bilden Daten über Hard- und Software aller Client-Computer, die von der in der PWO AG eingesetzten Anwendung zur Installation / Softwareverteilung (Microsoft SCCM) wöchentlich gesammelt werden. Zunächst wird die Funktionalität der Inventarisierung auf Korrektheit überprüft und die daraus entstehenden Daten analysiert. Benötigte Daten werden gefiltert, sortiert und teilweise mit bestehenden Datenbanken verknüpft. Daraus entsteht ein Webportal, welches es den zuständigen Mitarbeitern/innen ermöglicht, ohne manuellen Aufwand Clients, Software und Lizenzen zu verwalten und entsprechende Berichte zu erstellen. Zudem wird die bestehende CMDB durch bisher fehlende Daten ergänzt. Ziel ist es, die Aufgaben der IT-Abteilung an die ITIL Vorgaben innerhalb der PWO AG auszurichten, um so effektives und effizientes IT Service Management betreiben zu können. Gleichzeitig wird somit ein Standard für die Tochterwerke entwickelt.
Implementierung von Softcore-Prozessoren und/oder weiteren IPs (Intellectual Properties) in FPGAs
(2017)
In heutigen Low-Power-Anwendungen ist es mittlerweile Standard sogenannte System-on-a-Chip (SoC)-Systeme zu entwickeln. Diese benötigen eine Recheneinheit, sowie nur die notwendigste Hardware, um die Energieversorgung auch über Energy-Harvesting zu ermöglichen.
Im Rahmen dieser Abschlussarbeit wurde der aktuelle Stand von verfügbaren Hardcore- und Softcore-Prozessoren evaluiert. Aufgrund der hohen Anforderung an den Prozessor in Low-Power-Systemen, wurden Hardcore-Prozessoren für die weitere Untersuchung ausgeschlossen. Obwohl diese sehr leistungstarke und energieeffiziente Prozessoren sind, weisen Hardcore-Prozessoren nicht die notwendige Flexibilität in einer minimalen Konfiguration auf, um die Ansprüche einer Low-Power-Anwendung zu erfüllen.
Aus diesem Grund wurden von verschiedenen Quellen Softcore-Prozessoren untereinander mit zusätzlich, ausgewählten Kriterien untersucht. Die Wahl fiel auf den NEO430, welcher auf der Architektur des Mikrocontrollers MSP430 von Texas Instrument basiert.
Mit dem NEO430 als Softcore, wurde ein Demonstrator-System entwickelt und auf dem Development-Board DE2-115 von Terasic implementiert. Im Zuge der Entwicklung des Demonstrators wurden weiterhin frei verfügbare IP-Cores zur Anbindung an den NEO430 untersucht. Der Demonstrator umfasste eine selbst entwickelte CRC-Berechnung, um damit die Programmierbarkeit, die Funktionen des NEO430 zu testen und dessen Ressourcenverbrauch, sowie Erweiterbarkeit über der Wishbone-Schnittstelle zu evaluieren.
Die Evaluierung des Demonstrator-Systems ergab einen Ressourcenverbrauch von 1253 Logikelemente des Development-Boards. Neben dem Demonstrator wurden weitere Konfigurationen, wie eine Minimale-, die Standard-Konfiguration und insbesondere eine Konfiguration ohne der Wishbone-Schnittstelle evaluiert.
Durch die starke Verbreitung der MSP430-Serie in der Industrie, ist der NEO430 ein interessanter Kandidat für Low-Power-Systeme
In dieser Arbeit werden 3D-Scanner, deren verschiedene Funktionsarten und Einsatz-möglichkeiten vorgestellt. Ein besonderes Augenmerk liegt hierbei auf medizinischen Anwendungen.
Außerdem wird eine programmierte Ansteuerung in C++ eines 3D-Scanners vom Typ Artec Eva demonstriert. Hierbei werden die mit Qt erstellte GUI und Teile des Quellcodes vorgestellt und erklärt. Ziele der Programmierung waren, außer der Ansteuerung in C++ eine Darstellung mit Hilfe des Visualization Toolkits VTK und es zu ermöglichen, die aufgenommenen Daten auch abspeichern zu können.
Schließlich werden Grundlagen der Kalibrierung und der Koordinatentransformation dargelegt und am Beispiel der Kalibrierung des Artec EVA Scanners exemplarisch aufgezeigt.
Der gesamte Quellcode, welcher im Rahmen dieser Arbeit entstand, ist im Anhang der Arbeit zu finden.
Intelligente Assistenten - Untersuchung der Spracheingabe in Verbindung mit dem ERP-System SIVAS.ERP
(2018)
Die vorliegende Bachelorarbeit wurde für die schrempp edv GmbH erstellt. Die Untersuchung von Technologien intelligenter Assistenz und eine fundierte Einsatzempfehlung für zukünftige Entwicklungen in Verbindung mit dem ERP-System SIVAS sind die primären Ziele der Abschlussarbeit. Das Hauptaugenmerk der Analyse liegt auf der Spracherkennung und der Sprachverarbeitung. Diese Technologien sollen den Umgang mit den komplexen Anwendungen im SIVAS-Umfeld erleichtern.
Der erste Teil der Abschlussarbeit befasst sich mit den theoretischen Grundlagen intelligenter (Sprach-) Assistenz. Im zweiten Teil wird die SIVAS.Montage-App und ein Szenario zur prototypischen Umsetzung intelligenter Assistenz vorgestellt.
Die folgenden Teile beschäftigen sich mit der Spracherkennung und Sprachverarbeitung von Google und Microsoft. Die beiden Unternehmen betreiben seit Jahren intensive Forschungen zu den Sprachtechnologien und bieten erfolgreiche Lösungskonzepte an. Analysierte Frameworks der Spracherkennung sind die Google Speech API und die Bing Speech API. Kandidaten der Sprachverarbeitung sind Dialogflow von Google und LUIS von Microsoft.
Das Ergebnis der Analyse ist die Einsatzempfehlung der Frameworks von Google. Insbesondere bei der ermittelten Fehlerrate als Schlüsselkriterium der Spracherkennung, kann Google mit 11,11 % gegenüber Microsoft mit 23,09 % überzeugen. Der Vergleich der Frameworks zur Sprachverarbeitung liefert ähnliche Resultate. Google ist Microsoft bei der Klassifizierung bisher unbekannter Aussagen der Anwender mit einer Genauigkeit von 86,67 % um fünf Prozentpunkte überlegen. Informationen werden mit Hilfe von Dialogflow erfolgreicher und strukturell besser aufbereitet extrahiert.
Abschließend wird SIVAS mit den analysierten Google-Technologien mittels einer prototypischen Umsetzung des ausgewählten Szenarios zur Erfassung von Montagezeiten zusammengebracht.
Entwicklung eines miniaturisierten Energieversorgungs-Moduls zur autarken Versorgung von Funkmodulen
(2017)
Diese Abschlussarbeit beschäftigt sich mit der Entwicklung eines miniaturisierten Energieversorgungs-Moduls. Das Modul soll gleichzeitig aus drei Energy-Harvestern Energie sammeln und diese in einem Doppelschichtkondensator zwischenspeichern. Diese Energie kann anschließend von einem Funksensorknoten zum Sammeln und Übermitteln von Daten genutzt werden.
Solch ein aufgebautes System verspricht bei einem geringen Volumen eine hohe Lebensdauer,geringen Wartungsaufwand und eine hohe Leistung, ohne dass eine drahtgebundene Energieversorgung oder große Batterien notwendig sind.
Nach dem Erstellen eins Konzepts und der Auswahl der dafür passenden Komponenten wurde zunächst ein Evaluations-Board aufgebaut. Auf diesem wurden alle in Frage kommenden Komponenten vermessen und die Funktion getestet. Aus den dadurch erworbenen Erkenntnissen wurde das miniaturisierte Energieversorgungs-Modul entwickelt. Das miniaturisierte Modul bietet folgende Möglichkeiten: Aus drei verschiedenen Energy Harvestern wird gleichzeitig die Energie gesammelt und aufbereitet. Durch die Nutzung eines effizienten Wandler-Moduls wird bei der Energieaufbereitung eine Effizienz von über 85 % erreicht. Drei Wandler-Module verbrauchen zusammen lediglich eine Leistung von P = 3, 459 µW. Der Maximum Power Point jedes einzelnen Harvesters kann separat eingestellt werden. Auch alle anderen Komponenten werden stromsparend gewählt. Die Energie wird in einem 1, 5 F Doppelschichtkondensator gespeichert. Zusätzlich wird als Backup-Energieversorgung eine Lithium Knopfzelle eingesetzt.
Dadurch können auch sicherheitskritische Anwendungen realisiert werden. Konnte durch die Energy Harvester nicht genügend Energie gesammelt werden, wird die Batterie dem Funksensorknoten zugeschaltet. Das miniaturisierte Modul hat die Maße 20 mm x 40 mm. Nach abschließenden Messungen mit einem neu implementierten Funksensorknoten, der in einer anderen Bachelorthesis entstanden ist [1], wurde eine Sendewiederholrate von 1, 1 s nachgewiesen. Dies stellt einen sehr guten Wert dar und reicht für die meisten Anwendungen aus.
Zuletzt wird aus allen Komponenten inklusive des Funksensorknotens ein Demonstrationsmuster zusammengebaut. Dieses hat die Maße von 5 cm x 5 cm x 5 cm und kann zur weiterführenden Forschung oder als Anschauungsmaterial genutzt werden.
In dieser Thesis wird die Visualisierung der Stammdaten der MARKANT Handels und
Service GmbH (MARKANT) überarbeitet. Zu Beginn wird auf die Firma MARKANT,
die aktuelle Lösung der Visualisierung und die daraus resultierenden Probleme eingegangen.
In der Thesis wird zunächst ein generisches Diagramm erstellt, welches Daten,
die eine hierarchische Ordnung haben, zeichnet. Darauf aufbauend soll als Beispiel, das
Organigramm der Firma MARKANT, mit allen Anforderungen, umgesetzt werden.
Um das Ziel zu erreichen, wird eine Marktübersicht eingeholt und die Frameworks
verglichen. Nachdem eine engere Auswahl getroffen ist, sollen die Frameworks hinsichtlich
der Visualisierung genauer evaluiert werden.
Nach der Wahl des Frameworks wird eine Konzeption erstellt, bei der auf einen neuen
Technologiestack, sowie auf die Bedienbarkeit des Diagrammes durch den Endanwender
eingegangen wird.
Anhand der erstellten Konzeption werden die verschiedenen Funktionen des Diagrammes
implementiert. Ein neuer Stack wird aufgebaut und an das System der Firma
MARKANT angepasst.
Abschließend zeigt ein Vergleich zwischen der alten und der neuen Visualisierung auf,
was in der Thesis erreicht wurde.
Diese Arbeit beschäftigt sich primär mit der Erstellung von Konzepten, welche in den Bereichen der langfristigen Planung, welche eine IT-Strategie festlegt und der kurzfristigen Steuerung des Tagesgeschäfts, ein besser strukturiertes und effizienteres Vorgehen im Umgang mit der Vielzahl an anfallenden Daten und Informationen ermöglichen sollen. Hierzu werden in den Grundlagen zunächst alle relevanten Begriffe geklärt, welche in diesem Umfeld auftreten. Im Kapitel Stand der Technik werden, die in der Industrie am meisten zertifizierten Standards, zur Lösung dieser Problematik vorgestellt. In der darauf folgenden Konzeption werden alle notwendigen Elemente konzipiert. Dafür erfolgt zunächst eine Auswahl der ITIL-Prozesse, welche für ein erfolgreiches IT-Controlling umgesetzt werden sollen. Danach wird ein Vorschlag für einen Service-Katalog auf Basis von ITIL entwickelt, der es ermöglichen soll die wachsende Anzahl von IT-Services an Hochschulen zu verwalten. Nach diesem erfolgt eine Konzeption von neuen Kostenstellen und Kostenarten für das Rechenzentrum der Hochschule Offenburg. Dies ist notwendig, da die aktuellen Kostenstellen und Kostenarten nicht mehr den Anforderungen des Rechenzentrums gerecht werden. Auch wird in dieser Arbeit eine Konzeption für ein einfaches ordnerbasiertes Ablagesystem zur Verwaltung von Partner-, Lizenz- und Vertragsdokumenten erstellt. Der letzte Punkt dieser Arbeit besteht in der Konzeption und Umsetzung eines Informationssystems, durch welches alle relevanten Daten grafisch ansprechend aufbereitet zur Verfügung gestellt werden sollen. Die Umsetzung dieses Informationssystems wird in dieser Arbeit mithilfe der beiden Open-Source-Tools Talend und Palo vorgenommen.
Die vorliegende Bachelorarbeit beschreibt die Erstellung einer Anwendung, die es ermöglicht, einen Roboterarm mithilfe eines haptischen Geräts zu steuern. Zudem wird die Kraftrückkopplung des haptischen Geräts, abhängig von der wirkenden Kraft des Roboterarms, implementiert.
Zur Realisierung dieser Anforderungen wurden zwei Programme erstellt; diese beiden Programme sind über eine TCP Verbindung miteinander verbunden. Programm 1 stellt die haptische Umgebung bereit, Programm 2 die Robot Operating System Node, mit welcher die Daten zum Roboter gesendet und Daten vom Roboter empfangen werden können.
Die in dieser Arbeit erstellten Programme wurden mithilfe von Test Nodes überprüft und leiten die Position der haptischen Umgebung weiter. Die Kraftrückkopplung des haptischen Geräts ist ebenfalls vorhanden und integriert.
Ein Testlauf mithilfe eines simulierten Roboterarms konnte erfolgreich durchgeführt werden.
In der vorliegenden Bachelorarbeit geht es um den Entwurf eines Dauerfestigkeitsprüfstands für Kraftsensoren, deren Messprinzip auf Dehnmessstreifen basiert. Ziel des Dauerfestigkeitsprüfstands ist es, die in der Konstruktionsphase simulierten Ergebnisse für die Dauerfestigkeit der Sensoren nachzuweisen. Erst dadurch sind optimale Verbesserungen der Messkörpergeometrien möglich.
Ziel der vorliegenden Arbeit ist es, einen Fräsroboter zu konstruieren, der kompakter und leichter sein soll als ein bereits im Labor CompAssMed existierender Fräsroboter. Für den neuen Fräsroboter sollte zusätzlich eine Ansteuerung programmiert werden. Mit der Ansteuerung soll es möglich sein, die Fräserspitze im Arbeitsraum des Fräsroboters programmgesteuert zu positionieren. Eine Augmented-Reality-Brille soll evaluiert werden, um ihre Integrationsfähigkeit in das Labor zu untersuchen. Alle Ziele wurden erreicht. Das Gewicht des neuen Fräsroboters ist 75 % geringer und er hat eine 85 % kleinere Grundfläche als der vorhandene Fräsroboter. Die Ansteuerung des neuen Fräsroboters, wurde als MATLAB-Skript realisiert und ist funktional. Die Evaluierung der Augmented-Reality-Brille wurde mit dem Ergebnis durchgeführt, dass sie nicht in die Softwareinfrastruktur des Labors CompAssMed integriert werden kann.
Das Ziel der vorliegenden Bachelorarbeit war es, die Fähigkeiten des LDC1000 EVM von Texas Instruments (TI) zur hochauflösenden induktiven Distanzmessung, integriert in ein Kraftmesssystem, als Alternative zur Dehnungsmessung mit Dehnungsmessstreifen zu untersuchen. Hierzu wurden zunächst Versuche an einem Wegmessaufbau bezüglich Auflösung, Rauschverhalten und der Qualitätsmerkmale für messtechnische Systeme wie Nullpunktstabilität, Linearität und Hystereseverhalten durchgeführt. Anschließend diente eine entworfene Druckmessdose, mit applizierten Dehnungsmessstreifen als Referenz, zur weiteren Untersuchung der Qualitätsmerkmale und zur Optimierung des LDC1000-Systems. Als Messobjekte zur Abstandsmessung kamen die Werkstoffe AlMgSi0,5, St37, AlCu4Mg1 und 1.4305 verschiedener Geometrien zum Einsatz. Die Ergebnisse bestätigen die Angabe von TI zur Sub-Mikrometer-Auflösung des Systems, ein relativ hoher Rauschanteil beschränkt allerdings die Genauigkeit. Die Resultate der Untersuchungen von Nullpunktstabilität und Hystereseverhalten lassen einen Einsatz im Bereich der Kraftmesstechnik unter gewissen Voraussetzungen zu, das nichtlineare Verhalten der induktiven Wegmessung hingegen macht eine nachträgliche Linearisierung der Messwerte unumgänglich. Diese Bachelorarbeit richtet sich an all diejenigen, die sich detallierter mit Alternativen zur Dehnungsmessung auseinandersetzen oder genauere Untersuchungen zum LDC1000 EVM von TI durchführen.
Diese Arbeit befasst sich mit der Konzeption und Entwicklung einer SharePoint App, die einen Datenabgleich zwischen Zoho CRM und JIRA ermöglicht. Mittels dieser App ist es möglich, einen Supportfall, den der Support mittels Zoho CRM aufgenommen hat, bei Bedarf der Entwicklung zuzuweisen, indem in JIRA ein neues Ticket erstellt wird. Des Weiteren können durch die App Informationen, wie Firmen- und Kontaktdaten beiden Abteilungen zugänglich gemacht werden. Realisiert wird dies auf Basis von SharePoint, auf das alle beteiligten Mitarbeiter Zugriff haben. Zunächst wird für eine Lösung mit SharePoint dessen App-Modell analysiert und die möglichen Hosting-Varianten evaluiert. Die dabei getroffene Entscheidung für eine SharePoint gehostete App wird zudem begründet. Um die Bearbeitung eines Supportfalls innerhalb der App zu ermöglichen, wird ein Workflow entworfen, der neben dem Ablauf der Bearbeitung auch die Kommunikation mit den beteiligten Anwendungen festlegt. Die zu diesem Zweck notwendige persistente Speicherung der Daten in der App erfolgt dabei mithilfe von SharePoint Listen. Diese werden aufgrund eines ähnlichen Aufbaus als Tabellen dargestellt. Die detaillierte Darstellung einzelner Listenelemente dagegen erfolgt mithilfe von Dialog-Fenstern, die von SharePoint bereitgestellt werden. Dabei werden abhängig von dem Land aus dem die App aufgerufen wird, die Texte auf Deutsch oder auf Englisch angezeigt.
Aufbau/Ansteuerung/Kalibrierung/Pilotierung eines Lautsprecher-Halbkreises für Lokalisationstests
(2019)
Seit September 2018 ist die Hochschule Offenburg im Besitz einer Hörkabine, in der ein Schallquellenlokalisationstest im Rahmen dieser Bachelorarbeit aufgebaut wurde. Eine Schallquellenlokalisation ist im Alltag für Normalhörende in den meisten Fällen keine Schwierigkeit. Wir Menschen sind in der Lage mit einer Genauigkeit von 1° bis 2° eine Schallquelle zu lokalisieren (Feigenspan 2017,S.624). Entfällt jedoch das Hörvermögen auf einer Seite, so verschlechtert sich die Lokalisationsfähigkeit erheb-lich. Um Schallquellen präzise lokalisieren zu können, werden optimaler Weise beide Ohren benötigt. Heutzutage gibt es viele Hörsysteme, um diverse Hörstörungen zu therapieren. Den-noch bleibt die Lokalisationsfähigkeit für Menschen mit einseitiger Taubheit, bezie hungsweise asymmetrischen Hörverlust eine Herausforderung. Ein Schallquellenlo kalisationstest findet Anwendung in der Klinik, um eine bestmögliche Versor gung/Therapie durch Hörsysteme zu gewährleisten. Ziel dieser Bachelorarbeit war der Aufbau eines Lokalisationstestes nach Leitlinien einer wissenschaftlichen Publikation, sowie die Durchführung an fünf freiwilligen Normalhörenden. Die Realisierung umfasste den Aufbau der Lautsprecher, die An-steuerung mithilfe einer externen Soundkarte und MATLAB, eine Kalibrierung der Lautsprecher und die Durchführung der Tests.
Diese Arbeit handelt von dem Aufbau eines Laborversuchs, der die Darstellung eines linearen Fertigungsprozesses realisiert. Die Laboraufgaben sind in unterschiedlichen Schwierigkeitsgraden vorhanden. Das Ziel ist es, den Studenten eine haptische und realitätsnahe Fertigungsstraße zu präsentieren. Diese Applikation sortiert Produkte nach zwei Kriterien, der Form und dem Material aus. Zur Darstellung der Produktionsstraße dient eine Drehtischapplikation. Diese ist in unterschiedliche Stationen unterteilt. Durch den Aufbau der Station ist die Modularisierung der Anlage realisiert. Diese soll die Möglichkeit bieten, die Applikation in der Zukunft nach Bedarf anzupassen.
Die Konstruktion und Realisierung des modularen Aufbaues der Hardware sind die Schwerpunkte in dieser Thesis. Zusätzlich wird die Software der Arduino Plattform zur Ansteuerung der Schrittmotoren programmiert. Ein weiterer Punkt ist die softwareseitige Umsetzung des Inkrementalgebers in der Speicherprogrammierten Steuerung (Step7). Dazu gehört ebenfalls die Einbindung des Funktionsbausteines in die Datenbank des Projektes.
Mit dieser Hardware sollen die Studierenden in der Lage sein, Fertigungsprozesse zu simulieren und die erlernten Kenntnisse aus den Vorlesungen anwenden und vertiefen.
Die in dieser Arbeit erzielten Ergebnisse zur Optimierung der Parameter zur Registrierung elektrisch evozierter Hirnstammpotenziale mit den beiden ERA-Messsystemen Eclipse EP25 und Synergy EDX dienen als Grundlage für die eBERA Untersuchungen. Betrachtet wurden besonders hierbei die Stimulati-onsart, Filtereinstellungen und Mittelungsoptionen.
Bei allen Messungen mit beiden Systemen, Eclipse EP25 und Synergy EDX, wird eine contralaterale Ableitung nahegelegt.
Eine zu empfehlende Filtereinstellung der Hochpassfilter und Tiefpassfilter zur Potenzialregistrierung mittels eBERA ist 0,2 Hz / 3000 Hz bei der Synergy und 33 Hz / 3000 Hz bei der Eclipse EP25. Bei Vorliegen tieffrequenter Einstreuun-gen ist eine Erhöhung der Grenzfrequenz des Hochpassfilters auf 100 Hz zu empfehlen.
Bei der Wahl der Stimulationsart hat sich die alternierende als die beste her-ausgestellt. Dies belegen sowohl die in den Ergebnissen gemessenen Potentia-le als auch Messungen von Kollegen (Steffens, 2016).
Die Mittelungsoption „bayesian weighting“ bei der Eclipse EP25 hat sich bei der eBERA Messung als nicht sehr hilfreich erwiesen. Bei der Synergy EDX hat die Einstellung „Mittel“ im Vergleich zu „Gewichtet“ die besseren Ergebnisse erzielt. Daher wird diese Wahl empfohlen, falls mit diesem System gemessen wird. Weitere weniger einflussreiche Einstellungen werden im Anhang C. „Optimierte Parameter beider Messsysteme“ aufgelistet.