Refine
Year of publication
Document Type
- Bachelor Thesis (604)
- Master's Thesis (205)
- Conference Proceeding (69)
- Book (15)
- Study Thesis (13)
- Article (reviewed) (8)
- Other (3)
Conference Type
- Konferenzband (64)
- Konferenzartikel (5)
Is part of the Bibliography
- no (917) (remove)
Keywords
- Mikroelektronik (60)
- Marketing (30)
- IT-Sicherheit (23)
- JavaScript (17)
- Biomechanik (15)
- Internet der Dinge (15)
- Künstliche Intelligenz (15)
- Social Media (15)
- Webentwicklung (15)
- COVID-19 (14)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (295)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (172)
- Fakultät Medien (M) (ab 22.04.2021) (163)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (138)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (101)
- Fakultät Wirtschaft (W) (33)
- IfTI - Institute for Trade and Innovation (13)
- INES - Institut für nachhaltige Energiesysteme (6)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (6)
- IUAS - Institute for Unmanned Aerial Systems (3)
Open Access
- Closed Access (463)
- Open Access (229)
- Closed (225)
- Bronze (60)
- Diamond (16)
- Gold (1)
Das Ziel in dieser Arbeit ist die Programmierung von einem Mikroprozessor, der als ein Richtmikrofon verwendet wird, um unterschiedlichen Richtcharakteristiken zu erzeugen.
Dabei stellt sich die Frage: Ist es möglich ein Mikroprozessor so zu programmieren, dass er eine Stereoaufnahme so verarbeiten kann, sodass unterschiedliche Richtcharakteristiken erzeugt werden könnten?
Um die Frage zu beantworten, wurde eine technische Ausarbeitung von einem Mikroprozessor und seine Programmierung benötigt. Diese befasst sich mit der Programmierung in C++ / Arduino IDE des Mikrokontrollers und eigene Erstellung von Tests, um die Ergebnisse darzustellen.
Als weitere Basis wurden nur verbraucherorientierten Mikroprozessoren untersucht und die beste Möglichkeit wurde ausgesucht und weiterentwickelt. Zudem lag der Fokus auf der Reproduzierbarkeit der Ergebnisse.
Jeder Mensch ist ständig unfreiwillig von einer Flut akustischer Reize umgeben. Diese Situation stellt für Menschen mit Hörverlust eine besondere Herausforderung dar. Menschen mit Hörverlust hören durch Hörgeräte zwar alles verstärkt, jedoch stellt sich die Frage, ob ein Hörgerät lediglich eine einfache Verstärkung von Schallwellen ist oder ob es darüber hinausgehende Funktionen bieten kann.
Die vorliegende Thesis widmet sich der akustischen Szenenanalyse in Hörgeräten, wobei der Schwerpunkt auf der Integration von Machine Learning liegt. Das Ziel besteht darin, eine automatisierte Erkennung und Anpassung an verschiedene akustische Situationen zu ermöglichen. Die Arbeit konzentriert sich insbesondere auf die Analyse grundlegender Szenarien wie: Sprache in Ruhe, absolute Ruhe, Sprache in Störgeräuschen und Störgeräuschen in Audiodaten.
Die Bachelorarbeit mit dem Titel "Chatbots als Kommunikationsinstrument: Ein Leitfaden für kleine und mittelständische Unternehmen zur Optimierung der Kundenkommunikation durch den Einsatz von Chatbots" zielt darauf ab, praxisorientierte Leitlinien für KMU zu entwickeln, die Chatbots zur Verbesserung ihrer Kundenkommunikation einsetzen möchten. Die Arbeit konzentriert sich auf zwei Hauptaspekte: Erstens, wie KMU Chatbots erfolgreich in ihre Marketingstrategien integrieren können, unter Berücksichtigung technischer und unternehmerischer Bedürfnisse und Ziele. Zweitens, wie der Einsatz von Chatbots die Effektivität der Kundenkommunikation in diesen Unternehmen beeinflusst, mit dem Ziel, Kundenansprache und -bindung zu verbessern sowie Prozesse zu optimieren. Durch theoretische Grundlagen und praxisnahe Empfehlungen bietet die Arbeit einen umfassenden Leitfaden, der konkrete Handlungsempfehlungen für die erfolgreiche Implementierung von Chatbots liefert. Diese sollen KMU dabei unterstützen, einen nachhaltigen Mehrwert für ihre Kundenbeziehungen zu schaffen und ihre Wettbewerbsfähigkeit zu stärken.
In dieser Arbeit wird die Identifikation von Trägheitsparametern von Mehrkörpersystemen, am Beispiel eines ein aus vier Segmenten bestehenden Roboterarms untersucht. Es werden verschiedene neuronale Netzarchitekturen zur Identifikation der Trägheitsparameter des Roboterarms exploriert. Als Referenz für das Abschneiden der Ansätze wird ein vorab implementierter numerischer Optimierungsansatz, welcher mittels der Software „Matalb“ umgesetzt wurde, benutzt. Der Ansatz zum Aufstellen der benötigten Bewegungsgleichungen und die Formulierung des Regressionsproblems unterscheidet sich von den in der Literatur verwendeten Ansätzen, und beruht auf einem neu entwickelten Sensorkonzept der Hochschule Offenburg (des Sweaty Labors).
Der numerische Ansatz, insbesondere nach Linearisierung des Problems, erzielte herausragende Ergebnisse und konnte die idealen Parameterwerte präzise identifizieren. Demgegenüber standen die neuronalen Netzwerke, deren Potenzial trotz umfassender Untersuchung verschiedener Architekturen und Ansätze nicht vollends ausgeschöpft werden konnte. Die Resultate zeigen deutlich die Grenzen und Herausforderungen bei der Anwendung maschineller Lernmethoden in der spezifischen Aufgabenstellung der Trägheitsparameteridentifikation auf.
Diese Arbeit leistet einen Beitrag zum Verständnis der Möglichkeiten und Grenzen bei der Anwendung neuer Messtechnologien und Berechnungsverfahren in der Robotik. Die überlegene Leistung des numerischen Solvers gegenüber den neuronalen Netzansätzen unterstreicht die Bedeutung weiterer Forschungen in diesem Bereich.
Garbage in, Garbage out: How does ambiguity in data affect state-of-the-art pedestrian detection?
(2024)
This thesis investigates the critical role of data quality in computer vision, particularly in the realm of pedestrian detection. The proliferation of deep learning methods has emphasised the importance of large datasets for model training, while the quality of these datasets is equally crucial. Ambiguity in annotations, arising from factors like mislabelling, inaccurate bounding box geometry and annotator disagreements, poses significant challenges to the reliability and robustness of the pedestrian detection models and their evaluation. This work aims to explore the effects of ambiguous data on model performance with a focus on identifying and separating ambiguous instances, employing an ambiguity measure utilizing annotator estimations of object visibility and identity. Through accurate experimentation and analysis, trade-offs between data cleanliness and representativeness, noise removal and retention of valuable data emerged, elucidating their impact on performance metrics like the log average miss-rate, recall and precision. Furthermore, a strong correlation between ambiguity and occlusion was discovered with higher ambiguity corresponding to greater occlusion prevalence. The EuroCity Persons dataset served as the primary dataset, revealing a significant proportion of ambiguous instances with approximately 8.6% ambiguity in the training dataset and 7.3% in the validation set. Results demonstrated that removing ambiguous data improves the log average miss-rate, particularly by reducing the false positive detections. Augmentation of the training data with samples from neighbouring classes enhanced the recall but diminished precision. Error correction of wrong false positives and false negatives significantly impacts model evaluation results, as evidenced by shifts in the ECP leaderboard rankings. By systematically addressing ambiguity, this thesis lays the foundation for enhancing the reliability of computer vision systems in real-world applications, motivating the prioritisation of developing robust strategies to identify, quantify and address ambiguity.
The interest of scientists to study motion sequences exists in the fields of sports science, clinical analysis and computer animation for quite some time. While in the last decades mainly markerbased motion capture systems have been used to evaluate movements, the interest in markerless systems is growing more and more. Nevertheless, in the field of clinical analysis, markerless methods have not yet proven their value, partly due to a lack of studies evaluating the quality of the obtained data. Therefore, this study aims to validate two markerless motion capture softwares from Simi Reality Motion Systems. The software Simi Shape, which is a mixture of traditional image-based tracking supported by an artificial intelligence net (AI net), and the software Crush, that uses a completely AI-based method. For this purpose, all motion data was recorded with two in-house motion capture systems. One system for recording the movements for a markerbased evaluation as gold standard and one system for markerless tracking. Within a laboratory environment, eight cameras per system were mounted around the area of motion. By placing two cameras in the same position and using the same calibration, deviations in the image data between those for markerbased and markerless tracking were extremely minimal. Based on this data, markerbased tracking was performed using the Simi Motion program, markerless tracking was performed using the Simi Shape software system and the latest software from Simi Reality Motion Systems, Crush. When comparing the markerless data with the markerbased data, an average root mean square error of 0,038 m was calculated for Simi Shape and a deviation of 0,037 m for Crush. In a direct comparison of the two markerless systems, a root mean square error of 0,019 m was scored. Based on these data, conclusions could be drawn about the accuracies of the two markerless systems. The obtained kinematic data of the tracking are in the range of high accuracy, which is limited to a deviation of less than 0,05 m according to the literature.
Immer mehr Unternehmen setzen auf eine Cross-Cloud-Strategie, die es Unternehmen ermöglicht, ihre Anwendungen und Daten über mehrere Cloud-Plattformen hinweg effizient zu verwalten und zu betreiben. Konsistenz und Atomarität zwischen den Cloud-Plattformen zu wahren, stellt eine große Herausforderung dar. Hierzu wird in dieser Arbeit eine Lösung vorgestellt, um Cross-Cloud-Atomarität zu erreichen, welche auf Basis des 2-Phasen-Commit-Protokolls (2PC) beruht. In diesem Zusammenhang wird die Funktionsweise des 2PC-Protokolls erörtert und Erweiterungen sowie Alternativen zum Protokoll kurz angesprochen. Zusätzlich werden alternative Lösungsansätze diskutiert, die für die Erzielung von Cross-Cloud-Atomarität in Betracht gezogen werden können. Dadurch wird ein umfassender Einblick in das Thema sowie mögliche Lösungsansätze für diese Herausforderung gewährt.
Meiner Meinung nach ist Christopher Nolans Meisterwerk „Oppenheimer“ eindeutig der Film des Jahres. Nolan zählt für mich zu einem der bedeutendsten Regisseure der Filmkunst. Im Kino zog mich der Film in den Bann. 3 Stunden vergingen wie im Flug. Doch warum fasziniert mich dieser Film so sehr? Wie hat Nolan hier gearbeitet? Diese wissenschaftliche Arbeit soll dieses Lichtspiel filmästhetisch analysieren. Diese Analyse beschäftigt sich einerseits mit dem Film und andererseits mit der Biografie „J. Robert Oppenheimer“ von Kai Bird und Martin J. Sherwin als Hauptquellen. Es werden die Handlung, die Kameraarbeit, das Szenenbild, die Audiogestaltung, die Filmmusik und die Montage analysiert. Zum Schluss werden Filmkritiken untersucht, um zu analysieren, wie der Film in der breiten Masse ankam.
As the Industry 4.0 is evolving, the previously separated Operational Technology (OT) and Information Technology (IT) is converging. Connecting devices in the industrial setting to the Internet exposes these systems to a broader spectrum of cyber-attacks. The reason is that since OT does not have much security measures as much as IT, it is more vulnerable from the attacker's perspective. Another factor contributing to the vulnerability of OT is that, when it comes to cybersecurity, industries have focused on protecting information technology and less prioritizing the control systems. The consequences of a security breach in an OT system can be more adverse as it can lead to physical damage, industrial accidents and physical harm to human beings. Hence, for the OT networks, certificate-based authentication is implemented. This involves stages of managing credentials in their communication endpoints. In the previous works of ivESK, a solution was developed for managing credentials. This involves a CANopen-based physical demonstrator where the certificate management processes were developed. The extended feature set involving certificate management will be based on the existing solution. The thesis aims to significantly improve such a solution by addressing two key areas that is enhancing functionality and optimizing real-time performance. Regarding the first goal, firstly, an analysis of the existing feature set shall be carried out, where the correct functionality shall be guaranteed. The limitations from the previously implemented system will be addressed and to make sure it can be applied to real world scenarios, it will be implemented and tested in the physical demonstrator. This will lay a concrete foundation that these certificate management processes can be used in the industries in large-scale networks. Implementation of features like revocation mechanism for certificates, automated renewal of the credentials and authorization attribute checks for the certificate management will be implemented. Regarding the second goal, the impact of credential management processes on the ongoing CANopen real-time traffic shall be a studied. Since in real life scenarios, mission-critical applications like Industrial control systems, medical devices, and transportation networks rely on real-time communication for reliable operation, delays or disruptions caused by credential management processes can have severe consequences. Optimizing these processes is crucial for maintaining system integrity and safety. The effect to minimize the disturbance of the credential management processes on the normal operation of the CANopen network shall be characterized. This shall comprise testing real-time parameters in the network such as CPU load, network load and average delay. Results obtained from each of these tests will be studied.
Die vorliegende Arbeit beschäftigt sich mit der Nutzung von Reinforcement Learning in der Informationsbeschaffungs-Phase eines Penetration Tests. Es werden Kernprobleme in den bisherigen Ansätzen anderer das Thema betreffender wissenschaftlicher Arbeiten analysiert und praktische Lösungsansätze für diese bisherigen Hindernisse vorgestellt und implementiert. Die Arbeit zeigt damit eine beispielhafte Implementierung eines Reinforcement Learning Agenten zur Automatisierung der Informationsbeschaffungs-Phase eines Penetration Tests und stellt Lösungen für existierende Probleme in diesem Bereich dar.
Eingebettet wird diese wissenschaftliche Arbeit in die Anforderungen der Herrenknecht AG hinsichtlich der Absicherung des Tunnelbohrmaschinen-Netzwerks. Dabei werden praktische Ergebnisse des eigen entwickelten Reinforcement Learning Modells im Tunnelbohrmaschinen-Test-Netzwerk der Herrenknecht AG vorgestellt.
Endress+Hauser Liquid Analysis ist ein erfolgreiches Entwicklungsunternehmen im Bereich der Flüssigkeitsanalyse für Prozesse und Labore. Mit voranschreitender Digitalisierung soll auch das Produktportfolio weiter digitalisiert werden. Ziel dieser Arbeit ist es den Entwicklungsprozess von Endress+Hauser Liquid Analysis auf die Eignung zur Entwicklung digitaler Produkte zu untersuchen. Zur Beantwortung der Fragestellung werden sowohl Literatur als auch mehrere Experten aus dem Fachgebiet zur Rate gezogen. In der Auswertung wird der aktuelle Prozess bewertet und ein geeignetes Prozessmodell für das Unternehmen dargestellt. Das empfohlene Modell wird exemplarisch anhand eines Beispielprojekts aufgezeigt. In einem abschließenden Fazit werden Ergebnisse und Erkenntnisse zusammengetragen.
In der Dokumentation dieser Masterthesis wird die Produktion eines zweidimensionalen Platformer-Spiels beschrieben, in dem mit mehreren Fähigkeiten und dem Lösen von diversen Rätseln verschiedene Level durchquert werden können. Zudem wird in dieser Dokumentation anhand einer Tabelle alle möglichen Eingaben zur Tastatur- und Controller-Steuerung gezeigt. Des weiteren wird das gestalterische Konzept dargestellt. Dazu gehört die Beschreibung der Synopsis der in dem Spiel erzählten Geschichte, das Darstellen des Designs der vorkommenden Charaktere und das Beschreiben des Aufbaus und der gestalterischen Intention der verschiedenen Level. Der Fokus in dieser Dokumentation liegt im detaillierten Beschreiben der in dem Spiel vorkommenden Elemente und wie diese in der gewählten Spiele-Engine Godot implementiert wurden. Dazu zählen wie der Spieler-Charakter aufgebaut ist und wie dieser mit den einzelnen Objekten oder anderen Charakteren im Spiel interagieren kann. Zudem wird die Implementierung eines umfangreichen Dialog-Systems mit seinen Bausteinen beschrieben. Des weiteren werden alle weiteren wichtigen Elemente, die das Spiel spielbar machen, erklärt.
JavaScript-Frameworks (JSF) sind im Bereich der Webentwicklung seit längerem prominent. Jährlich werden neue JSF entwickelt, um spezifische Probleme zu lösen. In den letzten Jahren hat sich der Trend entwickelt, bei der Wahl des JSF verstärkt auch auf die Performanz der entwickelten Webseite zu achten. Dabei wird versucht, den Anteil an JavaScript auf der Webseite zu reduzieren oder ganz zu eliminieren. Besonders neu ist der Ansatz der "Island Architecture", die erstmals 2019 vorgeschlagen wurde. In dieser Thesis soll die Performanz der meistbenutzten und des performantesten JSF mit dem JSF "Astro" verglichen werden, welches die "Island Architecture" von sich aus unterstützt. Der Schwerpunkt liegt beim Vergleichen der Webseitenperformanz, jedoch werden auch Effizienz und Einfachheit während der Entwicklung untersucht. Das Ziel dieser Arbeit ist es, potenzielle Frameworks zu untersuchen, die die Effizienz und Produktivität für den Nutzer und während der Entwicklung steigern können.
Modellprädiktive Regelung findet zunehmend Anwendung im industriellen Umfeld. Durch schnellere Computer und optimierte Programmierung ist es heute möglich, rechenintensive Regelalgorithmen in Echtzeit auf Mikrocontrollern zu berechnen. Eine besondere Herausforderung besteht jedoch darin, diese Technologie in der Realität einzusetzen. Weil exakte Kenntnisse über das reale System vorliegen müssen, können geringfügige Modellierungsfehler bei der Prädiktion für lange Prädiktionshorizonte schwerwiegende Folgen haben. Das ist insbesondere der Fall, wenn Systeme instabil sind und zu chaotischem Verhalten neigen.
Diese Arbeit behandelt ein breites Spektrum systemtheoretischer Inhalte und zielt darauf ab, ein reales Furuta-Pendel durch modellprädiktive Regelung in der instabilen Ruhelage zu stabilisieren. Hierfür wird ein mathematisches Modell als Prädiktionsmodell hergeleitet, welches durch verschiedene Systemidentifikationsmethoden spezifiziert und validiert wird. Es werden verschiedene Filter-Techniken wie das Kalman-Filter zur Zustandsschätzung oder das Exponential Moving Average (EMA)-Filter zur Filterung von Sensordaten eingesetzt.
Das Furuta-Pendel ist ein komplexes mechatronisches System. Die Aufgaben dieser Arbeit beschränken sich daher nicht nur auf theoretische Aspekte. Neben der Auslegung elektrischer Bauelemente und Schaltungen werden zusätzliche Sensoren zu einem bestehenden System hinzugefügt und mechanische Anpassungen vorgenommen. Darüber hinaus werden Entscheidungen zur Softwarearchitektur getroffen sowie die gesamte Implementierung auf einem Mikrocontroller durchgeführt.
Trotz intensiver Bemühungen konnte kein Modell gefunden werden, welches die gemessenen Ein- und Ausgangsdaten vergleichbar simulieren kann, sodass es den Anforderungen der modellprädiktiven Regelung entspricht. Stattdessen gelang es während der Systemidentifikationsphase einen Linear Quadratic Regulator (LQR) mit unterlagertem Proportional–Integral (PI) Stromregler als Kaskade zu entwerfen, der sowohl simulativ als auch in der Realität das Pendel stabilisieren kann.
Proteine spielen eine entscheidende Rolle im Stoffwechsel aller Lebewesen. Für die Lebensmittelindustrie sind die Grundbausteine der Proteine, besonders interessant, da sie den Geschmack von Lebensmitteln stark beeinflussen können, oder sich in Form von Supplementen als Nahrungsergänzungsmittel für Sportler eignen. Zur Gewinnung dieser Aminosäuren werden unteranderem Aminopeptidasen verwendet. In dieser Arbeit wurden fünf fungale Aminopeptidasen Pep 1 aus Aspergillus turcosus, Pep 4 aus Aspergillus thermomutatus, Pep 6 aus Coccidioides posadasii C735 delta SOWgp, Pep 7 aus Trichophyton interdigitale H6 und Pep 8 aus Onygena corvina in Pichia pastoris rekombinant exprimiert, mittels Ultrafiltration aufkonzentriert und biochemisch charakterisiert. Die Aminopeptidasen aus Aspergillus turcosus (Pep 1), Aspergillus thermomutatus (Pep 4) und Trichophyton interdigitale H6 (Pep 7) hatten ihr pH-Optimum bei pH 9, während die Aminopeptidasen aus Coccidioides posadasii C735 delta SOWgp (Pep 6) und Onygena corvina (Pep 8) bei pH 8,5 die höchste Aktivität aufwiesen. Die Temperaturoptima lagen bei 60 °C (Pep 1 und Pep 6) und 50 °C (Pep 4, Pep 7 und Pep 8) und alle waren zwischen 45 und 55 °C für 15 Minuten temperaturstabil. Die Aminopeptidasen hatten nach der Deglykosilierung ein Molekulargewicht von 57 (Pep 1), 52 (Pep 4 und Pep 7), 54 (Pep 6) und 53 kDA (Pep 8). Mit Leu-pNA als Substrat zeigten die fungalen Aminopeptidasen maximale spezifische Umsatzgeschwindigkeiten von 357 (Pep 1), 238 (Pep 4), 2000 (Pep 6), 56 (Pep 7) und 476 nkat/g (Pep 8). Pep 1 wurde am stärksten positiv von Bivalenten Ionen wie Mg2+, Co2+, Mn2+ und Ca2+ beeinflusst, in Gegenwart von 0,1 mM Mg2+ konnte eine relative Enzymaktivität von 345 % im Vergleich zum Referenzwert gemessen werden. Bei den anderen Aminopeptidasen konnten inhibitorische Effekte festgestellt werden. Bie allen fungalen Aminopeptidasen bei der Hydrolyse von vorhydrolysiertem Gluten die Freisetzung von Aminogruppen festgestellt werden, somit eignen sich die Aminopeptidasen in Kombination mit Endopeptidasen zur Hydrolyse von Proteingemischen. Bei der Hydrolyse konnte zudem die Freisetzung von Glutamin durch das L-Glutamine/Ammonia Assay Kit (Rapid) von Megazyme nachgewiesen werden.
Die Bachelorarbeit wurde im Rahmen einer Äquivalenz mit der Ingenieurschule INSA Straßburg geschrieben. Zum Thema wurde eine Projektarbeit im Auftrag der Kriminalpolizei mit einer Bearbeitungszeit von drei Semestern. Aufgabenstellung war es, einen Überblick eines Tatorts ohne menschlichen Eingriff zu verschaffen. Noch heute müssen die Polizisten den Tatort betreten, um Beweisspuren zu sammeln. Das Problem hierbei ist, dass dadurch Hinweise fast systematisch verloren gehen.
Mit einem ferngesteuerten Luftschiff sollte diese Aufgabenstellung gemeistert werden. Die Arbeit beschäftigt sich spezifisch mit dem Entwurf eines integrierten Kamerasystems und mit der Implementierung der Elektronik im Gesamtsystem für einen ersten Prototypen. Auf die Konzeptionierung der Fortbewegung und des Flugobjekts wird somit nicht in Detail eingegangen. Diese Aspekte werden bei der Erstellung des Lastenhefts geschildert und bei Berührungspunkten mit dem im Fokus stehenden Themengebiet erklärt.
Auf struktureller Ebene wird wie gefolgt vorgegangen: Die technischen Lösungen werden abgewogen, getestet und progressiv zusammengeführt. Zum Ende der Bearbeitungszeit können ferngesteuert Bilder und Panoramen aufgenommen und der Tatort live mit einem Video-Feedback observiert werden. Die Elektronik wurde, nach Erarbeitung der elektronischen Architektur, mithilfe einer gedruckten Leiterplatte kompakt in der Gondel des Luftschiffs integriert. Mit zahlreichen Optimierungsperspektiven wurde der erste Prototyp fertiggestellt und das Ziel dieser Arbeit erreicht.
Diese Arbeit befasst sich mit dem Entwurf und der Herstellung einer Roboterhandprothese, die amputierten Menschen eine gewisse Mobilität und eine teilweise Nutzung der Hand ermöglichen soll.
Das Projekt konzentriert sich insbesondere auf die Erkennung der vom Benutzer ausgeführten Bewegung und wird die Schritte der Erfassung, der Bewegung der Übertragung und die Erkennung detailliert darstellen.
Im Rahmen des Projekts "Myo-Hand" soll ein Prototyp einer myoelektrischen Handprothese entwickelt werden. Diese Prothese soll für handamputierte Menschen nützlich sein, da sie ihren Komfort und ihre Unabhängigkeit im Alltag verbessert und somit zu ihrer Eingliederung in die Gesellschaft beiträgt.
In dieser Abschlussarbeit werden die gesamte Arbeit, Studien und Realisierungen vorgestellt, die in den letzten zwei Semestern (WS2022 und SS2023) der Mechanik der Prothese durchgeführt wurden.
Nach einer kurzen Vorstellung der Arbeit des letzten Jahres wird ein Überblick über die Idee und die allgemeine Funktionsweise der Prothese gegeben, die verschiedene Komponenten umfasst: Elektronik, Machine-Learning, Steuerung, Wiederverwertbarkeit und Carbon Footprint. Das Lastenheft wird ebenfalls vorgestellt.
Die technologischen Entscheidungen werden näher erläutert: das Design der Teile, die Wahl der Verbindungen und die verwendeten Motoren. In einem zweiten Teil werden die Schritte zur Herstellung des ersten und zweiten Prototyps sowie eine Kritik des Ergebnisses vorgestellt. Weiter werden die Verbesserungen und die Ziele bis Januar 2024 besprochen.
Anschließend werden der Lebenszyklus der Prothese und ihr Carbon Footprint analysiert und mithilfe der Software Ecodesign Studio berechnet.
Increasing global energy demand and the need to transition to sustainable energy sources to mitigate climate change, highlights the need for innovative approaches to improve the resilience and sustainability of power grids. This study focuses on addressing these challenges in the context of Morocco's evolving energy landscape, where increasing energy demand and efforts to integrate renewable energy require grid reinforcement strategies. Using renewable energy sources such as photovoltaic systems and energy storage technologies, this study aims to develop a methodology for strengthening rural community grids in Morocco.
Traditional reinforcement measures such as line and transformer upgrades will be investigated as well as the integration of power generation from photovoltaic systems, which offer a promising way to utilise Morocco's abundant solar resources. In addition, energy storage systems will be analysed as potential solutions to the challenges of grid stability and resilience. Using comprehensive data analysis, scenario planning and simulation methods with the open-source simulation software Panda Power, this study aims to assess the impact of different grid reinforcement measures, including conventional methods, photovoltaic integration, and the use of energy storage, on grid performance and sustainability. The results of this study provide valuable insights into the challenges and opportunities of transitioning to a more resilient and sustainable energy future in Morocco.
Based on a rural medium-voltage grid in Souihla, Morocco, three scenarios were carried out to assess the impact of demand growth in 2030 and 2040. The first scenario focuses on conventional grid reinforcement measures, while the second scenario incorporates energy from residential photovoltaic systems. The third scenario analyses the integration of storage systems and their impact on grid reinforcement in 2030.
The simulations with energy from photovoltaic systems show a reduction in grid reinforcement measures compared to the scenario without solar energy. In addition, the introduction of a storage system in 2030 led to a significant reduction in the required installed transformer capacity and fewer congested lines. Furthermore, the results emphasized the role of storage in stabilizing grid voltage levels.
In summary, the results highlighted the potential benefits of integrating energy from photovoltaics and storage into the grid. This integration not only reduces the need for transformers and overall grid infrastructure but also promotes a more efficient and sustainable energy system.
Änderungen gegenüber der Fassung 2021:
- Abschnitt 1: Der Anwendungsbereich umfasst nun auch Primärenergiefaktoren,
- Redaktionelle Änderungen und Fehlerkorrekturen,
- 7.2.3.1: Neue Formel (15) für Allokationsfaktoren für mehrere Wärmeflüsse mit unterschiedlichen,
- Temperaturen aus derselben KWK-Anlage,
- 7.2.3.2: Neue Anmerkung zur Klarstellung, dass Formel (14) auch für die Arbeitswertmethode gilt,
- Neuer Unterabschnitt 7.2.6 mit der Vereinfachung, dass KWK-Wärme unter 100 °C Vorlauftemperatur,
- mit der pauschalen Aufwandszahl 0,5 bewertet werden darf,
- Anhang A wurde neu gefasst, damit zusätzliche Anwendungsbereiche wie Gesetze oder Förderprogramme,
- die eigenen Festlegungen zu Gewichtungsfaktoren machen, dieses Dokument widerspruchsfrei,
- in Bezug nehmen können,
- Anhang B.4 mit einem Berechnungsbeispiel zur Kälteversorgung wurde gestrichen.