Refine
Year of publication
Document Type
- Conference Proceeding (223)
- Bachelor Thesis (135)
- Part of a Book (82)
- Master's Thesis (75)
- Article (unreviewed) (71)
- Article (reviewed) (67)
- Book (39)
- Other (35)
- Contribution to a Periodical (20)
- Doctoral Thesis (3)
Conference Type
- Konferenzartikel (200)
- Konferenz-Abstract (11)
- Konferenzband (6)
- Konferenz-Poster (5)
- Sonstiges (1)
Keywords
- Arbeitszeugnis (18)
- Biomechanik (14)
- Digitalisierung (12)
- IT-Sicherheit (12)
- Social Media (12)
- Künstliche Intelligenz (11)
- Marketing (9)
- E-Learning (8)
- Finite-Elemente-Methode (8)
- Medizintechnik (8)
Institute
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (211)
- Fakultät Medien (M) (ab 22.04.2021) (190)
- Fakultät Wirtschaft (W) (142)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (121)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (84)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (28)
- INES - Institut für nachhaltige Energiesysteme (24)
- POIM - Peter Osypka Institute of Medical Engineering (16)
- IBMS - Institute for Advanced Biomechanics and Motion Studies (ab 16.11.2022) (11)
- IMLA - Institute for Machine Learning and Analytics (10)
Open Access
- Closed (755) (remove)
Strong security measures are required to protect sensitive data and provide ongoing service as a result of the rising reliance on online applications for a range of purposes, including e-commerce, social networking, and commercial activities. This has brought to light the necessity of strengthening security measures. There have been multiple incidents of attackers acquiring access to information, holding providers hostage with distributed denial of service attacks, or accessing the company’s network by compromising the application.
The Bundesamt für Sicherheit in der Informationstechnik (BSI) has published a comprehensive set of information security principles and standards that can be utilized as a solid basis for the development of a web application that is secure.
The purpose of this thesis is to build and construct a secure web application that adheres to the requirements established in the BSI guideline. This will be done in order to answer the growing concerns regarding the security of web applications. We will also evaluate the efficacy of the recommendations by conducting security tests on the prototype application and determining whether or not the vulnerabilities that are connected with a web application that is not secure have been mitigated.
The research employed HPTLC Pro System and other HPTLC instruments from CAMAG® to conduct various laboratory tests, aiming to compile a database for subsequent analyses. Utilizing MATLAB, distinct codes were developed to reveal patterns within analyzed biomasses and pyrolysis oils (sewage sludge, fermentation residue, paper sludge, and wood). Through meticulous visual and numerical analysis, shared characteristics among different biomasses and their respective pyrolysis oils were revealed, showcasing close similarities within each category. Notably, minimal disparity was observed in fermentation residue and wood biomasses with a similarity coefficient of 0.22. Similarly, for pyrolysis oils, the minimal disparity was found in fermentation residues 1 and 3, with a disparity coefficient of 1.41. Despite higher disparity coefficients in certain results, specific biomasses and pyrolysis oils, such as fermentation residue and sewage sludge, exhibited close similarities, with disparity coefficients of 0.18 and 0.55, respectively. The database, derived from triplicate experimentation, now serves as a valuable resource for rapid analysis of newly acquired raw materials. Additionally, the utility of HPTLC PRO as an investigation tool, enabling simultaneous analysis of up to five samples, was emphasized, although areas for improvement in derivatization methods were identified.
Though the basic concept of a ledger that anyone can view and verify has been around for quite some time, today’s blockchains bring much more to the table including a way to incentivize users. The coins given to the miner or validator were the first source of such incentive to make sure they fulfilled their duties. This thesis draws inspiration from other peer efforts and uses this same incentive to achieve certain goals. Primarily one where users are incentivised to discuss their opinions and find scientific or logical backing for their standpoint. While traditional chains form a consensus on a version of financial "truth", the same can be applied to ideological truths too. To achieve this, creating a modified or scaled proof of stake consensus mechanism is explored in this work. This new consensus mechanism is a Reputation Scaled - Proof of Stake. This reputation can be built over time by voting for the winning side consistently or by sticking to one’s beliefs strongly. The thesis hopes to bridge the gap in current consensus algorithms and incentivize critical reasoning.
Das Ziel in dieser Arbeit ist die Programmierung von einem Mikroprozessor, der als ein Richtmikrofon verwendet wird, um unterschiedlichen Richtcharakteristiken zu erzeugen.
Dabei stellt sich die Frage: Ist es möglich ein Mikroprozessor so zu programmieren, dass er eine Stereoaufnahme so verarbeiten kann, sodass unterschiedliche Richtcharakteristiken erzeugt werden könnten?
Um die Frage zu beantworten, wurde eine technische Ausarbeitung von einem Mikroprozessor und seine Programmierung benötigt. Diese befasst sich mit der Programmierung in C++ / Arduino IDE des Mikrokontrollers und eigene Erstellung von Tests, um die Ergebnisse darzustellen.
Als weitere Basis wurden nur verbraucherorientierten Mikroprozessoren untersucht und die beste Möglichkeit wurde ausgesucht und weiterentwickelt. Zudem lag der Fokus auf der Reproduzierbarkeit der Ergebnisse.
Die Bachelorarbeit mit dem Titel "Chatbots als Kommunikationsinstrument: Ein Leitfaden für kleine und mittelständische Unternehmen zur Optimierung der Kundenkommunikation durch den Einsatz von Chatbots" zielt darauf ab, praxisorientierte Leitlinien für KMU zu entwickeln, die Chatbots zur Verbesserung ihrer Kundenkommunikation einsetzen möchten. Die Arbeit konzentriert sich auf zwei Hauptaspekte: Erstens, wie KMU Chatbots erfolgreich in ihre Marketingstrategien integrieren können, unter Berücksichtigung technischer und unternehmerischer Bedürfnisse und Ziele. Zweitens, wie der Einsatz von Chatbots die Effektivität der Kundenkommunikation in diesen Unternehmen beeinflusst, mit dem Ziel, Kundenansprache und -bindung zu verbessern sowie Prozesse zu optimieren. Durch theoretische Grundlagen und praxisnahe Empfehlungen bietet die Arbeit einen umfassenden Leitfaden, der konkrete Handlungsempfehlungen für die erfolgreiche Implementierung von Chatbots liefert. Diese sollen KMU dabei unterstützen, einen nachhaltigen Mehrwert für ihre Kundenbeziehungen zu schaffen und ihre Wettbewerbsfähigkeit zu stärken.
Die pädagogische Wende
(2024)
Die Corona-Pandemie hat die Grenzen des digital gestützten Unterrichts deutlich gemacht: Gerade durch Fernunterricht, Schulclouds, Learning Analytics und Lernmanagementsysteme haben der Präsenzunterricht und das Lernen in Gemeinschaft ihre fundamentale Relevanz belegt, hat die Schule als sozialer Ort der Beziehung und Bindung an Bedeutung gewonnen. Dieses Buch versammelt praxisnahe Konzepte für Lehrkräfte und Schulen, die sich eine stärkere (Rück-)Besinnung auf das interpersonale Unterrichten wünschen, ohne deshalb auf digitale Medien verzichten zu müssen. Die zentrale Botschaft: Für Pädagoginnen und Pädagogen bleibt das Unterrichten das Kerngeschäft. Medien und Technik können Lehr- und Lernprozesse bei Bedarf unterstützen, aber nicht ersetzen. Schule und Unterricht bleiben notwendig interpersonale Prozesse. Diese Botschaft wird mit den Erkenntnissen aus der Pandemie und einem kritischen Blick auf die bisherigen Ergebnisse des Digitalpakts Schule unterfüttert.
Marketing in Kommunalverwaltungen muss sich an einige besondere Rahmenbedingungen anpassen – sei es rechtlicher, organisatorischer oder gesellschaftspolitischer Art. Dies bedeutet auch, dass das Marketinginstrument „Social Media“ bewusst und taktisch klug angewandt werden sollte. Die Relevanz dieses Instruments für die Kommunalverwaltungen ist groß. So hilft es nicht nur, Social Media strategisch einzubetten, sondern auch die Ziele klar zu setzen, sich der Zielgruppen und Rollen im Kontext Social Media bewusst zu sein und diese zielführend einzusetzen.
In dieser Arbeit wird die Identifikation von Trägheitsparametern von Mehrkörpersystemen, am Beispiel eines ein aus vier Segmenten bestehenden Roboterarms untersucht. Es werden verschiedene neuronale Netzarchitekturen zur Identifikation der Trägheitsparameter des Roboterarms exploriert. Als Referenz für das Abschneiden der Ansätze wird ein vorab implementierter numerischer Optimierungsansatz, welcher mittels der Software „Matalb“ umgesetzt wurde, benutzt. Der Ansatz zum Aufstellen der benötigten Bewegungsgleichungen und die Formulierung des Regressionsproblems unterscheidet sich von den in der Literatur verwendeten Ansätzen, und beruht auf einem neu entwickelten Sensorkonzept der Hochschule Offenburg (des Sweaty Labors).
Der numerische Ansatz, insbesondere nach Linearisierung des Problems, erzielte herausragende Ergebnisse und konnte die idealen Parameterwerte präzise identifizieren. Demgegenüber standen die neuronalen Netzwerke, deren Potenzial trotz umfassender Untersuchung verschiedener Architekturen und Ansätze nicht vollends ausgeschöpft werden konnte. Die Resultate zeigen deutlich die Grenzen und Herausforderungen bei der Anwendung maschineller Lernmethoden in der spezifischen Aufgabenstellung der Trägheitsparameteridentifikation auf.
Diese Arbeit leistet einen Beitrag zum Verständnis der Möglichkeiten und Grenzen bei der Anwendung neuer Messtechnologien und Berechnungsverfahren in der Robotik. Die überlegene Leistung des numerischen Solvers gegenüber den neuronalen Netzansätzen unterstreicht die Bedeutung weiterer Forschungen in diesem Bereich.
The interest of scientists to study motion sequences exists in the fields of sports science, clinical analysis and computer animation for quite some time. While in the last decades mainly markerbased motion capture systems have been used to evaluate movements, the interest in markerless systems is growing more and more. Nevertheless, in the field of clinical analysis, markerless methods have not yet proven their value, partly due to a lack of studies evaluating the quality of the obtained data. Therefore, this study aims to validate two markerless motion capture softwares from Simi Reality Motion Systems. The software Simi Shape, which is a mixture of traditional image-based tracking supported by an artificial intelligence net (AI net), and the software Crush, that uses a completely AI-based method. For this purpose, all motion data was recorded with two in-house motion capture systems. One system for recording the movements for a markerbased evaluation as gold standard and one system for markerless tracking. Within a laboratory environment, eight cameras per system were mounted around the area of motion. By placing two cameras in the same position and using the same calibration, deviations in the image data between those for markerbased and markerless tracking were extremely minimal. Based on this data, markerbased tracking was performed using the Simi Motion program, markerless tracking was performed using the Simi Shape software system and the latest software from Simi Reality Motion Systems, Crush. When comparing the markerless data with the markerbased data, an average root mean square error of 0,038 m was calculated for Simi Shape and a deviation of 0,037 m for Crush. In a direct comparison of the two markerless systems, a root mean square error of 0,019 m was scored. Based on these data, conclusions could be drawn about the accuracies of the two markerless systems. The obtained kinematic data of the tracking are in the range of high accuracy, which is limited to a deviation of less than 0,05 m according to the literature.
Immer mehr Unternehmen setzen auf eine Cross-Cloud-Strategie, die es Unternehmen ermöglicht, ihre Anwendungen und Daten über mehrere Cloud-Plattformen hinweg effizient zu verwalten und zu betreiben. Konsistenz und Atomarität zwischen den Cloud-Plattformen zu wahren, stellt eine große Herausforderung dar. Hierzu wird in dieser Arbeit eine Lösung vorgestellt, um Cross-Cloud-Atomarität zu erreichen, welche auf Basis des 2-Phasen-Commit-Protokolls (2PC) beruht. In diesem Zusammenhang wird die Funktionsweise des 2PC-Protokolls erörtert und Erweiterungen sowie Alternativen zum Protokoll kurz angesprochen. Zusätzlich werden alternative Lösungsansätze diskutiert, die für die Erzielung von Cross-Cloud-Atomarität in Betracht gezogen werden können. Dadurch wird ein umfassender Einblick in das Thema sowie mögliche Lösungsansätze für diese Herausforderung gewährt.
Meiner Meinung nach ist Christopher Nolans Meisterwerk „Oppenheimer“ eindeutig der Film des Jahres. Nolan zählt für mich zu einem der bedeutendsten Regisseure der Filmkunst. Im Kino zog mich der Film in den Bann. 3 Stunden vergingen wie im Flug. Doch warum fasziniert mich dieser Film so sehr? Wie hat Nolan hier gearbeitet? Diese wissenschaftliche Arbeit soll dieses Lichtspiel filmästhetisch analysieren. Diese Analyse beschäftigt sich einerseits mit dem Film und andererseits mit der Biografie „J. Robert Oppenheimer“ von Kai Bird und Martin J. Sherwin als Hauptquellen. Es werden die Handlung, die Kameraarbeit, das Szenenbild, die Audiogestaltung, die Filmmusik und die Montage analysiert. Zum Schluss werden Filmkritiken untersucht, um zu analysieren, wie der Film in der breiten Masse ankam.
As the Industry 4.0 is evolving, the previously separated Operational Technology (OT) and Information Technology (IT) is converging. Connecting devices in the industrial setting to the Internet exposes these systems to a broader spectrum of cyber-attacks. The reason is that since OT does not have much security measures as much as IT, it is more vulnerable from the attacker's perspective. Another factor contributing to the vulnerability of OT is that, when it comes to cybersecurity, industries have focused on protecting information technology and less prioritizing the control systems. The consequences of a security breach in an OT system can be more adverse as it can lead to physical damage, industrial accidents and physical harm to human beings. Hence, for the OT networks, certificate-based authentication is implemented. This involves stages of managing credentials in their communication endpoints. In the previous works of ivESK, a solution was developed for managing credentials. This involves a CANopen-based physical demonstrator where the certificate management processes were developed. The extended feature set involving certificate management will be based on the existing solution. The thesis aims to significantly improve such a solution by addressing two key areas that is enhancing functionality and optimizing real-time performance. Regarding the first goal, firstly, an analysis of the existing feature set shall be carried out, where the correct functionality shall be guaranteed. The limitations from the previously implemented system will be addressed and to make sure it can be applied to real world scenarios, it will be implemented and tested in the physical demonstrator. This will lay a concrete foundation that these certificate management processes can be used in the industries in large-scale networks. Implementation of features like revocation mechanism for certificates, automated renewal of the credentials and authorization attribute checks for the certificate management will be implemented. Regarding the second goal, the impact of credential management processes on the ongoing CANopen real-time traffic shall be a studied. Since in real life scenarios, mission-critical applications like Industrial control systems, medical devices, and transportation networks rely on real-time communication for reliable operation, delays or disruptions caused by credential management processes can have severe consequences. Optimizing these processes is crucial for maintaining system integrity and safety. The effect to minimize the disturbance of the credential management processes on the normal operation of the CANopen network shall be characterized. This shall comprise testing real-time parameters in the network such as CPU load, network load and average delay. Results obtained from each of these tests will be studied.
Endress+Hauser Liquid Analysis ist ein erfolgreiches Entwicklungsunternehmen im Bereich der Flüssigkeitsanalyse für Prozesse und Labore. Mit voranschreitender Digitalisierung soll auch das Produktportfolio weiter digitalisiert werden. Ziel dieser Arbeit ist es den Entwicklungsprozess von Endress+Hauser Liquid Analysis auf die Eignung zur Entwicklung digitaler Produkte zu untersuchen. Zur Beantwortung der Fragestellung werden sowohl Literatur als auch mehrere Experten aus dem Fachgebiet zur Rate gezogen. In der Auswertung wird der aktuelle Prozess bewertet und ein geeignetes Prozessmodell für das Unternehmen dargestellt. Das empfohlene Modell wird exemplarisch anhand eines Beispielprojekts aufgezeigt. In einem abschließenden Fazit werden Ergebnisse und Erkenntnisse zusammengetragen.
In der Dokumentation dieser Masterthesis wird die Produktion eines zweidimensionalen Platformer-Spiels beschrieben, in dem mit mehreren Fähigkeiten und dem Lösen von diversen Rätseln verschiedene Level durchquert werden können. Zudem wird in dieser Dokumentation anhand einer Tabelle alle möglichen Eingaben zur Tastatur- und Controller-Steuerung gezeigt. Des weiteren wird das gestalterische Konzept dargestellt. Dazu gehört die Beschreibung der Synopsis der in dem Spiel erzählten Geschichte, das Darstellen des Designs der vorkommenden Charaktere und das Beschreiben des Aufbaus und der gestalterischen Intention der verschiedenen Level. Der Fokus in dieser Dokumentation liegt im detaillierten Beschreiben der in dem Spiel vorkommenden Elemente und wie diese in der gewählten Spiele-Engine Godot implementiert wurden. Dazu zählen wie der Spieler-Charakter aufgebaut ist und wie dieser mit den einzelnen Objekten oder anderen Charakteren im Spiel interagieren kann. Zudem wird die Implementierung eines umfangreichen Dialog-Systems mit seinen Bausteinen beschrieben. Des weiteren werden alle weiteren wichtigen Elemente, die das Spiel spielbar machen, erklärt.
JavaScript-Frameworks (JSF) sind im Bereich der Webentwicklung seit längerem prominent. Jährlich werden neue JSF entwickelt, um spezifische Probleme zu lösen. In den letzten Jahren hat sich der Trend entwickelt, bei der Wahl des JSF verstärkt auch auf die Performanz der entwickelten Webseite zu achten. Dabei wird versucht, den Anteil an JavaScript auf der Webseite zu reduzieren oder ganz zu eliminieren. Besonders neu ist der Ansatz der "Island Architecture", die erstmals 2019 vorgeschlagen wurde. In dieser Thesis soll die Performanz der meistbenutzten und des performantesten JSF mit dem JSF "Astro" verglichen werden, welches die "Island Architecture" von sich aus unterstützt. Der Schwerpunkt liegt beim Vergleichen der Webseitenperformanz, jedoch werden auch Effizienz und Einfachheit während der Entwicklung untersucht. Das Ziel dieser Arbeit ist es, potenzielle Frameworks zu untersuchen, die die Effizienz und Produktivität für den Nutzer und während der Entwicklung steigern können.
Modellprädiktive Regelung findet zunehmend Anwendung im industriellen Umfeld. Durch schnellere Computer und optimierte Programmierung ist es heute möglich, rechenintensive Regelalgorithmen in Echtzeit auf Mikrocontrollern zu berechnen. Eine besondere Herausforderung besteht jedoch darin, diese Technologie in der Realität einzusetzen. Weil exakte Kenntnisse über das reale System vorliegen müssen, können geringfügige Modellierungsfehler bei der Prädiktion für lange Prädiktionshorizonte schwerwiegende Folgen haben. Das ist insbesondere der Fall, wenn Systeme instabil sind und zu chaotischem Verhalten neigen.
Diese Arbeit behandelt ein breites Spektrum systemtheoretischer Inhalte und zielt darauf ab, ein reales Furuta-Pendel durch modellprädiktive Regelung in der instabilen Ruhelage zu stabilisieren. Hierfür wird ein mathematisches Modell als Prädiktionsmodell hergeleitet, welches durch verschiedene Systemidentifikationsmethoden spezifiziert und validiert wird. Es werden verschiedene Filter-Techniken wie das Kalman-Filter zur Zustandsschätzung oder das Exponential Moving Average (EMA)-Filter zur Filterung von Sensordaten eingesetzt.
Das Furuta-Pendel ist ein komplexes mechatronisches System. Die Aufgaben dieser Arbeit beschränken sich daher nicht nur auf theoretische Aspekte. Neben der Auslegung elektrischer Bauelemente und Schaltungen werden zusätzliche Sensoren zu einem bestehenden System hinzugefügt und mechanische Anpassungen vorgenommen. Darüber hinaus werden Entscheidungen zur Softwarearchitektur getroffen sowie die gesamte Implementierung auf einem Mikrocontroller durchgeführt.
Trotz intensiver Bemühungen konnte kein Modell gefunden werden, welches die gemessenen Ein- und Ausgangsdaten vergleichbar simulieren kann, sodass es den Anforderungen der modellprädiktiven Regelung entspricht. Stattdessen gelang es während der Systemidentifikationsphase einen Linear Quadratic Regulator (LQR) mit unterlagertem Proportional–Integral (PI) Stromregler als Kaskade zu entwerfen, der sowohl simulativ als auch in der Realität das Pendel stabilisieren kann.
Proteine spielen eine entscheidende Rolle im Stoffwechsel aller Lebewesen. Für die Lebensmittelindustrie sind die Grundbausteine der Proteine, besonders interessant, da sie den Geschmack von Lebensmitteln stark beeinflussen können, oder sich in Form von Supplementen als Nahrungsergänzungsmittel für Sportler eignen. Zur Gewinnung dieser Aminosäuren werden unteranderem Aminopeptidasen verwendet. In dieser Arbeit wurden fünf fungale Aminopeptidasen Pep 1 aus Aspergillus turcosus, Pep 4 aus Aspergillus thermomutatus, Pep 6 aus Coccidioides posadasii C735 delta SOWgp, Pep 7 aus Trichophyton interdigitale H6 und Pep 8 aus Onygena corvina in Pichia pastoris rekombinant exprimiert, mittels Ultrafiltration aufkonzentriert und biochemisch charakterisiert. Die Aminopeptidasen aus Aspergillus turcosus (Pep 1), Aspergillus thermomutatus (Pep 4) und Trichophyton interdigitale H6 (Pep 7) hatten ihr pH-Optimum bei pH 9, während die Aminopeptidasen aus Coccidioides posadasii C735 delta SOWgp (Pep 6) und Onygena corvina (Pep 8) bei pH 8,5 die höchste Aktivität aufwiesen. Die Temperaturoptima lagen bei 60 °C (Pep 1 und Pep 6) und 50 °C (Pep 4, Pep 7 und Pep 8) und alle waren zwischen 45 und 55 °C für 15 Minuten temperaturstabil. Die Aminopeptidasen hatten nach der Deglykosilierung ein Molekulargewicht von 57 (Pep 1), 52 (Pep 4 und Pep 7), 54 (Pep 6) und 53 kDA (Pep 8). Mit Leu-pNA als Substrat zeigten die fungalen Aminopeptidasen maximale spezifische Umsatzgeschwindigkeiten von 357 (Pep 1), 238 (Pep 4), 2000 (Pep 6), 56 (Pep 7) und 476 nkat/g (Pep 8). Pep 1 wurde am stärksten positiv von Bivalenten Ionen wie Mg2+, Co2+, Mn2+ und Ca2+ beeinflusst, in Gegenwart von 0,1 mM Mg2+ konnte eine relative Enzymaktivität von 345 % im Vergleich zum Referenzwert gemessen werden. Bei den anderen Aminopeptidasen konnten inhibitorische Effekte festgestellt werden. Bie allen fungalen Aminopeptidasen bei der Hydrolyse von vorhydrolysiertem Gluten die Freisetzung von Aminogruppen festgestellt werden, somit eignen sich die Aminopeptidasen in Kombination mit Endopeptidasen zur Hydrolyse von Proteingemischen. Bei der Hydrolyse konnte zudem die Freisetzung von Glutamin durch das L-Glutamine/Ammonia Assay Kit (Rapid) von Megazyme nachgewiesen werden.
Die Bachelorarbeit wurde im Rahmen einer Äquivalenz mit der Ingenieurschule INSA Straßburg geschrieben. Zum Thema wurde eine Projektarbeit im Auftrag der Kriminalpolizei mit einer Bearbeitungszeit von drei Semestern. Aufgabenstellung war es, einen Überblick eines Tatorts ohne menschlichen Eingriff zu verschaffen. Noch heute müssen die Polizisten den Tatort betreten, um Beweisspuren zu sammeln. Das Problem hierbei ist, dass dadurch Hinweise fast systematisch verloren gehen.
Mit einem ferngesteuerten Luftschiff sollte diese Aufgabenstellung gemeistert werden. Die Arbeit beschäftigt sich spezifisch mit dem Entwurf eines integrierten Kamerasystems und mit der Implementierung der Elektronik im Gesamtsystem für einen ersten Prototypen. Auf die Konzeptionierung der Fortbewegung und des Flugobjekts wird somit nicht in Detail eingegangen. Diese Aspekte werden bei der Erstellung des Lastenhefts geschildert und bei Berührungspunkten mit dem im Fokus stehenden Themengebiet erklärt.
Auf struktureller Ebene wird wie gefolgt vorgegangen: Die technischen Lösungen werden abgewogen, getestet und progressiv zusammengeführt. Zum Ende der Bearbeitungszeit können ferngesteuert Bilder und Panoramen aufgenommen und der Tatort live mit einem Video-Feedback observiert werden. Die Elektronik wurde, nach Erarbeitung der elektronischen Architektur, mithilfe einer gedruckten Leiterplatte kompakt in der Gondel des Luftschiffs integriert. Mit zahlreichen Optimierungsperspektiven wurde der erste Prototyp fertiggestellt und das Ziel dieser Arbeit erreicht.
Diese Arbeit befasst sich mit dem Entwurf und der Herstellung einer Roboterhandprothese, die amputierten Menschen eine gewisse Mobilität und eine teilweise Nutzung der Hand ermöglichen soll.
Das Projekt konzentriert sich insbesondere auf die Erkennung der vom Benutzer ausgeführten Bewegung und wird die Schritte der Erfassung, der Bewegung der Übertragung und die Erkennung detailliert darstellen.
Im Rahmen des Projekts "Myo-Hand" soll ein Prototyp einer myoelektrischen Handprothese entwickelt werden. Diese Prothese soll für handamputierte Menschen nützlich sein, da sie ihren Komfort und ihre Unabhängigkeit im Alltag verbessert und somit zu ihrer Eingliederung in die Gesellschaft beiträgt.
In dieser Abschlussarbeit werden die gesamte Arbeit, Studien und Realisierungen vorgestellt, die in den letzten zwei Semestern (WS2022 und SS2023) der Mechanik der Prothese durchgeführt wurden.
Nach einer kurzen Vorstellung der Arbeit des letzten Jahres wird ein Überblick über die Idee und die allgemeine Funktionsweise der Prothese gegeben, die verschiedene Komponenten umfasst: Elektronik, Machine-Learning, Steuerung, Wiederverwertbarkeit und Carbon Footprint. Das Lastenheft wird ebenfalls vorgestellt.
Die technologischen Entscheidungen werden näher erläutert: das Design der Teile, die Wahl der Verbindungen und die verwendeten Motoren. In einem zweiten Teil werden die Schritte zur Herstellung des ersten und zweiten Prototyps sowie eine Kritik des Ergebnisses vorgestellt. Weiter werden die Verbesserungen und die Ziele bis Januar 2024 besprochen.
Anschließend werden der Lebenszyklus der Prothese und ihr Carbon Footprint analysiert und mithilfe der Software Ecodesign Studio berechnet.
Increasing global energy demand and the need to transition to sustainable energy sources to mitigate climate change, highlights the need for innovative approaches to improve the resilience and sustainability of power grids. This study focuses on addressing these challenges in the context of Morocco's evolving energy landscape, where increasing energy demand and efforts to integrate renewable energy require grid reinforcement strategies. Using renewable energy sources such as photovoltaic systems and energy storage technologies, this study aims to develop a methodology for strengthening rural community grids in Morocco.
Traditional reinforcement measures such as line and transformer upgrades will be investigated as well as the integration of power generation from photovoltaic systems, which offer a promising way to utilise Morocco's abundant solar resources. In addition, energy storage systems will be analysed as potential solutions to the challenges of grid stability and resilience. Using comprehensive data analysis, scenario planning and simulation methods with the open-source simulation software Panda Power, this study aims to assess the impact of different grid reinforcement measures, including conventional methods, photovoltaic integration, and the use of energy storage, on grid performance and sustainability. The results of this study provide valuable insights into the challenges and opportunities of transitioning to a more resilient and sustainable energy future in Morocco.
Based on a rural medium-voltage grid in Souihla, Morocco, three scenarios were carried out to assess the impact of demand growth in 2030 and 2040. The first scenario focuses on conventional grid reinforcement measures, while the second scenario incorporates energy from residential photovoltaic systems. The third scenario analyses the integration of storage systems and their impact on grid reinforcement in 2030.
The simulations with energy from photovoltaic systems show a reduction in grid reinforcement measures compared to the scenario without solar energy. In addition, the introduction of a storage system in 2030 led to a significant reduction in the required installed transformer capacity and fewer congested lines. Furthermore, the results emphasized the role of storage in stabilizing grid voltage levels.
In summary, the results highlighted the potential benefits of integrating energy from photovoltaics and storage into the grid. This integration not only reduces the need for transformers and overall grid infrastructure but also promotes a more efficient and sustainable energy system.
Änderungen gegenüber der Fassung 2021:
- Abschnitt 1: Der Anwendungsbereich umfasst nun auch Primärenergiefaktoren,
- Redaktionelle Änderungen und Fehlerkorrekturen,
- 7.2.3.1: Neue Formel (15) für Allokationsfaktoren für mehrere Wärmeflüsse mit unterschiedlichen,
- Temperaturen aus derselben KWK-Anlage,
- 7.2.3.2: Neue Anmerkung zur Klarstellung, dass Formel (14) auch für die Arbeitswertmethode gilt,
- Neuer Unterabschnitt 7.2.6 mit der Vereinfachung, dass KWK-Wärme unter 100 °C Vorlauftemperatur,
- mit der pauschalen Aufwandszahl 0,5 bewertet werden darf,
- Anhang A wurde neu gefasst, damit zusätzliche Anwendungsbereiche wie Gesetze oder Förderprogramme,
- die eigenen Festlegungen zu Gewichtungsfaktoren machen, dieses Dokument widerspruchsfrei,
- in Bezug nehmen können,
- Anhang B.4 mit einem Berechnungsbeispiel zur Kälteversorgung wurde gestrichen.
Diese Arbeit befasst sich mit dem Thema der sogenannten „Advanced-Spike-Technology“. Dabei wird ein fortschrittliches Vorfußdämpfungselement betrachtet, dessen Kompressionssteifigkeit variiert wird. Die Technik soll die Sprint-Spikes maßgeblich verbessern. Die Arbeit untersucht, ob die Variation der Kompressionssteifig-keit der Sprint-Spikes einen Einfluss auf die sportliche Leistungsfähigkeit beim Sprinten hat. Es werden drei Prototypen von Adidas getestet, die jeweils unterschiedliche Steifigkeiten im Vorfußbereich aufweisen (hart, mittel und weich). Das Ziel besteht darin, die Auswirkungen der Variation der Kompressionssteifigkeit auf den Start bis 10 Meter und den Sprint auf etwa 50 bis 60 Meter zu untersuchen. Dabei werden die Geschwindigkeit und die Beschleunigung des Körperschwerpunktes in Matlab R2023b berechnet. Anhand der Ergebnisse wird die Fragestellung beantwortet. Zu Beginn werden folgende Hypothesen aufgestellt: Die Variation der Kompressionssteifigkeit hat keinen signifikanten Einfluss auf die sportliche Leistungsfähigkeit. Allerdings können individuelle Präferenzen der Sportler*innen in Bezug auf die Steifigkeit der Spikes berücksichtigt werden.
Die Untersuchung wird am Advanced Motion Lab in Offenburg (AMLO) der Hochschule Offenburg durchgeführt. Die Messung erfolgt auf einer Tartanbahn, wobei Kraftmessplatten im Bodenbelag integriert sind, um die Bodenreaktionskräfte beim Fußaussatz zu messen. Zusätzlich werden acht High-Speed-Videokameras eingesetzt, um die Sprintbewegung mittels markerlosem 3D-Motion-Capturing aufzuzeichnen. Es werden 30 Proband*innen getestet, davon 20 männliche und 10 weibliche Teilnehmer*innen, die eine saisonale persönliche Bestleistung von 12,5 Sekunden beziehungsweise 13,5 Sekunden über 100 Meter besitzen. Außerdem dürfen die Proband*innen in den letzten sechs Monaten keine kardiovaskulären Einschränkungen oder Verletzungen aufgewiesen haben. Nach Unterzeichnung der Einverständniserklärung und einem kurzen individuellen Warm-up wird die Kalibrierung der verwendeten Software beziehungsweise Messgeräte durchgeführt. Anschließend beginnt die eigentliche Messung. Pro Person werden jeweils mindestens zwei gültige Starts und ein gültiger maximaler Sprint pro Schuhbedingung durchgeführt. Die Pausengestaltung zwischen den einzelnen Messungen wird individuell gewählt, um Ermüdung zu vermeiden. Nach der Durchführung erfolgt die Auswertung und Verarbeitung der Daten durch das Programm Theia Markerless.
Zu Beginn wird die Berechnung in Matlab realisiert. Der erste allgemeine Schritt in der Berechnung des Startes und Sprints ist identisch. Die verarbeiteten Daten aus Theia werden unter Einsatz einer Funktion eingelesen. Diese Funktion durchläuft eine Ordnerstruktur, die zuvor manuell erstellt werden muss und die die einzelnen Daten der Proband*innen beinhaltet.
Um den Start berechnen zu können, müssen zunächst die Daten der vertikalen Bodenreaktionskraft umgerechnet werden. Daraufhin folgt eine Filterung der vertikalen Bodenreaktionskraft mit einer Schwelle von -3 Newton, da um die Nulllinie ein Rauschen vorliegen kann. Die Daten unterhalb dieser Schwelle entsprechen denen des Fußaufsatzes der Kraftmessplatte. Im Anschluss werden die Indizes unterhalb der Schwelle identifiziert. Auch die Daten des Körperschwerpunktes müssen gefiltert werden, da ungültige Datenauswertungen in Theia für den Wert des Körperschwerpunktes -999999 annehmen. Um diese Daten zu eliminieren, wird eine Schwelle von -100 eingeführt. Daraufhin folgt die Zuordnung der Indizes der Bodenreaktionskraft zu den Werten des Körperschwerpunktes und die Extraktion der Daten des Körperschwerpunktes. Im nächsten Schritt werden die Geschwindigkeit und die Beschleunigung anhand der internen Funktion „gradient“ berechnet. Weiterführend folgt die Berechnung der minimalen, mittleren und maximalen Werte der Geschwindigkeit und Beschleunigung. Letztendlich werden die Parameter als Excel-Datei exportiert, um eine statistische Auswertung durchzuführen.
Der erste Schritt zur Berechnung des maximalen Sprints besteht darin, den Körperschwerpunkt bei der Startfilterung zu identifizieren. Hierbei wird erneut die Schwelle von -100 verwendet und es werden die lokalen Maxima (Höhepunkte) in der Sagittalebene des Körperschwerpunkts identifiziert. Das Ziel ist es, die Daten zwischen zwei Maxima zu extrahieren, was genau einem Schritt entspricht. Es wird eine Mindestsuchhöhe für die Maxima festgelegt. Der Code unterscheidet zwischen den Fällen, in denen ein, zwei, drei oder vier und mehr Maxima gefunden werden. Des Weiteren werden verschiedene Abfragen und Unterscheidungen durchgeführt, um die beiden besten Maxima zu ermitteln. Danach werden die Indizes im Intervall von Maxima zu Maxima identifiziert und dem Körperschwerpunkt zugeordnet. Im Folgenden werden die Geschwindigkeitsberechnungen mithilfe der Funktion „gradient“ sowie die minimalen, mittleren und maximalen Geschwindigkeiten dargestellt. Abschließend erfolgt der Export der Parameter für die statistische Auswertung.
Nachfolgend wird die Leistungsfähigkeit der erstellten Programme in Matlab manuell überprüft. Beim Start und Sprint ergibt sich eine Genauigkeit von 98,89 und 96,66 %. Dies ermöglicht eine präzise statistische Auswertung, die im Programm „Jasp“ durchgeführt wird. Es wird eine einfaktorielle Varianzanalyse (ANOVA) mit Messwiederholung angewendet, wobei einige Voraussetzungen erfüllt sein müssen. Es lässt sich feststellen, dass die Variation der Kompressionssteifigkeit keinen signifikanten Einfluss auf die Geschwindigkeit oder Beschleunigung hat. Beim maximalen Sprint ist der Einfluss größer als beim Start, jedoch nicht signifikant. Diese Ergebnisse bestätigen die Hypothese.
Das Ziel der vorliegenden Arbeit ist es, Strategien und Ratschläge für die Kosmetikindustrie zu erarbeiten, die es ermöglichen, Influencer Marketing erfolgreich in ihre Marketingkommunikationsstrategie zu integrieren, um die Generation Z effektiv anzusprechen. Dazu werden folgende Leitfragen in dieser Arbeit behandelt:
Was ist Influencer-Marketing und welche Herausforderungen, Chancen und Risiken sind mit Influencer-Marketing verbunden?
Welche Bedeutung hat die Generation Z als Zielgruppe?
Wie gestaltet sich das Kaufverhalten der Generation Z und wie kann es beeinflusst werden?
Welche erfolgreichen Beispiele und erfolgsversprechenden Aspekte gibt es im Influencer-Marketing?
Wie kann Influencer-Marketing in die Marketingkommunikationsstrategie der Kosmetikbranche integriert werden, um die Generation Z erfolgreich anzusprechen?
Basierend auf den Erkenntnissen einer quantitativen Online-Befragung, die an der Medienfakultät der Hochschule Offenburg durchgeführt wurde, lassen sich Implikationen für Unternehmen in der Kosmetikindustrie ableiten. Die Forschungsergebnisse bieten Ansätze dafür, wie die Kosmetikindustrie die Social-Media-Plattformen Instagram und TikTok nutzen kann, um die Generation Z effektiv zu erreichen und ihre Kaufentscheidungen zu beeinflussen.
Die Beschleunigungsleistung ist ein großer limitierender Faktor beim Sprinten. Es stellt sich die Frage, mit welcher Technik diese verbessert werden kann.
Das Ziel der vorliegenden Arbeit ist es, zu klären, ob die Unterschenkelkinematik einen Einfluss auf die Beschleunigungsleistung beim Sprintstart hat. Dafür wurden die Annahmen von Alt et al. (2022) über Schlüsselpositionen des Unterschenkels herangezogen und überprüft. Die gestellte Forschungsfrage lautet: Können die Annahmen von Alt et al. (2022) in die Praxis übertragen und angewendet werden?
Um die Forschungsfrage zu beantworten, wurde jeweils der erste Schritt nach dem Sprintstart aus einem Startblock analysiert. Hierfür wurden ein markerbasiertes 3D Motion Capture System und im Boden integrierte Kraftmessplatten verwendet. Insgesamt 30 Proband:innen haben jeweils sechs Starts ausgeführt. Die Auswertung wurde mit Hilfe von MATLAB Skripten durchgeführt. Mit linearen und quadratischen Regressionsberechnungen wurden die Zusammenhänge zwischen den Schlüsselpositionen des Unterschenkels und der Beschleunigungsleistung analysiert.
Die Ergebnisse zeigen, dass keine allgemeingültigen Aussagen über eine erfolgreiche Unterschenkelkinematik getroffen werden können. Werden die Proband:innen aber individuell betrachtet, ist teilweise zu erkennen, dass die Beschleunigungsleistung mit der Unterschenkelkinematik zusammenhängt.
Weiterführende Forschung in diesem Bereich könnte individueller und auf Trainingsanweisungen mit Technikverbesserung ausgerichtet sein.
Diese Arbeit widmet sich dem Anleger der aktuellen Maschinengeneration der HEIDELBERG Speedmaster XL 106, diese erreicht eine maximale Druckgeschwindigkeit von 21 000 bedruckten Bögen pro Stunde (Bg/h) und stößt bei einer Bedruckstoffdicke von 0,6 mm an ihre technischen Grenzen. Ein vollautomatisierter Auto-Non-Stopp-Wechsel (ANS-Wechsel) zur Gewährleistung einer kontinuierlichen Bedruckstoffzufuhr an der Druckmaschine ist bei maximaler Druckgeschwindigkeit von 21 000 Bg/h oberhalb dieser Bedruckstoffdicke nicht mehr möglich. Es besteht die Forderung nach höheren Bedruckstoffdicken bei unverändert maximaler Druckgeschwindigkeit von 21 000 Bg/h und gleichzeitiger Gewährleistung eines sicheren ANS-Wechselvorgangs.
Im Zuge dieser Arbeit wird durch eine Analyse zahlreicher Kundenmaschinen eine präzise Zielsetzung definiert. Eine eingehende Untersuchung des vollautomatischen ANS-Wechselvorgangs zur kontinuierlichen Bedruckstoffversorgung der Druckmaschine folgt. Dieser Wechselprozess wird im Laufe der Arbeit in seine Einflussfaktoren aufgeschlüsselt, die anschließend schrittweise und methodisch bezüglich der Zielsetzung definiert werden. Dabei wird der technische Grenzbereich des aktuellen Systems identifiziert und erweitert. Als Ergebnis gilt es, die betroffenen Komponenten erneut auf ihre Auslegung zu überprüfen, da sie aufgrund dieses erweiterten Grenzbereichs möglicherweise höheren Belastungen ausgesetzt sind. Die Untersuchung zeigt, dass es Situationen gibt, in denen sicherheitsrelevante Komponenten unzulässig stark beansprucht werden. Daher werden Lösungskonzepte vorgestellt, um die geforderten technischen Grenzen und sicherheitstechnischen Anforderungen zu erfüllen.
Entwicklung eines Ansatzes zur Validierung von Beckenmodellen in Anlehnung an die ASME V&V-40
(2024)
Die Relevanz von In-silico Studien in der Medizin gewinnt für Ingenieure, Mediziner und Wissenschaftler stetig an Wert. In-silico Studien helfen dabei, kostspielige und zeitaufwendige Kadaverstudien sowie langjährige Ergebnisstudien einzugrenzen. Zum Thema Becken herrschen schon einige Berechnungsmodelle vor, jedoch nicht in dieser Ausführung und in Kombination mit einem Abgleich zu einer Kadaverstudie mit den gleichen Randbedingungen. Ein sehr wichtiger weiterer Bestandteil ist die Verifizierung und Validierung eines solchen Rechenmodells. Da kein Versuch im eigentlichen Raum, dem Körper, sondern in einer Simulationsumgebung stattfindet, muss das Modell verifiziert und validiert werden, um auf gewisse Weise die Glaubwürdigkeit des Modells darzulegen. In dieser Arbeit wurden verschiedene Ansätze zur bestmöglichen Abbildung der Kadaverstudie entwickelt. Die beste Übereinstimmung kam mit dem Modellansatz 3 zustande. Der Modellansatz 3 berücksichtigt die Unterteilung von der Spongiosa zur Kortikalis, die Lendenwirbel L3-L5, das Sacrum und die Ilia zuzüglich der Bandscheiben und der Symphysis pubica mit einem hyperelastischen Materialmodell, alle relevanten Ligamente sowie die verschiedenen Materialeigenschaften für jede einzelne Kortikalis, Spongiosa und der Weichteile aus der Kadaverstudie. Definiert wurde der Modellansatz 3 über die kinematisch nähere Beschreibung der Z-Achsen Sperrung, einer veränderten Krafteinleitung sowie einer Feinjustierung der Ligamenten Steifigkeiten. Aus diesem Modellansatz ging vor allem eine physiologische Kinematik wie auch eine überaus gute Konvergenz an den Markern der Anterior superior iliac spine rechts und links, Sacrum und L5 hervor. Die Verifizierung und Validierung des Rechenmodells wurde anhand der ASME V&V-40 geschaffen. Die dafür entscheidende Question of Interest lautet: Liegen die Stabilität, Belastungen und Verformungen von patientenspezifischen Frakturversorgungen unter standardisierten Lasten? Daraus ergaben sich drei Context of Use, von denen der erste (Context of Use 1: Deformation) im Fokus dieser Arbeit lag. Die Entscheidungskonsequenz sowie das Modellrisiko für den Context of Use und das Modell wurde als Low/Medium eingestuft. Mit Hilfe dieser Einstufung konnten die Model Credibility Factor Goals für das Modell definiert werden. Diese gaben schlussendlich den Grad der Validierung für das bestehende Modell vor.
Die Videospielindustrie liefert zahlreiche Spiele, die auf literarischen Werken basieren. Im Vergleich zu anderen Medien werden Videospiele in der Umsetzung von literarischen Werken bisher nur unzureichend erforscht. Daher ist es sinnvoll zu untersuchen, wie Videospiele literarische Vorlagen umsetzen.
Ziel der Arbeit ist es, die verschiedenen Möglichkeiten der Umsetzung literarischer Werke in Videospiele zu ermitteln. Die Forschungsfrage lautet dabei: "Welche verschiedenen Ansätze gibt es, literarische Vorlagen in Videospiele umzusetzen?
Um diese Frage zu beantworten, wurde eine Fallstudie zu vier verschiedenen Videospielen, die auf literarischen Vorlagen basieren, durchgeführt. Dazu wurde eine Kriterienliste mit insgesamt vier Kriterien untersucht, analysiert und bewertet. Die Kriterien beziehen sich hierbei auf das Storytelling, das Worldbuilding, das Character Design und die Game Mechanics in Bezug auf die literarische Vorlage. Aus den einzelnen Ergebnissen der Kriterien wurden anschließend die Ergebnisse des jeweiligen Spiels ermittelt.
Die Ergebnisse der Fallstudie zeigen, dass drei verschiedene Ansätze zur Umsetzung vorliegen. Es handelt sich um Neuinterpretation, um eine Mischform aus Interpretation und Adaption sowie um eine grundlegende Adaption.
Um weitere Erkenntnisse über die verschiedenen Ansätze und mögliche Unterschiede zu erhalten, bedarf es weiterer Forschungen mit anderen auf literarischen Werken basierenden Videospielen.
In einer digitalisierten Welt wird das Smartphone zunehmend multifunktional eingesetzt. Auch Anwendungen für eine eindeutige Identifikation wie bei Banking-Apps sind bereits verfügbar, weshalb das Smartphone auch als Ersatz des klassischen Schlüssels genutzt werden kann.
Ziel der Thesis ist es, genau das unter Beweis zu stellen. Im Rahmen der Arbeit soll eine mobile Applikation in Android Studio für ein Google Pixel 7 Pro entwickelt werden, die mit einem Türschloss interagieren und dieses ansteuern kann. Eine Besonderheit dieses Systems besteht in der präzisen Positionsbestimmung mithilfe der Ultra-Wideband Technologie. Diese wird genutzt, um die Position des Smartphones zum Türschloss genau zu bestimmen und festzulegen, ab welcher Position das Schloss auf die Interaktion des Smartphones reagieren soll.
Die im Rahmen der Thesis entwickelte App hat das Ziel erfüllt. Sie fungiert als Demo-App für ein funktionierendes Tür-System, bei dem die Positionsbestimmung mit Ultra-Wideband umgesetzt wurde. Ebenfalls wurde der Datenaustausch mit mehreren Sicherheitsmechanismen wie einem AES-Algorithmus, einem Running Counter oder einem Hash-Wert umgesetzt.
Dennoch muss erwähnt werden, dass das Ziel, den Datenaustausch ebenfalls mit Ultra-Wideband zu implementieren, nicht gelungen ist. Hierfür wird in der bestehenden App Bluetooth Low Energy genutzt.
Im Laufe der Arbeit hat sich gezeigt, dass Ultra-Wideband im Zusammenhang mit dem angedachten Tür-System zur Positionsbestimmung geeignet ist. Es konnte eine hohe Präzision mit einer Aktualisierungsrate von mehreren Ranging-Ergebnissen pro Sekunde erreicht werden.
Allerdings ist ein abgeschlossenes Konzept, das ausschließlich auf Ultra-Wideband basiert, bislang nicht möglich. Ebenfalls erschweren fehlende Standards die Implementierung. Hier mangelt es an einer Vereinheitlichung.
Auch besteht Potenzial zur Entwicklung von Konzepten für die Umsetzung des Datenaustauschs über Ultra-Wideband in mobilen Applikationen. Somit wäre es möglich, Ultra-Wideband als alleinige Technologie für solche Systeme zu nutzen.
Abschließend zeigt diese Arbeit jedoch, dass Positionsbestimmung mit Ultra-Wideband im in der Thesis untersuchten Konzept möglich ist und die Technologie für eine Indoorpositionierung in Kombination mit einem smarten Türschloss genutzt werden kann. Die herausragende Präzision in Echtzeit kann in diesem Prototyp verdeutlicht werden und als ein funktionierendes System als Grundlage für zukünftige Arbeiten genutzt werden.
The growing threat posed by multidrug-resistant (MDR) pathogens, such as Klebsiella pneumoniae (Kp), represents a significant challenge in modern medicine. Traditional antibiotic therapies are often ineffective against these pathogens, leading to high mortality rates. MDR Kp infections pose a novel challenge in military medical contexts, particularly in Medical Biodefense, as they can be deliberately spread, leading to resource-intensive care in military centres. Recognizing this issue, the European Defence Agency initiated a prioritised research project in 2023 (EDF Resilience PHAGE- SGA 2023). To address this challenge, the Bundeswehr Institute of Microbiology (IMB) leads BMBF- (Federal Ministry of Education and Research) and EU-funded projects on the use of bacteriophages as adjuvant therapy alongside antibiotics. Since 2017, the IMB has isolated and characterised Kp phages, collecting over 600 isolates and optimizing their production for therapy, in compliance with the EMA (European Medicine Agency) guidelines. This involves in vitro phage genome packaging to minimize endotoxin load, reduce manufacturing costs, and shorten production times. The goal of this work was to establish MinION sequencing (Oxford Nanopore Technology) as a quick and reliable way for initial identification and characterisation of phage genomes. Especially as a quick screening method for isolated on Kp, prior to more precise but also more expensive and time consuming sequencing methods like Illumina. This characterisation is crucial for developing a personalized pipeline aimed at producing magistral or Good Manufacturing Practice (GMP) quality medicinal phage solutions tailored individually for each patient. DNA extraction methods were compared to identify suitable input DNA for sequencing purposes. Additionally, the quality of this DNA was as- sessed to determine its suitability for in vitro phage packaging, which was successfully done achieving a phage titer of 103, confirming that the DNA used for MinION sequencing could indeed be used for acellular packaging. The created genomes were annotated and compared with Illumina sequencing, revealing high similarity in all five individually tested cases. Between the generated sequences only a 4% maximal percentual difference in genome size was observed, while simultaneously showing high similarity in the actual sequence. Throughout the course of this study, a total of 645.15 GB of sequencing data were generated. In total, 38 phages were successfully characterised, with 21 phage genomes assembled and annotated, and saved in the IMB database.
Entwicklung eines unabhängigen Systems zur Verstellung schiebergesteuerter Werkzeuge im Prozess
(2024)
Die Aufgabenstellung der Arbeit beinhaltete das Ausarbeiten eines unabhängigen Antriebssystems für Werkzeuge mit verstellbaren Schneiden. Hierbei bestand der Antrieb der Werkzeuge bisher aus einem rein mechanischen Anstriebsflansch. Dieser hat durch eine Drehspindel die rotatorische Bewegung der Maschinenspindel zu einer axialen Bewegung der Zugstange umgewandelt. Da die mechanische Drehspindel nicht in jeder Maschinenspindel vorhanden war, konnten die Werkzeuge von LMT Kieninger nur beschränkt eingesetzt werden. Aus diesem Grund sollte ein Antriebssystem entwickelt werden, welches auf jedem Bearbeitungszentrum unabhängig von der Maschinenspindeltechnologie eingesetzt werden konnte.
Für die Entwicklung des unabhängigen Antriebsflansches wurde zunächst eine Marktanalyse durchgeführt. Diese vergleichte bestehende Lösungsansätze auf dem Markt miteinander und untersuchte, welche davon für ein eigenes Lösungskonzept infrage kam. Hierbei wurde insbesondere der Antrieb, der die Bewegung erzeugen sollte, die Übergabe des Steuersignals und die Energieversorgung betrachtet. Ein vielversprechendes Lösungskonzept, das den vorliegenden Anforderungen entsprach, war eine elektrische Antriebsvariante mit einer Akkueinheit und einer Funksteuerung.
Um die elektronischen Komponenten in den bestehenden Antriebsflansch zu integrieren, mussten die Prozessparameter bestimmt werden. Dafür wurde ein Werkzeug als Referenz verwendet, das zum Ausspindeln der Laufflächen von Zylinderbuchsen verwendet wurde. In diesem Werkzeug befanden sich unterschiedliche Bauteile, welche den Mechanismus der Schneidenverschleißkompensation ermöglichten und die Drehbewegung des Antriebsflansches in den Verstellweg der Schneiden umsetzte. Unter Berücksichtigung der Bauteile sowie der vorhandenen Reibung und Verluste ergab sich ein Drehmoment, welches benötigt wurde, um die Schneiden zu verstellen. Nach der rechnerischen Ermittlung des benötigten Drehmoments konnte ein Kompaktantrieb von Maxon vorgeschlagen werden. Dies erfolgte unter Berücksichtigung der Anforderungen an den verfügbaren Bauraum, die Energieversorgung und die Akkueinheit. Dieser Kompaktantrieb bestand aus einem Motor, einem Planetenradgetriebe, einem Hall-Sensor zur Positionsbestimmung sowie einer Steuereinheit.
Die Konstruktion mit den einzelnen Bauteilen konnte nun erstellt werden. Der Konstruktionsprozess wurde durch die schrittweise und aufbauende Integration der Lösungen für die verschiedenen Funktionen des Bauteils systematisch und methodisch umgesetzt. Dabei erfolgte die Umsetzung in einem Modell, wobei jeder Schritt auf den vorherigen Überlegungen und Entscheidungen basierte. Der erste Schritt bestand darin, den Kompaktantrieb, der die Hauptfunktion darstellt, in den Grundkörper mit der HSK-Aufnahme zu integrieren. Anschließend wurden die Nebenfunktionen wie die axiale Lagerung, die Kühlmitteldurchführung und die Anpassung der Flanschgeometrie zur Aufnahme des Werkzeuges implementiert. Im nächsten Schritt wurden die Steuerung und die Akkueinheit als Blackbox positioniert sowie die Kabelkanäle in den Grundkörper konstruiert.
Abschließend wurden für die eigens entwickelten Bauteile technische Zeichnungen erstellt. Auf ihnen wurden alle relevanten technischen Merkmale hinterlegt, die für die Fertigung der Bauteile benötigt wurden. Hierzu gehörten beispielsweise Angaben zum Werkstoff, Toleranzen, Passungen, Oberflächenangaben sowie Form- und Lagetoleranzen. Zudem wurde eine Baugruppenzeichnung erstellt, die die Anordnung der einzelnen Bauteile mit ihrer Stückzahl und Positionsnummer in einer Stückliste klar und deutlich erkennbar machte.
Damit wurde die Neuentwicklung eines unabhängigen Antriebsflansches abgeschlossen und bot einen Einblick in die mögliche Integration eines mechatronischen Antriebs in den Antriebsflansch.
Diese Bachelorarbeit hat sich ausführlich mit der Erstellung von Sicherheitskonzepten und der damit einhergehenden Erstellung einer Risikobeurteilung beschäftigt.
Dabei wurde festgestellt, dass eine besonders große Gefahr des Werkzeugwechselsystems durch die Gefährdung des herabfallenden Werkzeuges entsteht. Zum einen kann dies durch das Aufkommen eines Energie- bzw. Druckverlust entstehen. Dieses Risko wird durch den Einsatz einer bewährten Feder und einer selbsthemmenden Keilverbindung zwischen Verriegelungskolben und -bolzen vermindert.
Zum anderen kann durch Steuerungs- oder Programmierfehler das Werkzeugwechselsystem an nicht vorgesehener Stelle geöffnet werden und sich Fest- und Losteil trennen. Die dadurch entstehende Gefahr eines Herabfallenden Werkzeuges wird von einer steuerungsabhängigen Schutzmaßnahme verhindert, welche über eine genaue Positionsabfrage vor dem gefahrbringenden Szenario schützen sollen.
Hierbei sind verschiedene Konzepte ausgearbeitet worden, welche das von der Risikobeurteilung geforderte erforderliche PLr d erfüllen. Für die Konzepte wurden verschiedene berührungslose Sensoren und Sicherheitsschalter ausgesucht und ein Ventilschaltplan für die Erfüllung der Sicherheitsfunktion erstellt.
Auch andere Gefährdungen werden mithilfe der Anwendung von Normen, den Einsatz von inhärent sicheren Konstruktionen, technische/ergänzende Schutzmaßnahme oder Benutzerinformationen ausreichend vermindert.
Mithilfe einer weiteren Abschlussarbeit werden diese Sicherheitskonzepte und die damit einhergehende Risikobeurteilung überprüft und validiert. Hierfür wird die Norm DIN EN ISO 13849-2 verwendet.
Steroid hormones (SHs) are a rising concern due to their high bioactivity, ubiquitous nature, and prolonged existence as a micropollutants in water, they pose a potential risk to both human health and the environment, even at low concentrations. Estrogens, progesterone, and testosterone are the three important types of steroids essential for human development and maintaining multiorgan balance, are focus to this concern. These steroid hormones originate
from various sources, including human and livestock excretions, veterinary medications, agricultural runoff, and pharmaceuticals, contributing to their presence in the environment. According to the recommendation of WHO, the guidance value for estradiol (E2) is 1 ng/L. There are several methods been attempted to remove the SH micropollutant by conventional water and wastewater technologies which are still under research. Among the various methods, electrochemical membrane reactor (EMR) is one of the emerging technologies that can address the challenge of insufficient SHs removal from the aquatic environment by conventional treatment. The degradation of SHs can be significantly influenced by various factors when treated with EMR.
In this project, the removal of SH and the important mechanism for the removal using carbon nanotube CNT-EMR is studied and the efficiency of CNT-EMR in treating the SH micropollutant is identified. By varying different parameters this experiment is carried out with the (PES-CNTs) ultrafiltration membrane. The study is carried out depending upon the SH removal based on the limiting factor such as cell voltage, flux, temperature, concentration, and type of the SH.
In der Marketingstrategie von Event- und Club-Veranstaltern ist eine zielgerichtete Ansprache der Kundschaft unerlässlich, um eine nachhaltige Beziehung zur Zielgruppe aufzubauen und so den geschäftlichen Erfolg zu sichern. Während erhebliche Investitionen in herkömmliche Werbekanäle wie soziale Medien fließen, bleiben diese Plattformen oft ohne Garantie, dass die Werbemittel die relevanten Nutzer erreichen. Die White-Label-App beabsichtigt dieses Problem zu beheben, indem es Veranstaltern ermöglicht wird, eine engagierte Community direkt über die mobile Plattform aufzubauen und mit dieser zielgerichtet zu kommunizieren.
Das Kernziel der Bachelorarbeit ist die prototypische Entwicklung dieser Smartphone-App als individualisierbare und modulare White-Label-Lösung, die präzise auf die Bedürfnisse von Veranstaltern und deren Kunden zugeschnitten ist. Hierbei ist die zentrale Forschungsfrage: Wie kann eine modulare und individualisierbare White-Label-App effizient implementiert werden?
Zur Beantwortung dieser Frage werden auf Basis einer Wettbewerbsanalyse und der gründlichen Bewertung aktueller Best Practices im Bereich der App-Entwicklung verschiedene Aspekte untersucht. Hierzu zählen die Identifikation von möglichen Marktlücken und -chancen, die Eignung verschiedener Technologien und Entwurfsmuster, die Überwindung spezifischer Herausforderungen bei der Implementierung einer White-Label-App und die performante Integration der API.
Um einen praxisorientierten Ansatz zu gewährleisten, werden darüber hinaus verschiedene Kernfunktionalitäten der App beispielhaft implementiert. Dazu gehören Features wie eine Eventübersicht mit Informationen zu Veranstaltungen und ein Ticketingsystem mit Reservierungsmöglichkeiten.
Globale Ereignisse politischen, wirtschaftlichen oder kulturellen Ursprungs führen dazu, dass Unternehmen sich gezwungen sehen zu handeln, um wettbewerbsfähig zu bleiben. In vielen Fällen wird dabei so vorgegangen, dass versteckte Preiserhöhungen vollzogen werden. Auch Unternehmen, die mit ihrem Angebot einen gesellschaftlichen Zusatznutzen erbringen, erhöhen die Preise, da nur so der verfolgte ökologische oder soziale Purpose erhalten werden kann, kommunizieren dies jedoch offen und erhöhen dadurch ihre Kundenloyalität. Dieses Vorgehen ist bislang jedoch überwiegend in den USA zu beobachten. Da das Thema Purpose auch in Deutschland immer höhere Relevanz erfährt, stellt sich die Frage der Übertragbarkeit. Die Forschungsfrage lautet deshalb: Inwiefern beeinflusst die Kommunikation von purpose-getriebenen Preissteigerungen das Markenimage von B2C-Unternehmen in Deutschland? Um der Forschungsfrage nachzugehen, wurde ein empirischer Forschungsansatz gewählt, der in Form einer quantitativen Studie umgesetzt wurde, die die Meinung der Studierendenschaft der Gen Z und Y der Hochschule Offenburg abbildet. Die Ergebnisse der Umfrage zeigten, dass die Glaubwürdigkeit und Akzeptanz von purpose-getriebenen Preiserhöhungen vom gegenwärtigen Markenimage bzw. dem übergeordneten Image einer Branche abhängen. Purpose wird eine hohe Bedeutung zugesprochen, die sich jedoch aufgrund der Preissensibilität der Zielgruppe nicht immer in der Markenwahl widerspiegelt. Dies verdeutlicht, dass Purpose das Potenzial besitzt, das Markenimage nachhaltig zu beeinflussen und zu prägen und die Zielgruppe der Gen Z und Y zukünftig an sich zu binden. Ferner wurde deutlich, dass bei der Umsetzung von Purpose bestimmte Kriterien verfolgt werden sollten, die bei der Kommunikation zu berücksichtigen sind, um eine authentische Wirkung zu erzielen.
Die wachsende Verbreitung von KI-gesteuerten Empfehlungssystemen und personalisiertem Lernen in LXPs wirft grundlegende ethische Fragen für Anwender auf, insbesondere hinsichtlich der Transparenz und Nachvollziehbarkeit dieser Systeme. Diese Bachelorarbeit behandelt die Schnittstelle zwischen KI, Ethik und Bildung, wobei der Schwerpunkt auf der Erklärbarkeit von KI-basierten Systemen liegt. Das Beispiel, das für die Untersuchung herangezogen wird, ist Moodle LXP an der Hochschule Offenburg. Die Motivation dieser Arbeit entspringt der dringenden Notwendigkeit, die Akzeptanz und Vertrauenswürdigkeit von KI-Systemen in Bildungsumgebungen zu fördern, indem Erklärbarkeit als integraler Bestandteil integriert wird.
Im Rahmen des Projekts KompiLe wird Moodle zu einer sogenannten Learning Experience Platform (LXP) ausgebaut, die Studierenden personalisiertes, selbstbestimmtes Lernen ermöglicht. Zentrale Elemente der LXP sind Bewertungen interner und externer Lernressourcen sowie individualisierte, auf KI basierende Lernempfehlungen für Studierende. Diese Empfehlungen beruhen auf der Analyse persönlicher Daten der Studierenden, was eine grundlegende Voraussetzung für das Funktionieren des Systems darstellt. Damit Studierende solchen KI-basierten Lernempfehlungen vertrauen, müssen angemessene Erklärungen die gesamte Prozesskette begleiten. Dies beinhaltet die freiwillige Freigabe persönlicher Daten, die Erstellung von Bewertungen sowie die Präsentation persönlicher Lernempfehlungen.
Das Ziel dieser Bachelorarbeit ist es, eine benutzerfreundliche Integration von Erklärungen für die genannten Prozesse in Moodle LXP zu entwickeln. Dies soll dazu beitragen, die Vertrauenswürdigkeit und Akzeptanz des durch KI unterstützten Lernens zu stärken. Die Arbeit konzentriert sich auf die Konzeption verständlicher Erklärungen für verschiedene Arten von Bewertungen und Lernempfehlungen sowie deren Integration und Darstellung in Moodle LXP. Die entwickelte Benutzeroberfläche zielt darauf ab, Studierende zu entlasten und ihnen hilfreiche sowie thematisch sinnvolle Informationen für die KI-basierten Empfehlungen bereitzustellen. Es wurde ein Konzept für die Erklärbarkeit erstellt und als Mockup umgesetzt. Abschließend wurde die grobe Voransicht des fertigen Designs in ausgewählten Gruppen von Studierenden evaluiert, und die Auswirkungen auf die Vertrauenswürdigkeit und Akzeptanz der Empfehlungen auf die Lernenden wurden untersucht.
In anisotropic media, the existence of leaky surface acoustic waves is a well-known phenomenon. Very recently, their analogs at the apex of an elastic silicon wedge have been found in experiments using laser-ultrasonics. In addition to a wedge-wave (WW) pulse with low speed, a pseudo-wedge wave (p-WW) pulse was found with a velocity higher than the velocity of shear bulk waves, propagating in the same direction. With a probe-beam-deflection technique, the propagation of the WW pulses was monitored on one of the faces of the wedge at variable distance from the apex. In this way, their depth structure and the leakage of the p-WW could be visualized directly. Calculations were carried out using a method based on a representation of the displacement field in Laguerre functions. This method has been validated by calculating the surface density of states in anisotropic media and comparing the results with those obtained from the surface Green's tensor. The approach has then been extended to the continuum of acoustic modes in infinite wedges with fixed wave-vector along the apex. These calculations confirmed the measured speeds of the WW and p-WW pulses.
Anisotropy has been found to play an important role for the existence of edge-localized acoustic modes as well as for nonlinear effects in rectangular edges. For a certain propagation geometry in silicon, the effective second-order nonlinearity for wedge waves was determined numerically from second-order and third-order elastic moduli and compared with the nonlinearity for Rayleigh waves propagating in the direction of the apex on one of the two surfaces forming the edge. In the presence of weak dispersion resulting from modifications of the wedge tip or coating of the adjacent surfaces, solitary pulses are predicted to exist and their shape was calculated.
Weg- und Winkelsensoren
(2014)
Weg- und Winkelaufnehmer werden überall dort benötigt wo veränderliche Positionen, (Abstände, Längen oder Winkel) erfasst werden müssen, um entweder als reiner Messwert ausgegeben zu werden oder in einem Regelkreis zumeist die Regelgröße als Messwert zur Verfügung zu stellen. Grundsätzlich unterscheidet man zwischen berührenden (tastenden) und berührungslosen Aufnehmern. Zu den berührenden Sensoren zählen dabei alle Aufnehmer, die ein spezielles Messobjekt als Weg- oder Winkelvermittler benötigen, das während der Messung fest mit dem eigentlichen Messobjekt verbunden ist. Diese Bezeichnung gilt auch dann, wenn die eigentliche Messung gegen das vermittelnde Objekt im Endeffekt berührungslos erfolgt. Berührungslose Weg- und Winkelaufnehmer können ohne einen solchen Vermittler direkt gegen das zu vermessende Objekt messen.
The progress in machine learning has led to advanced deep neural networks. These networks are widely used in computer vision tasks and safety-critical applications. The automotive industry, in particular, has experienced a significant transformation with the integration of deep learning techniques and neural networks. This integration contributes to the realization of autonomous driving systems. Object detection is a crucial element in autonomous driving. It contributes to vehicular safety and operational efficiency. This technology allows vehicles to perceive and identify their surroundings. It detects objects like pedestrians, vehicles, road signs, and obstacles. Object detection has evolved from being a conceptual necessity to an integral part of advanced driver assistance systems (ADAS) and the foundation of autonomous driving technologies. These advancements enable vehicles to make real-time decisions based on their understanding of the environment, improving safety and driving experiences. However, the increasing reliance on deep neural networks for object detection and autonomous driving has brought attention to potential vulnerabilities within these systems. Recent research has highlighted the susceptibility of these systems to adversarial attacks. Adversarial attacks are well-designed inputs that exploit weaknesses in the deep learning models underlying object detection. Successful attacks can cause misclassifications and critical errors, posing a significant threat to the functionality and safety of autonomous vehicles. With the rapid development of object detection systems, the vulnerability to adversarial attacks has become a major concern. These attacks manipulate inputs to deceive the target system, significantly compromising the reliability and safety of autonomous vehicles. In this study, we focus on analyzing adversarial attacks on state-of-the-art object detection models. We create adversarial examples to test the models’ robustness. We also check if the attacks work on a different object detection model meant for similar tasks. Additionally, we extensively evaluate recent defense mechanisms to see how effective they are in protecting deep neural networks (DNNs) from adversarial attacks and provide a comprehensive overview of the most commonly used defense strategies against adversarial attacks, highlighting how they can be implemented practically in real-world situations.
In Deutschland wird zur Bewertung von KWK-Anlagen die Stromgutschriftmethode angewendet. Dies ist die Standardmethode dieses Arbeitsblattes und der DIN V 18599-1. Die vorliegende Fassung der FW 309-1 ist wie seine früheren Fassungen als Anwendungs- und Auslegungshilfe zu den geltenden Normen und Gesetzen konzipiert, da diese Dokumente Regelungslücken aufweisen. Das Bilanzierungsprinzip, die meisten Primärenergiefaktoren und die KWK-Bewertungsmethode wurden beibehalten.
Änderung gegenüber der Fassung 2021:
Anhang A, Tabelle A.3: In der Neufassung des Gebäudeenergiegesetzes ab dem 1.1.2023 wird ein neuer Primärenergiefaktor für netzbezogenen Strom von 1,2 für Großwärmepumpen festgelegt. Diese Festlegung wird in dieses Dokument übernommen.
This study investigates the impact of global payroll outsourcing on organizational efficiency and cost reduction based on the analysis of diverse implications stemming from thirty one (31) survey results. The findings reveal multifaceted challenges and benefitsassociated with outsourcing global payroll processing.
The research also unveils the most benefits of global payroll outsourcing. Notably, there's a consensus on the reduction in time-to-process payroll, cost per payroll processed, and improved payroll accuracy rate. Outsourcing streamlines processes, enhances operational efficiency, and contributes to faster, more accurate financial reporting.
Despite these benefits and challenges, statistical analysis reveals weak correlations between outsourcing global payroll and cost reduction or improved efficiency in various parameters, indicating a lack of a significant relationship. Consequently, the results, suggest no substantial correlation between global payroll outsourcing and enhanced efficiency or cost reduction based on this study's data.
KI-gestützte Cyberangriffe
(2023)
Die Fortschritte im Bereich der künstlichen Intelligenz (KI) und des Deep Learning haben in den letzten Jahren enorme Fortschritte gemacht. Insbesondere Technologien wie Large Language Models (LLMs) machen KI-Technologie innerhalb kurzer Zeit zugänglich für die Allgemeinheit. Die Generierung von Text, Bild und Sprache durch künstliche Intelligenz erzielt innerhalb kurzer Zeit gute Ergebnisse. Parallel zu dieser Entwicklung hat die Cyberkriminalität in den vergangenen Jahren im Bereich der KI zugenommen. Cyberangriffe verursachen im Zuge der Digitalisierung größeren Schaden und Angriffe entwickeln sich kontinuierlich weiter, um bestehende Schutzmaßnahmen zu umgehen.
Diese Arbeit bietet eine Einführung in das Themengebiet KI-gestützte Cyberangriffe. Sie präsentiert aktuelle KI-gestützte Cyberangriffsmodelle und analysiert, inwiefern diese für Anfänger*innen in der Cyberkriminalität zugänglich sind.
Das Softwareunternehmen HRworks implementiert eine Personalverwaltungssoftware unter Verwendung der Programmiersprache Smalltalk und des Model-View-Controller (MVC) Musters. Innerhalb des Unternehmens erfordert jede Model-Klasse des Patterns das Vorhandensein einer korrespondierenden Controllerklasse. Controller verfügen über ein wiederkehrendes Grundgerüst, das bei jeder neuen Implementierung umgesetzt werden muss. Die Unterscheidungen innerhalb dieses Grundgerüsts ergeben sich lediglich aus dem Namen und der spezifischen Struktur der korrespondierenden Model-Klasse. Die vorliegende Arbeit adressiert die Herausforderung der automatischen Generierung dieses Controllergrundgerüsts, wobei die Besonderheiten jeder Model-Klasse berücksichtigt wird. Dies wird durch den gezielten Einsatz von Metaprogrammierung in der Programmiersprache Smalltalk realisiert und durch eine Benutzeroberfläche in der Entwicklungsumgebung unterstützt. Zusätzlich wird der Controller um eine Datentypprüfung erweitert, wofür ein spezialisierter Parser implementiert wurde. Dieser extrahiert aus einem definierten Getter der Model-Klasse den entsprechenden Datentyp des Attributes. Im Ergebnis liefert die Arbeit eine Methodik zur automatisierten Generierung und Anpassung von Controllergrundgerüsten sowie dazugehörigen Teststrukturen basierend auf der jeweiligen Model-Klasse. Zusätzlich wird die Funktionalität der Controller durch eine integrierte Datentypprüfung erweitert.
Diese Arbeit befasst sich mit der Entwicklung eines umfassenden Konzepts zur Umsetzung des Lieferkettensorgfaltspflichtengesetzes (LkSG), welches ab dem 01.01.2024 für Unternehmen mit mehr als 1.000 Beschäftigten in Kraft tritt.
Die Bachelorarbeit ist in zwei Teile aufgebaut: zum einen den Theorieteil, der die Lieferkette in einem Verkehrsunternehmen und das Lieferkettensorgfaltspflichtengesetz umfasst, um eine Wissensbasis zu schaffen und zum anderen den Hauptteil, bestehend aus der Konzeptionierung. Da das Gesetz bereits im Jahr 2023 für große Unternehmen mit mehr als 3.000 Beschäftigten in Kraft trat, stehen bereits zahlreiche Systeme zur Unterstützung der Umsetzung zur Verfügung. Im Verlauf der Arbeit wurde eine Marktrecherche durchgeführt, bei der die geeignetste Softwarelösung für SWEG identifiziert wird. Um diese Untersuchung effektiv durchzuführen, wurden zwei Softwareauswahl-Tools entwickelt, die bei der Analyse und Bewertung helfen. Zusätzlich zum Software-Lösungsansatz wurde ein alternativer Lösungsansatz erarbeitet, der die eigenständige Handlung im Unternehmen vorsieht. Diese beiden Lösungsansätze werden zum Schluss verglichen, um die Geschäftsführung bei der Entscheidung, welche Version sie schließlich verwenden möchte, zu unterstützen.
Das erarbeitete Konzept bildet auch die Grundlage für die zukünftige Entwicklung und Umsetzung von Gesetzen und Richtlinien im Bereich Menschenrechte und Umweltaspekte. Für die Zukunft werden weitere Gesetze in Kraft treten, beispielsweise die kommende EU-Richtlinie.
Die Bachelorarbeit „Forensic Chain – Verwaltung digitaler Spuren in Deutschland“ untersucht die Anwendung eines Blockchain-basierten Chain of Custody Systems im deutschen rechtlichen und regulatorischen Kontext. Die digitale Forensik, die sich mit der Sicherung und Analyse digitaler Spuren befasst, gewinnt an Bedeutung, da kriminelle Aktivitäten vermehrt im digitalen Raum stattfinden. Die Blockchain-Technologie bietet transparente und unveränderliche Aufzeichnungen, die sich für die Speicherung von Informationen im Zusammenhang mit digitalen Beweismitteln eignen. Das Hautpziel der Arbeit besteht darin, die Umsetzung eines Chain of Custody Prozesses im Forensic Chain System zu untersuchen und die Eignung dieses Systems im deutschen Raum zu bewerten. Hierfür wird ein Prototyp des Forensic Chain Systems entwickelt, um das erstellte Konzept zu testen. Die Ergebnisse tragen zum Verständnis der Wichtigkeit der digitalen Forensik in Deutschland bei und bieten Einblicke in die Einführung von Blockchain-basierten Chain of Custody-Systemen in diesem Bereich. Sie leisten einen Beitrag zur Weiterentwicklung der digitalen Forensik.
Previous studies of the hyphenation of gas chromatographic separation and spectrophotometric detection in the ultraviolet wavelength range between 168 and 330 nm showed a high potential for applications where the analysis of complex samples is required. Within this paper the development of a state-of-the-art detection system for compounds in the vapour phase is described, offering an improved behaviour compared to previous systems: Dependent on the requirements of established detection systems hyphenated with gas chromatography, the main components of the system have to be designed for optimum performance and reliability of the spectrophotometric detector: A deuterium lamp as a broadband light source has been selected for improved stability in the measurements. A new-type absorption cell based on fiber-optics has been developed considering the dynamic necessary to compete with existing techniques. In addition, the influence of the volume of the cell on the chromatogram needs to be analyzed. Tests for determining the performance of the absorption cell in terms of chemical and thermal influences have been carried out. A new spectrophotometer with adequate spectral resolution in the wavelength range, offering improved stability and dynamic for an efficient use in this application was developed. Furthermore, the influence of each component on the performance, reliability and stability of the sensor system will be discussed. An overview and outlook over the potential applications in the environmental, scientific and medical field will be given.
Bluetooth personal area networks (PANs) share the 2.4 GHz ISM spectrum with the IEEE 802.11b wireless local area networks (WLANs). With the popularity of wireless devices, this ISM spectrum is becoming more and more crowded. As a result of this interference between WLANs and PANs, the performance of each network is decreased. Current research has not significantly covered the degrading impact of an 802.11b interferer on Bluetooth voice transmission. Within this project, simulations were carried out to precisely study the impact of an 802.11b interferer on the performance of Bluetooth voice transmission at different ratio levels of Bluetooth power to WLAN power at the receiver side. Furthermore, the impact of SNR on the Bluetooth voice performance and the benefit of using the SCORT packet type was analysed as well. Based on the results presented, network performance can be evaluated at the desired activity level.
In thin-layer chromatography, fiber-bundle arrays have been introduced for spectral absorption measurements in the UV-region. Using all-silica fiber bundles, the exciting light will be detected after re-emission on the plate with a fiberoptic spectrometer. In addition, fluorescence light can be detected which will be masked by the re-emitted light. Therefore, it is helpful to separate the absorption and fluorescence on the TLC-plate. A modified three-array assembly has been developed: using one array for detection, the two others are used for excitation with broadband band deuterium-light and with UV-LEDs adjusted to the substances under test. As an example, the quantification of glucosamine in nutritional supplements or spinach leaf extract will be described. Using simply heating of the amino-plate for derivation, the reaction product of Glucosamine can be detected sensitively either by light absorption or by fluorescence, using the new fiber-optic assembly. In addition, the properties of the new 3-row fiber-optic array and the commercially available UV-LEDs will be shown, in the interesting wavelength region for excitation of fluorescence, from 260 nm to 360 nm. The squint angle having an influence on coupling efficiency and spatial resolution will be measured with the inverse farfield method. Some properties of UV-LEDs for analytical applications will be described and discussed, too.
Most E-Learning projects tend to separate learning activities from everyday work. This paper presents an approach where closer integration between learning and work is achieved by integrating multimedia services into manufacturing processes. The goal of E-Learning services integration in manufacturing is, through the development of new multimedia solutions, to accelerate and enhance the ability of manufacturing industry to capitalise on the emergence of a powerful global information infrastructure. In this paper we suggest to combine the areas of media streaming services and manufacturing processes, by providing electronic learning offerings as collections of media streaming services. The key components of our approach are 1) an xml based streaming service specification language, 2) automated configuration of distributed E-Learning streaming applications, 3) web services for searching, registration, and creation of E-Learning streaming services.
Integrating voice / video communication into business processes can accelerate resolution time, reduce mistakes, and establish a full audit-trail of the interactions. Some VoIP service providers offer website based or plugin based solutions, which are, however, difficult to integrate with other applications. A promising approach to overcome these disadvantages is the development of appropriate Web Services to allow applications interacting with a VoIP system. We propose a generic framework for VoIP applications consisting of an XML-based service specification language and a set of reusable Web Service components. Service providers using the proposed service-oriented architecture can offer to their customers a protocol-neutral Web Service interface, thus enabling the deployment of a general and integrated VoIP solution.
In this paper we suggest to combine the areas of media streaming services, mobile devices, and manufacturing processes to support monitoring, controlling and supervising production processes in order to achieve high levels of efficiency and environmentally friendly production. It contains a comprehensive and detailed explanation of the proposed E-Learning streaming framework, especially the adaption of streaming services to mobile environments. The key components of our approach are 1) an XML-based streaming service specification language, 2) adaption of multimedia E-Learning services to mobile environments, and 3) a media delivery platform for searching, registration, and creation of streaming services for mobile devices.
The need of suitable system of records in gaining ground as companies seek to maximize performance by harnessing the knowledge of their businesses, is discussed. Focused systems of record deliver a clear and consistent view even as they address a range of functions. Enterprise resource planning (ERP), as the financial system of record, embodies that view of manufacturing, inventory management, accounting and order processing. Customer relationship management (CRM), as a system of record, taps not only into the marketing and sales and service, but also into product development.
The central purpose of this paper is to present a novel framework supporting the specification and the implementation of media streaming services using XML and Java Media Framework (JMF). It provides an integrated service development environment comprising of a streaming service model, a service specification language and several implementation and retrieval tools. Our approach is based on a clear separation of a streaming service specification, and its implementation by a distributed JMF application and can be used for different streaming paradigms, e.g. push and pull services.
This paper presents an approach where closer integration between learning and work is achieved by integrating multimedia services into manufacturing processes. The goal of E-Learning services integration in manufacturing processes is, through the development of new multimedia services, to accelerate and enhance the ability of manufacturing industry to capitalise on the emergence of a powerful global information infrastructure. In this paper we suggest to combine the areas of media streaming services and manufacturing processes, by providing electronic learning offerings as collections of media streaming services. The key components of our approach are 1) an xml based streaming service specification language, 2) automated configuration of distributed E-Learning streaming applications, 3) Web Services for searching, registration, and creation of E-Learning streaming services.
We propose a new streaming media service development environment comprising of a streaming media service model, a XML based service specification language and several implementation and configuration management tools. In our project, the described approach is used for integration of streaming based eLearning services in manufacturing processes of a subcontractor to the automotive industry. The key components of our approach are 1) an xml based streaming service specification language, 2) a set of web services for searching, registration, and creation of streaming services, 3) caching and replication policies based on timing information derived from the service specifications.
The goal of eLearning services integration in manufacturing is, through the development of new multimedia solutions, to accelerate and enhance the ability of the manufacturing industry to capitalise on the emergence of a powerful global information infrastructure. The key components of our approach are: (1) an XML based streaming service specification language; (2) automatic configuration of distributed eLearning streaming service implementations; (3) a set of Web services for searching, registration, and creation of streaming services; (4) caching and replication policies based on timing information derived from the service specifications. We also introduce a new concept for cache management during runtime, e.g., content is distributed to cache servers located at the edge of a network close to the client.
The central purpose of this paper is to present a novel framework supporting the specification, the implementation and retrieval of media streaming services. It provides an integrated service development environment comprising of a streaming service model, a service specification language and several implementation and retrieval tools. Our approach is based on a clear separation of a streaming service specification, and its implementation by a distributed application and can be used for different streaming paradigms, e.g. push and pull services.
This paper treats the Brillouin backscattering in a single mode optical fiber and its implications on the Brillouin Ring Laser Gyroscope (BRLG). The BRLG consists of a fiber ring cavity in which stimulated Brillouin scattering is induced and provides two resonant counterpropagating backscattered waves. If this cavity is rotating around its axis, the backscattered waves get different resonant frequencies because of the Sagnac effect. The frequency difference is proportional to the rotation rate (Omega) by inducing a frequency offset between the counterpropagating waves. Some reported Brillouin spectra exhibit several peaks, which means that one pump wave provides at least two backscattered waves with distinguishable frequencies. In order to understand this multi-backscattering and to take advantage of it for the BRLG, we present results of a simulation of the Brillouin backscattering in a single mode optical fiber.
The prototype of an optical gyro encoder (OGE) has been successfully tested on the NTT telescope in September '93. The OGE consists of a ring laser gyro and a fiber optic gyro with their input axis parallel. The gyro outptu signals are compensated for earth rotation and misalignment and are subsequently integrated to get the angles. An adaptive digital control loop locks the fiber optic gyro to the laser gyro data. Thus the combined output has the precision of the laser gyro and the low noise of the fiber optic gyro. Specifically, the bias stability is better than 2 X 10-3 deg/h, the scale factor accuracy better than 1 ppm, the random walk coefficient better than 5 X 10-4 deg/(root)h and the resolution better than 3 X 10-4 arcsec. The OGE has been mounted in the altitude and in the azimuthy axis of the telescope. The data were compared with the telescope disk encoder data. The test data show that the pointing accuracy is about 1 arcsec and the tracking accuracy 0.1 arcsec over a time of 30 seconds. This accuracy is sufficient for the very large telescope, for instance.
An investigation is underway regarding the usefulness of altazimuth-mounting telescopes' incorporation of laser gyros for pointing and fiber gyros with extremely small random-walk coefficient for telescope inertial stabilization during tracking. A star tracker is expected to help stabilize long-term gyro bias. Gyro and telescope specifications have been derived by means of computer simulations and systems analyses.
Der True-Crime-Podcast erfreut sich in Deutschland einer großen Hörerschaft, die ganz unterschiedliche Nutzungsmotivationen mitbringt. Die Faszination für wahre Kriminalfälle kommt nicht von ungefähr – das Phänomen, welches dieser zugrunde liegt, ist die Morbid Curiosity. Da bislang noch nicht allzu viel Forschung in diesem Gebiet betrieben wurde, gibt diese Arbeit durch einen Vergleich verschiedener Untersuchungen Aufschluss darüber, wo diese Neugier für morbide Ereignisse herkommt. Gleichzeitig soll ein Überblick über das Genre True Crime und das Medium Podcast gegeben werden. Das Ziel ist es, eine Verbindung zwischen dem Phänomen Morbid Curiosity und dem Format True-Crime-Podcast herzustellen. Die Forschungsfrage lautet: Welche Rolle spielt Morbid Curiosity bei der Nutzungsmotivation der Konsumenten von True-Crime-Podcasts? Die Ergebnisse zeigen, dass Frauen andere Nutzungsmotivationen mitbringen als Männer und gleichzeitig die primären Konsumentinnen sind. Die Neugier für morbide Ereignisse spielt dabei durchaus eine Rolle, wenn auch scheinbar eine untergeordnete. Es werden Ansätze für weitere Forschung gegeben.
Digitalisierung ist heute allgegenwärtig. Wo im Privaten bereitwillig neue digitale Tools, Apps und Funktionen genutzt werden, tun sich Unternehmen in der Umsetzung von Digitalisierungsprojekten oft schwer. Dieser Beitrag beleuchtet die Motive für Digitalisierungsvorhaben, ihre Hürden sowie die Auswirkung auf die Arbeitsbelastung von Mitarbeitenden und versucht in der Verknüpfung mit den Grundprinzipien des Kontinuierlichen Verbesserungsprozesses, Handlungsempfehlungen für eine erfolgreiche Umsetzung dieser abzuleiten.
Das Zeitalter der Digitalisierung ist geprägt durch einen erhöhten Wettbewerb. Eine Chance, bei steigendem Wettbewerb erfolgreich zu bestehen, liegt daher nur in der durchgängigen Digitalisierung von Produktionsunternehmen. Dieser Beitrag stellt eine dreistufige generische Unternehmensmodellplattform Industrie 4.0 vor, die die Durchgängigkeit von Prozessen vom Kunden bis zum Lieferanten auf allen Unternehmensebenen in den Mittelpunkt stellt. Die Schritte zur Bewertung und Gestaltung des Fortschritts auf dem Weg zum digitalisierten Produktionsunternehmen werden aufgezeigt.
Die fortschreitende Digitalisierung der Schulen macht es möglich, die Lerndaten der Schülerinnen und Schüler in einer zentralen Cloud zu speichern. Die Befürworter versprechen sich davon eine bessere individuelle Förderung und fordern eine bundesweite Lösung, um möglichst viele Daten auswerten zu können. Die Gegner befürchten eine automatisierte Steuerung des Lernens.
Social-Media-Content - Auswirkungen auf Fear of Missing Out und den Selbstwert junger Nutzer*innen
(2023)
Social-Media-Marketing ist ein wichtiger Baustein einer erfolgreichen Content-Strategie. Insbesondere jüngere Zielgruppen sind auf Social Media anzutreffen – und das oftmals über viele Stunden täglich. Neben den Vorteilen, die Social Media den Nutzer*innen bietet, gibt es aber auch Schattenseiten. Zwei negative Aspekte, die sogenannte Fear of Missing Out und ein verminderter Selbstwert, wurden im Frühjahr 2022 in einer empirischen Befragung von 1338 Personen zwischen 14 und 30 Jahren untersucht. Daneben wurden auch Daten zum grundsätzlichen Social-Media-Nutzungsverhalten erhoben. Die zentralen Erkenntnisse, die sich aus der Studie ableiten, werden in diesem Kapitel vorgestellt und mit Bezug auf ihre Relevanz für das Content-Marketing hin eingeordnet.
Die Verwendung von markenbezogenen nutzer-generierten Inhalten auf den unternehmenseigenen Social-Media-Kanälen ist ein äußerst vielversprechender Ansatz im Content-Marketing. Dabei können durch die authentischen, vom Nutzer bereitgestellten Inhalte zahlreiche Kommunikationsziele erreicht werden. Hierzu gehören etwa die Verstärkung des Nutzerengagements oder aber auch die Förderung von Verkäufen. Daneben müssen allerdings auch Risiken, wie etwa rechtliche Aspekte, beachtet werden. Damit Unternehmen die Potentiale von markenbezogenen nutzer-generierten Inhalten für sich nutzen können, wird im nachstehenden Beitrag ein Strukturierungsrahmen vorgestellt. Dieser fasst die wesentlichen Aspekte dieser durchaus komplexen Thematik strukturiert zusammen. Der hier entwickelte Strukturierungsrahmen wurde durch Experteninterviews überprüft.
In diesem Beitrag werden die psychologischen Hintergründe und Wirkungsweisen des Content-Marketing betrachtet. Nach einer kurzen Einführung in die Thematik wird zuerst das für das weitere Verständnis notwendige psychologische Basiswissen vermittelt. Darauf bezugnehmend wird die allgemeine Wirkungsweise von Content-Marketing beleuchtet. Die Sichtweise wird dann für die letzten beiden Kapitel umgedreht und die beschriebenen psychologischen Faktoren dazu genutzt, um Anwender bei der Wahl der Content-Marketing-Inhalte und zuletzt bei der konkreten Ausgestaltung zu unterstützen.
Die meisten Effekte, die durch Content-Marketing hervorgerufen werden, funktionieren im B2C- oder B2B-Bereich durch das Ansprechen von Bedürfnissen, Interessen und Emotionen sowie die recht freien Entscheidungsmöglichkeiten der Adressaten. Im B2B‑Bereich werden ebenfalls Menschen mit Bedürfnissen, Interessen und Emotionen angesprochen, jedoch vorrangig beruflicher Natur, sodass in der Ausgestaltung geringfügige Unterschiede gemacht werden müssen.
Verfassen guter Texte
(2023)
Wer Texte für seinen Internetauftritt schreibt, möchte, dass diese auch gelesen werden. Doch Lesende sind ungeduldig, insbesondere am Monitor. Fasziniert man sie nicht in den ersten Sekunden, springen sie ab. Erfahren Sie hier, welche stilistischen Regeln Journalistinnen und Journalisten nutzen, um die Aufmerksamkeit ihrer Leser- oder Hörerschaft zu gewinnen und Texte mit wenig Aufwand zu perfektionieren. Ein paar Besonderheiten gelten auch für den Aufbau. Ein Schwerpunkt des Kapitels liegt auf dem Teaser, den ersten Zeilen, die in den Text locken sollen, sowie der Headline. Häufig ist es jedoch nicht der Text, der die Aufmerksamkeit der User fesselt, sondern ein Foto, idealerweise mit einer informativen Bildunterschrift. Zahlreiche Beispiele aus dem journalistischen Alltag machen das Beschriebene anschaulich. Als Zugabe informiert die Autorin Sie über die Bedeutung des Nutzwerts und attraktive Anlässe für eine Veröffentlichung.
Vor dem Hintergrund einer zunehmenden Informations- und Reizüberlastung der Konsumenten werden aus Unternehmenssicht zielgruppenadäquate Inhalte, insbesondere zur Erreichung von kommunikationspolitischen Zielsetzungen, immer wichtiger. Um diese zu gewährleisten, bedarf es einer sinnvollen Planung, Produktion und Distribution von Inhalten. Der vorliegende Beitrag gibt einen Überblick über einen solchen Prozess und veranschaulicht die notwendigen Schritte für ein erfolgreiches Content-Marketing.
Content-Marketing
(2023)
Content-Marketing, also die Planung, Produktion und Distribution von zielgruppen-adäquaten Inhalten, hat insbesondere durch Social Media nochmals an Bedeutung gewonnen. Im Hinblick auf die enorme Menge an Inhalten, die auf Nutzer konstant einwirken, ist es für Unternehmen immer schwieriger, die Aufmerksamkeit der Nutzer zu gewinnen. Nur Inhalte, die den Wünschen der Nutzer entsprechen und diesen in irgendeiner Form einen Mehrwert bieten, haben die Chance, zur Erfüllung von Kommunikationszielen von Unternehmen beizutragen. Die Bereitstellung derartiger Inhalte setzt einen sinnvollen (Planungs-)Prozess voraus. Das vorliegende Buch bietet Praktikern und Studierenden einen Überblick über die verschiedenen Bereiche eines Content-Marketing.
Virtual-Reality
(2023)
Die Virtual-Reality (VR) Technologie ermöglicht Unternehmen eine Produktpräsentation, die weit über traditionelle Darstellungsmethoden hinausgeht. Obgleich die Integration der VR-Technologie für Unternehmen viele Chancen eröffnet, ist deren Einsatz auch mit Risiken verbunden. Insbesondere der Mangel an empirisch gesicherten Erkenntnissen zur Kundenakzeptanz, zu den Auswirkungen der Nutzung sowie zu Kannibalisierungseffekten ist ein wesentlicher Grund, der die Verbreitung von VR in der Kundenkommunikation noch hemmt. Das Buch adressiert diese Forschungslücken und identifiziert mittels eines nutzerzentrierten, quantitativen Forschungsdesigns konkrete Chancen und Risiken, die mit dem Einsatz von VR-Produktpräsentationen verbunden sind.
Learning programming fundamentals is considered as one of the most challenging and complex learning activities. Some authors have proposed visual programming language (VPL) approaches to address part of the inherent complexity [1]. A visual programming language lets users develop programs by combining program elements, like loops graphically rather than by specifying them textually. Visual expressions, spatial arrangements of text and graphic symbols are used either as syntax elements or secondary notation. VPLs are normally used for educational multimedia, video games, system development, and data warehousing/business analytics purposes. For example, Scratch, a platform of Massachusetts Institute of Technology, is designed for kids and after school programs.
Design of mobile software applications is considered as one of the most challenging application domains due to the build in sensors as part of a mobile device, like GPS, camera or Near Field Communication (NFC). Sensors enable creation of context-aware mobile applications in which applications can discover and take advantage of contextual information, such as user location, nearby people and objects, and the current user activity. As a consequence, context-aware mobile applications can sense clues about the situational environment making mobile devices more intelligent, adaptive, and personalized. Such context aware mobile applications seem to be motivating and attractive case studies, especially for programming beginners (“my own first app”).
In this work, we introduce a use-case centered approach as well as clear separation of user interface design and sensor-based program development. We provide an in-depth discussion of a new VPL based teaching method, a step by step development process to enable programming beginners the creation of context aware mobile applications. Finally, we argue that addressing challenges for programming beginners by our teaching approach could make programming teaching more motivating, with an additional impact on the final software quality and scalability.
The key contributions of our study are the following:
- An overview of existing attempts to use VPL approaches for mobile applications
- A use case centered teaching approach based on a clear separation of user interface design and sensor-based program development
- A teaching case study enabling beginners a step by step creation of context-aware mobile applications based on the MIT App Inventor (a platform of Massachusetts Institute of Technology)
- Open research challenges and perspectives for further development of our teaching approach
References:
[1] Idrees, M., Aslam, F. (2022). A Comprehensive Survey and Analysis of Diverse Visual Programming Languages, VFAST Transactions on Software Engineering, 2022, Volume 10, Number 2, pp 47-60.
TRIZ Innovationstechnologie
(2023)
The technique of laser ultrasonics perfectly meets the need for noncontact, noninvasive, nondestructive mechanical probing of nanometer- to millimeter-size samples. However, this technique is limited to the excitation of low-amplitude strains, below the threshold for optical damage of the sample. In the context of strain engineering of materials, alternative optical techniques enabling the excitation of high-amplitude strains in a nondestructive optical regime are needed. We introduce here a nondestructive method for laser-shock wave generation based on additive superposition of multiple laser-excited strain waves. This technique enables strain generation up to mechanical failure of a sample at pump laser fluences below optical ablation or melting thresholds. We demonstrate the ability to generate nonlinear surface acoustic waves (SAWs) in Nb-SrTiO3 substrates, with associated strains in the percent range and pressures up to 3 GPa at 1 kHz repetition rate and close to 10 GPa for several hundred shocks. This study paves the way for the investigation of a host of high-strain SAW-induced phenomena, including phase transitions in conventional and quantum materials, plasticity and a myriad of material failure modes, chemistry and other effects in bulk samples, thin layers, and two-dimensional materials.
Purpose
Although start-ups have gained increasing scholarly attention, we lack sufficient understanding of their entrepreneurial strategic posture (ESP) in emerging economies. The purpose of this study is to examine the processes of ESP of new technology venture start-ups (NTVs) in an emerging market context.
Design/methodology/approach
In line with grounded theory guidelines and the inductive research traditions, the authors adopted a qualitative approach involving 42 in-depth semi-structured interviews with Ghanaian NTV entrepreneurs to gain a comprehensive analysis at the micro-level on the entrepreneurs' strategic posturing. A systematic procedure for data analysis was adopted.
Findings
From the authors' analysis of Ghanaian NTVs, the authors derived a three-stage model to elucidate the nature and process of ESP Phase 1 spotting and exploiting market opportunities, Phase II identifying initial advantages and Phase III ascertaining and responding to change.
Originality/value
The study contributes to advancing research on ESP by explicating the process through which informal ties and networks are utilised by NTVs and NTVs' founders to overcome extreme resource constraints and information vacuums in contexts of institutional voids. The authors depart from past studies in demonstrating how such ties can be harnessed in spotting and exploiting market opportunities by NTVs. On this basis, the paper makes original contributions to ESP theory and practice.
Purpose
Although recent literature has examined diverse measures adopted by SMEs to navigate the COVID-19 turbulence, there is a shortage of evidence on how crisis-time strategy creation behaviour and digitalization activities increase (1) sales and (2) cash flow. Thus, predicated on a novel strategy creation perspective, this inquiry aims to investigate the crisis behaviour, sales and cash flow performance of 528 SMEs in Morocco.
Design/methodology/approach
Novel links between (1) aggregate wage cuts, (2) variable operating hours, (3) deferred payment to suppliers, (4) deferred payment to tax authorities and (5) sales performance are developed and tested. A further link between sales performance and cash flow is also examined and the analysis is conducted using a non-linear structural equation modelling technique.
Findings
While there is a significant association between strategy creation behaviours and sales performance, only variable operating hours have a positive effect. Also, sales performance increases cash flow and this relationship is substantially strengthened by e-commerce digitalization and innovation.
Originality/value
Theoretically, to the best of the authors’ knowledge, this is one of the first inquiries to espouse the strategy creation view to explain SMEs' crisis-time behaviour and digitalization. For practical purposes, to supplement Moroccan SMEs' propensity to seek tax deferrals, it is argued that debt and equity support measures are also needed to boost sales performance and cash flow.
In the past ten years, applications of artificial neural networks have changed dramatically. outperforming earlier predictions in domains like robotics, computer vision, natural language processing, healthcare, and finance. Future research and advancements in CNN architectures, Algorithms and applications are expected to revolutionize various industries and daily life further. Our task is to find current products that resemble the given product image and description. Deep learning-based automatic product identification is a multi-step process that starts with data collection and continues with model training, deployment, and continuous improvement. The caliber and variety of the dataset, the design selected, and ongoing testing and improvement all affect the model's effectiveness. We achieved 81.47% training accuracy and 72.43% validation accuracy for our combined text and image classification model. Additionally, we have discussed the outcomes from the other dataset and numerous methods for creating an appropriate model.
An international study summarizes the threat situation in the OT environment under the heading "Growing security threats" [1]. According to this study, attacks on automation systems are likely to increase in the future. Accordingly, an automation system must be able to protect the integrity of the transmitted information in the future. This requirement is motivated, among other things, by the fact that the network-side isolation of industrial communication systems is no longer considered sufficient as the sole protective measure. This paper uses the example of PROFINET to show how the future requirements for a real-time communication protocol can be met and how they can be derived from the IEC 62443 standard.
Polyarticulated active prostheses constitute a promising solution for upper limb amputees. The bottleneck for their adoption though, is the lack of intuitive control. In this context, machine learning algorithms based on pattern recognition from electromyographic (EMG) signals represent a great opportunity for naturally operating prosthetic devices, but their performance is strongly affected by the selection of input features. In this study, we investigated different combinations of 13 EMG-derived features obtained from EMG signals of healthy individuals performing upper limb movements and tested their performance for movement classification using an Artificial Neural Network. We found that input data (i.e., the set of input features) can be reduced by more than 50% without any loss in accuracy, while diminishing the computing time required to train the classifier. Our results indicate that input features must be properly selected in order to optimize prosthetic control.
The main focus of this chapter is the theoretical and instrumental processes that underpin densitometric methods widely used in thin-layer chromatography (TLC). Densitometric methods include UV–vis, luminescence and fluorescence optical measurements as well as infrared and Raman spectroscopic measurements. The chapter is divided in two general parts: a theoretical part and a practical part. The systems for direct radioactivity measurements and the combination of TLC with mass spectrometry are also discussed. All these systems allow measuring an intensity distribution directly on a TLC plate. We call this “in situ detection” because no analyte is removed from the plate.
The main focus of this chapter is the theoretical and instrumental processes that underpin densitometric methods widely used in thin-layer chromatography (TLC). Densitometric methods include UV–vis, luminescence, and fluorescence optical measurements as well as infrared and Raman spectroscopic measurements. The chapter is divided in two general parts: a theoretical part and a practical part. The systems for direct radioactivity measurements and the combination of TLC with mass spectrometry are also discussed. All these systems allow measuring an intensity distribution directly on a TLC plate. We call this “in situ detection” because no analyte is removed from the plate.
Analysing and predicting the advance rate of a tunnel boring machine (TBM) in hard rock is integral to tunnelling project planning and execution. It has been applied in the industry for several decades with varying success. Most prediction models are based on or designed for large-diameter TBMs, and much research has been conducted on related tunnelling projects. However, only a few models incorporate information from projects with an outer diameter smaller than 5 m and no penetration prediction model for pipe jacking machines exists to date. In contrast to large TBMs, small-diameter TBMs and their projects have been considered little in research. In general, they are characterised by distinctive features, including insufficient geotechnical information, sometimes rather short drive lengths, special machine designs and partially concurring lining methods like pipe jacking and segment lining. A database which covers most of the parameters mentioned above has been compiled to investigate the performance of small-diameter TBMs in hard rock. In order to provide sufficient geological and technical variance, this database contains 37 projects with 70 geotechnically homogeneous areas. Besides the technical parameters, important geotechnical data like lithological information, unconfined compressive strength, tensile strength and point load index is included and evaluated. The analysis shows that segment lining TBMs have considerably higher penetration rates in similar geological and technical settings mostly due to their design parameters. Different methodologies for predicting TBM penetration, including state-of-the-art models from the literature as well as newly derived regression and machine learning models, are discussed and deployed for backward modelling of the projects contained in the database. New ranges of application for small-diameter tunnelling in several industry-standard penetration models are presented, and new approaches for the penetration prediction of pipe jacking machines in hard rock are proposed.
Differentiation between human and non-human objects can increase efficiency of human-robot collaborative applications. This paper proposes to use convolutional neural networks for classifying objects in robotic applications. The body temperature of human beings is used to classify humans and to estimate the distance to the sensor. Using image classification with convolutional neural networks it is possible to detect humans in the surroundings of a robot up to five meters distance with low-cost and low-weight thermal cameras. Using transfer learning technique we trained the GoogLeNet and MobilenetV2. Results show accuracies of 99.48 % and 99.06 % respectively.
Detecting Images Generated by Deep Diffusion Models using their Local Intrinsic Dimensionality
(2023)
Diffusion models recently have been successfully applied for the visual synthesis of strikingly realistic appearing images. This raises strong concerns about their potential for malicious purposes. In this paper, we propose using the lightweight multi Local Intrinsic Dimensionality (multiLID), which has been originally developed in context of the detection of adversarial examples, for the automatic detection of synthetic images and the identification of the according generator networks. In contrast to many existing detection approaches, which often only work for GAN-generated images, the proposed method provides close to perfect detection results in many realistic use cases. Extensive experiments on known and newly created datasets demonstrate that the proposed multiLID approach exhibits superiority in diffusion detection and model identification.Since the empirical evaluations of recent publications on the detection of generated images are often mainly focused on the "LSUN-Bedroom" dataset, we further establish a comprehensive benchmark for the detection of diffusion-generated images, including samples from several diffusion models with different image sizes.The code for our experiments is provided at https://github.com/deepfake-study/deepfake-multiLID.
Following their success in visual recognition tasks, Vision Transformers(ViTs) are being increasingly employed for image restoration. As a few recent works claim that ViTs for image classification also have better robustness properties, we investigate whether the improved adversarial robustness of ViTs extends to image restoration. We consider the recently proposed Restormer model, as well as NAFNet and the "Baseline network" which are both simplified versions of a Restormer. We use Projected Gradient Descent (PGD) and CosPGD for our robustness evaluation. Our experiments are performed on real-world images from the GoPro dataset for image deblurring. Our analysis indicates that contrary to as advocated by ViTs in image classification works, these models are highly susceptible to adversarial attacks. We attempt to find an easy fix and improve their robustness through adversarial training. While this yields a significant increase in robustness for Restormer, results on other networks are less promising. Interestingly, we find that the design choices in NAFNet and Baselines, which were based on iid performance, and not on robust generalization, seem to be at odds with the model robustness.