Refine
Year of publication
- 2022 (433) (remove)
Document Type
- Conference Proceeding (106)
- Article (reviewed) (72)
- Bachelor Thesis (63)
- Part of a Book (63)
- Master's Thesis (27)
- Article (unreviewed) (23)
- Book (20)
- Other (20)
- Contribution to a Periodical (11)
- Working Paper (8)
Conference Type
- Konferenzartikel (87)
- Konferenz-Abstract (13)
- Konferenz-Poster (3)
- Sonstiges (3)
Keywords
- Digitalisierung (12)
- COVID-19 (10)
- injury (10)
- biomechanics (7)
- running (7)
- 3D printing (6)
- Machine Learning (6)
- Webentwicklung (6)
- Entrepreneurship (5)
- JavaScript (5)
Institute
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (138)
- Fakultät Medien (M) (ab 22.04.2021) (137)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (96)
- Fakultät Wirtschaft (W) (67)
- INES - Institut für nachhaltige Energiesysteme (34)
- POIM - Peter Osypka Institute of Medical Engineering (21)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (16)
- IMLA - Institute for Machine Learning and Analytics (14)
- ACI - Affective and Cognitive Institute (7)
- CRT - Campus Research & Transfer (4)
Open Access
- Closed (206)
- Open Access (150)
- Closed Access (77)
- Bronze (51)
- Diamond (34)
- Gold (23)
- Hybrid (15)
- Grün (7)
Generative machine learning models for creative purposes play an increasingly prominent role in the field of dance and technology. A particularly popular approach is the use of such models for generating synthetic motions. Such motions can either serve as source of ideation for choreographers or control an artificial dancer that acts as improvisation partner for human dancers. Several examples employ autoencoder-based deep-learning architectures that have been trained on motion capture recordings of human dancers. Synthetic motions are then generated by navigating the autoencoder's latent space. This paper proposes an alternative approach of using an autoencoder for creating synthetic motions. This approach controls the generation of synthetic motions on the level of the motion itself rather than its encoding. Two different methods are presented that follow this principle. Both methods are based on the interactive control of a single joint of an artificial dancer while the other joints remain under the control of the autoencoder. The first method combines the control of the orientation of a joint with iterative autoencoding. The second method combines the control of the target position of a joint with forward kinematics and the application of latent difference vectors. As illustrative example of an artistic application, this latter method is used for an artificial dancer that plays a digital instrument. The paper presents the implementation of these two methods and provides some preliminary results.
Privacy is the capacity to keep some things private despite their social repercussions. It relates to a person’s capacity to control the amount, time, and circumstances under which they disclose sensitive personal information, such as a person’s physiology, psychology, or intelligence. In the age of data exploitation, privacy has become even more crucial. Our privacy is now more threatened than it was 20 years ago, outside of science and technology, due to the way data and technology highly used. Both the kinds and amounts of information about us and the methods for tracking and identifying us have grown a lot in recent years. It is a known security concern that human and machine systems face privacy threats. There are various disagreements over privacy and security; every person and group has a unique perspective on how the two are related. Even though 79% of the study’s results showed that legal or compliance issues were more important, 53% of the survey team thought that privacy and security were two separate things. Data security and privacy are interconnected, despite their distinctions. Data security and data privacy are linked with each other; both are necessary for the other to exist. Data may be physically kept anywhere, on our computers or in the cloud, but only humans have authority over it. Machine learning has been used to solve the problem for our easy solution. We are linked to our data. Protect against attackers by protecting data, which also protects privacy. Attackers commonly utilize both mechanical systems and social engineering techniques to enter a target network. The vulnerability of this form of attack rests not only in the technology but also in the human users, making it extremely difficult to fight against. The best option to secure privacy is to combine humans and machines in the form of a Human Firewall and a Machine Firewall. A cryptographic route like Tor is a superior choice for discouraging attackers from trying to access our system and protecting the privacy of our data There is a case study of privacy and security issues in this thesis. The problems and different kinds of attacks on people and machines will then be briefly talked about. We will explain how Human Firewalls and machine learning on the Tor network protect our privacy from attacks such as social engineering and attacks on mechanical systems. As a real-world test, we will use genomic data to try out a privacy attack called the Membership Inference Attack (MIA). We’ll show Machine Firewall as a way to protect ourselves, and then we’ll use Differential Privacy (DP), which has already been done. We applied the method of Lasso and convolutional neural networks (CNN), which are both popular machine learning models, as the target models. Our findings demonstrate a logarithmic link between the desired model accuracy and the privacy budget.
We aim to debate and eventually be able to carefully judge how realistic the following statement of a young computer scientist is: “I would like to become an ethical correctly acting offensive cybersecurity expert”. The objective of this article is not to judge what is good and what is wrong behavior nor to present an overall solution to ethical dilemmas. Instead, the goal is to become aware of the various personal moral dilemmas a security expert may face during his work life. For this, a total of 14 cybersecurity students from HS Offenburg were asked to evaluate several case studies according to different ethical frameworks. The results and particularities are discussed, considering different ethical frameworks. We emphasize, that different ethical frameworks can lead to different preferred actions and that the moral understanding of the frameworks may differ even from student to student.
In den letzten Jahren haben Recommender Systeme zunehmend an Bedeutung gewonnen. Diese Systeme sind meist für Bereiche des E-Commerce konzipiert und berücksichtigen oftmals nicht den aktuellen Kontext der nutzenden Person. Recommender Systeme können allerdings nicht nur im E-Commerce zum Einsatz kommen, sondern finden ihren Anwendungszweck auch im Gesundheitswesen. Ziel dieser Bachelorarbeit ist es, ein Recommender System zu entwickeln, das den aktuellen Kontext der nutzenden Person (Chatverlauf, demografische Daten) besser berücksichtigen kann. Dazu befasst sich diese Arbeit mit der Konzeption und prototypischen Umsetzung eines kontextsensitiven Recommender Systems für einen bereits existierenden Chatbot aus dem Gesundheitswesen. Das in dieser Arbeit konzipierte und entwickelte Recommender System soll Mitarbeitende aus dem Gesundheits- und Sozialwesen entlasten und ihnen hilfreiche sowie thematisch sinnvolle Informationen zur Verfügung stellen. Basierend auf festgelegten Anforderungen wurde ein Konzept für das Recommender System entwickelt und zu Teilen als Prototyp umgesetzt. Abschließend wurde der Prototyp im Hinblick auf die Anforderungen evaluiert. Zudem fand eine technische Evaluation und eine Evaluation mithilfe von Anwendenden statt, welche den implementierten Prototypen bereits existierenden Systemen gegenüberstellte. Die von dem Prototyp empfohlenen Textausschnitte erzielten in der Evaluation mit nutzenden Personen eine thematisch signifikant höhere Übereinstimmung mit den Chatdaten.
Publisher und Start-ups
(2022)
The isolation measures adopted during the COVID-19 pandemic brought light to discussions related to the importance of meaningful social relationships as a basic need to human well-being. But even before the pandemic outbreak in the years 2020 and 2021, organizations and scholars were already drawing attention to the growing numbers related to lonely people in the world (World Economic Forum, 2019). Loneliness is an emotional distress caused by the lack of meaningful social connections, which affects people worldwide across all age groups, mainly young adults (Rook, 1984). The use of digital technologies has gained prominence as a means of alleviating the distress. As an example, studies have shown the benefits of using digital games both to stimulate social interactions (Steinfield, Ellison & Lampe, 2008) and to enhance the effects of digital interventions for mental health treatments, through gamification (Fleming et al., 2017). It is with these aspects in mind that the gamified app Noneliness was designed with the intention of reducing loneliness rates among young students at a German university. In addition to sharing the related works that supported the application development, this chapter also presents the aspects considered for the resource's design, its main functionalities, and the preliminary results related to the reduction of loneliness in the target audience.
Das Ziel des Projekts PRYSTINE war es, eine fehlertolerante 360°-Rundumwahrnehmung für das hochautomatisierte Fahren in städtischen und ländlichen Umgebungen, auf Basis einer robusten Radar- und Lidar-Sensorfusion sowie Kontrollfunktionen, zu realisieren.
Im Teilvorhaben "Entwurf der Systemarchitektur von Radarsensoren auf Grundlage identifizierter Szenarien" stand die Entwicklung eines zukunftsfähigen RF-CMOS basierten Radarsystems im Fokus, das sich durch eine hohe Robustheit und Fehlertoleranz bei gleichzeitiger Reduktion der Kosten, Chipfläche und Leistungsaufnahme auszeichnet.
Darin war die Hochschule Offenburg sowohl an der Spezifizierung und am Entwurf einer Systemarchitektur für einen neuartigen RF-CMOS basierten Radarchip als auch an der anschließenden Untersuchung und Validierung des im Projekt realisierten hochauflösenden Radarsensors beteiligt.
Mit dem Klimaschutzgesetz 2021 wurden von der Bundesregierung die Klimaschutzvorgaben verschärft und die Treibhausgasneutralität bis 2045 als Ziel verankert. Zur Erreichung dieses ambitionierten Ziels ist es notwendig, im Bereich der Mobilität weitgehend von Verbrennungsmotoren mit fossilen Kraftstoffen auf Elektromobilität mit regenerativ erzeugtem Strom umzusteigen. Dabei ist die zügige Bereitstellung einer ausreichenden Ladeinfrastruktur für die Elektrofahrzeuge eine große Herausforderung. Neben der Installation einer ausreichend großen Zahl von Ladepunkten selbst besteht die Herausforderung darin, diese in das bestehende Verteilungsnetz zu integrieren bzw. das Verteilungsnetz so auszubauen, dass weiter ein sicherer Netzbetrieb gewährleistet werden kann. Dabei sind insbesondere Lösungen gefragt, bei denen der Ausbau der Ladeinfrastruktur und der Netzbetriebsmittel durch intelligentes Management des Ladens so gering wie möglich gehalten wird, indem vorhandene oder neu zu installierender Hardware möglichst effizient genutzt wird.
Hier setzte das Projekt „Intelligente Ladeinfrastruktur für Elektrofahrzeuge auf dem Parkplatz der Hochschule Offenburg (INTLOG)“ (Projektlaufzeit 15.11.2020 – 30.09.2022) an. Inhalt des Projekts war es, einen Ladepark für den Parkplatz der Hochschule Offenburg mit 20 Ladepunkten à 11 kW und somit einer Gesamtladeleistung von 220 kW an einen vorhandenen Ortsnetztransformator mit 200 kW Nennleistung anzuschließen, der aber bereits von anderen Verbrauchern genutzt wurde. Das übergeordnete Ziel war es also, eine Ladeinfrastruktur von maßgeblichem Umfang in die bestehende Netzinfrastruktur ohne zusätzlichen Ausbau zu integrieren.
Dabei wurden zukunftsweisende Technologien genutzt und weiterentwickelt sowie teilweise in Praxis, im Labor und in der Computersimulation demonstriert.
Organizations striving to achieve success in the long term must have a positive brand image which will have direct implications on the business. In the face of the rising cyber threats and intense competition, maintaining a threat-free domain is an important aspect of preserving that image in today's internet world. Domain names are often near-synonyms for brand names for numerous companies. There are likely thousands of domains that try to impersonate the big companies in a bid to trap unsuspecting users, usually falling prey to attacks such as phishing or watering hole. Because domain names are important for organizations for running their business online, they are also particularly vulnerable to misuse by malicious actors. So, how can you ensure that your domain name is protected while still protecting your brand identity? Brand Monitoring, for example, may assist. The term "Brand Monitoring" applies only to keep tabs on an organization's brand performance, reception, and overall online presence through various online channels and platforms [1]. There has been a rise in the need of maintaining one's domain clear of any linkages to malicious activities as the threat environment has expanded. Since attackers are targeting domain names of organizations and luring unsuspecting users to visit malicious websites, domain monitoring becomes an important aspect. Another important aspect of brand abuse is how attackers leverage brand logos in creating fake and phishing web pages. In this Master Thesis, we try to solve the problem of classification of impersonated domains using rule-based and machine learning algorithms and automation of domain monitoring. We first use a rule-based classifier and Machine Learning algorithms to classify the domains gathered into two buckets – "Parked" and "Non-Parked". In the project's second phase, we will deploy object detection models (Scale Invariant Feature Transform - SIFT and Multi-Template Matching – MTM) to detect brand logos from the domains of interest.
Even though the internet has only been there for a short period, it has grown tremendously. To- day, a significant portion of commerce is conducted entirely online because of increased inter- net users and technological advancements in web construction. Additionally, cyberattacks and threats have expanded significantly, leading to financial losses, privacy breaches, identity theft, a decrease in customers’ confidence in online banking and e-commerce, and a decrease in brand reputation and trust. When an attacker pretends to be a genuine and trustworthy institution, they can steal private and confidential information from a victim. Aside from that, phishing has been an ongoing issue for a long time. Billions of dollars have been shed on the global economy. In recent years, there has been significant progress in the development of phishing detection and identification systems to protect against phishing attacks. Phishing detection technologies frequently produce binary results, i.e., whether a phishing attempt was made or not, with no explanation. On the other hand, phishing identification methodologies identify phishing web- pages by visually comparing webpages with predetermined authentic references and reporting phishing together with its target brand, resulting in findings that are understandable. However, technical difficulties in the field of visual analysis limit the applicability of currently available solutions, preventing them from being both effective (with high accuracy) and efficient (with little runtime overhead). Here, we evaluate existed framework called Phishpedia. This hybrid deep learning system can recognize identity logos from webpage screenshots and match logo variants of the same brand with high precision. Phishpedia provides high accuracy with low run- time. Lastly, unlike other methods, Phishpedia does not require training on any phishing sam- ples whatsoever. Phishpedia exceeds baseline identification techniques (EMD, PhishZoo, and LogoSENSE), inaccurately detecting phishing pages in lengthy testing using accurate phishing data. The effectiveness of Phishpedia was tested and compared against other standard machine learning algorithms and some state-of-the-art algorithms. The given solutions performed better than different algorithms in the given dataset, which is impressive.
Technology advancement has played a vital role in business development; however, it has opened a broad attack surface. Passwords are one of the essential concepts used in applications for authentication. Companies manage many corporate applications, so the employees must meet the password criteria, which leads to password fatigue. This thesis addressed this issue and how we can overcome this problem by theoretically implementing an IAM solution. In this, we disused MFA, SSO, biometrics, strong password policies and access control. We introduced the IAM framework that should be considered while implementing the IAM solution. Implementing an IAM solution adds an extra layer of security.
Diese Arbeit beschäftigt sich mit der simulativen Untersuchung von Strömung und Wärmeübergang im Kontext von Vorkammerzündsystemen. Dies geschieht im Rahmen der Entwicklung eines Gasmotors mit gasgespülter Vorkammer. Entscheidene Größen für die Strömung und Arbeitsweise in einer Vorkammerzündkerze sind die Geometrie und Anordnung der Überströmbohrungen, das Vorkammervolumen und die Form der Vorkammer. Die Betrachtung wird dafür aufgeteilt in die Themen Spaltströmungen, Wärmeübergang und drallbehaftete Strömungen. Diese werden zunächst isoliert betrachtet und letztendlich in einem Anwendungsfall zusammengeführt. Für die Betrachtung von Spaltströmungen werden unterschiedliche Platten mit Bohrlöchern zu verschiedenen Drücken, Durchmessern und Plattenstärken durchströmt und der Wärmeübergang und der Drall werden mithilfe einer durch Leitbleche gelenkte Strömung in einem beheizten Rohr untersucht. Die Zusammenführung der Themen wird anhand einer Anströmvorrichtung für Brenngase auf Motorzylinder durchgeführt. Dabei erreichen die Gase hohe Temperaturen und aufgrund von hohen Drücken und Spaltströmungen große Geschwindigkeiten.
Für die Simulation werden die Programme Ansys Fluent und Ansys Forte verwendet. Während ersteres primär für die Simulation von Strömungen verwendet wird, ist Forte speziell aufgebaut, um in Verbrennungsmotoren neben der Berechnung der Strömung auch die Einspritzung von Kraftstoff, die Verbrennung dessen und die resultierenden Schadstoffe zu berechnen. Da die Ergebnisse aus Forte eine große Gewichtung in der Beurteilung der Entwicklungsarbeit des Gasmotors hat, muss Forte selbst validiert werden. Dies wird durchgeführt anhand der angesprochenen Teilthemen und verglichen mit Messungen aus der Literatur und Simulationsergebnissen in Fluent.
Server Side Rendering (SSR), Single Page Application (SPA), and Static Site Generation (SSG) are the three most popular ways of making modern Web applications today. If we go deep into these processes, this can be helpful for the developers and clients. Developers benefit since they do not need to learn other programming languages and can instead utilize their own experience to build different kinds of Web applications; for example, a developer can use only JavaScript in the three approaches. On the other hand, clients can give their users a better experience.
This Master Thesis’s purpose was to compare these processes with a demo application for each and give users a solid understanding of which process they should follow. We discussed the step-by-step process of making three applications in the above mentioned categories. Then we compared those based on criteria such as performance, security, Search Engine Optimization, developer preference, learning curve, content and purpose of the Web, user interface, and user experience. It also talked about the technologies such as JavaScript, React, Node.js, and Next.js, and why and where to use them. The goals we specified before the program creation were fulfilled and can be validated by comparing the solutions we gave for user problems, which was the application’s primary purpose.
Editorial
(2022)
Editorial
(2022)
Editorial
(2022)
Editorial
(2022)
Editorial
(2022)
Editorial
(2022)
Sweaty has already participated several times in RoboCup soccer competitions (Adult Size). Now the work is focused on stabilizing the gait. Moreover, we would like to overcome the constraints of a ZMP-algorithm that has a horizontal footplate as precondition for the simplification of the equations. In addition we would like to switch between impedance and position control with a fuzzy-like algorithm that might help to minimize jerks when Sweaty’s feet touch the ground.
Decarbonisation Strategies in Energy Systems Modelling: Biochar as a Carbon Capture Technology
(2022)
The energy system is changing since some years in order to achieve the climate goals from the Paris Agreement which wants to prevent an increase of the global temperature above 2 °C. Decarbonisation of the energy system has become for governments a big challenge and different strategies are being stablished. Germany has set greenhouse gas reduction limits for different years and keeps track of the improvement made yearly. The expansion of renewable energy systems (RES) together with decarbonisation technologies are a key factor to accomplish this objective.
This research is done to analyse the effect of introducing biochar, a decarbonisation technology, and study how it will affect the energy system. Pyrolysis is the process from which biochar is obtained and it is modelled in an open-source energy system model. A sensibility analysis is made in order to assess the effect of changing the biomass potential and the costs for pyrolysis.
The role of pyrolysis is analysed in the form of different future scenarios to evaluate the impact. The CO2 emission limits from the years 2030 and 2045 are considered to create the scenarios, as well as the integration of flexibility technologies. Four scenarios in total are assessed and the result from the sensibility analysis considering pyrolysis are always compared to the reference scenario, where pyrolysis is not considered.
Results show that pyrolysis has a bigger impact in the energy system when the CO2 limit is low. Biochar can be used to compensate the emissions from other conventional power plant and achieve an energy transition with lower costs. Furthermore, it was also found that pyrolysis can also reduce the need of flexibility. This study also shows that the biomass potential and the pyrolysis costs can affect a lot the behaviour of pyrolysis in the energy system.
Durch die Fortschritte im Bereich der Quantencomputer rückt der Zeitpunkt näher, dass Quantencomputer die bestehenden mathematischen Probleme lösen können, welche in den aktuellen Public-Key-Verschlüsselungsverfahren verwendet werden. Als Reaktion darauf wurde ein Standardisierungsprozess für quantensichere Public-Key-Verschlüsselungsverfahren gestartet. Diese Arbeit analysiert diese und vergleicht sie untereinander, um Stärken und Schwächen der einzelnen Verfahren aufzuzeigen.
Die messbaren Elemente aus dem Film werden analysiert und bewertet. Dahingehend werden drei Dimensionen betrachtet: Die Textebene, die technische Ebene, sowie eine Metaebene. Diese Kategorien werden im Anschluss noch dem Marketingmaterial gegenübergestellt.Durch die modulare Art der Kriterien und die Vergleichbarkeit untereinander können Aussagen über den Erfolg eines Films getätigt werden.
Die Corona-Krise hat viele Bereiche getroffen und verändert. Unter anderem auch die Digitalisierung in verschiedenen Branchen. Nicht nur die Wirtschaft, sondern auch Strukturen und Prozesse innerhalb von Unternehmen wurden beeinflusst. Darunter auch die Lernstrukturen. Zwar gab es zu dieser Zeit bereits erste Ansätze vom digitalen Lernen, jedoch hauptsächlich in der Form Lerninhalte digital zur Verfügung zu stellen, ergänzend zur Präsenzlehre.
Durch die Kontaktbeschränkungen während der Pandemie konnten Arbeitsprozesse nicht mehr wie gewohnt ablaufen. Plötzlich waren Lösungen gefragt, welche die räumliche Distanz beim Lehren und Lernen überwinden können.
Lernprozesse wurden also durch eine digitale Hürde erschwert. Auch das gemeinsame Lernen über Präsenzseminare und Schulungen vor Ort wurden unterbunden. Die Leute sahen sich gezwungen sich digital zu vernetzen.
An dieser Stelle rückten sogenannte Kollaborationstools für Arbeits- und Lernprozesse stärker in den Fokus. Kollaborationstools sind Softwarelösungen, die digitale Zusammenarbeit an Projekten, Dokumenten und die gemeinsame Kommunikation, sowohl in der Arbeitswelt, als auch im Bereich Bildung fördern. Prozesse wurden nach und nach auf die Notwendigkeit der digitalen Gegebenheiten angepasst. Lerneinheiten zwischen Lernenden und Lehrenden fanden vermehrt über Videoanrufe statt, Inhalte wurden digital ausgetauscht und Ergebnisse wurden über digitale Wege geteilt, kontrolliert und korrigiert.
The tenth edition of the successful report "Project Management Software Systems" provided the complete guide to a successful project management software selection program. It includes an extensive overview of the leading products on the market. If you are seeking to purchase project (portfolio) management software for your organization, this report from BARC and GPM puts the facts at your fingertips to help you select the best tool to match your requirements.
Among the many highlights of this comprehensive report, you will discover
- the critical success factors in software selection processes,
- the phases of a systematic software selection process,
- basics on software architecture regarding modern PM software, and
- descriptions of all the functions you can except from today's PM software tools.
The second section contains a detailed analysis of market-leading products based on over 300 criteria. Each product reviewed in this report is assessed based on the same criteria so that product comparisons can be made easily.
Die zehnte Auflage der erfolgreichen Marktstudie "Project Management Software Systems" von BARC und GPM ist der vollständige Leitfaden zur erfolgreichen Auswahl und Einführung von Projektmanagement Software. Sie bietet einen umfassenden Überblick über die führenden Produkte am Markt.
Der erste Abschnitt der Studie beschreibt in verständlicher Form, wie Sie Anforderungen erheben, passende Software finden und diese erfolgreich auf ihre Eignung überprüfen. Unter anderem finden Sie in diesem Teil
- die kritischen Erfolgsfaktoren im Auswahlprozess,
- die einzelnen Phasen, die es im Auswahlprozess zu durchlaufen gilt,
- die unterschiedlichen Architekturen hinter moderner PM-Software und
- Erläuterungen der Funktionen, die Sie heute von PM-Software erwarten können.
Der zweite Abschnitt enthält eine detaillierte Analyse etablierter Softwareprodukte für Projektmanagement, Multiprojektmanagement und Projekt-Portfoliomanagement anhand von über 300 Einzelkriterieren. Er vermittelt die unverzichtbare Markt-Orientierung für eine fundierte Softwareauswahl.
Mit dem bewährten Kriterienkatalog (10. Auflage) werden die Produktinformationen der einzelnen Software-Systeme kontinuierlich aktualisiert.
Fallstudien sollen theoretische Lerninhalte zu Konzepten von Business Intelligence und Data Warehousing veranschaulichen und in einen praxisnahen Kontext bringen. Außerdem sollen Studierende umsetzungsorientierte Kompetenzen mit praxisrelevanten Systemen erwerben. Um diese Kompetenzen abzuprüfen und um die Auseinandersetzung mit Software und Konzepten zu vertiefen, haben sich Projekte als Ergänzung zu Fallstudien und Klausuren vielfach bewährt. Der Vortrag stellt dar, welche Möglichkeiten Dozierende im Rahmen der vom UCC zur Verfügung gestellten Plattform SAP Data Warehouse Cloud (SAP DWC) haben, um studentische Projekte zu Data Warehousing und Analytics durchzuführen. Der Autor berichtet über seine Erfahrung aus der Betreuung von über 30 Projekten mit SAP DWC aus verschiedenen Studiengängen seit 2020. Neben einer Übersicht über die von Studierenden gewählten Themen werden ausgewählte Projektergebnisse vorgestellt. Außerdem wird auf den Modus der Durchführung sowie existierende systemseitige Limitationen eingegangen. Für Dozierende, die mit ihren Studierenden eigene Projekte erfolgreich durchführen möchten, werden konkrete Hinweise und Maßnahmen dargestellt.
Krypto-Hype
(2022)
In den letzten Jahren entstand ein regelrechter Hype um das Thema Kryptowährungen und sie sind in Gesellschaft, Politik und Wirtschaft kaum noch wegzudenken. Trotz der hohen Volatilität und des Risikos für Investoren werden Kryptowährungen teilweise auch als eine Alternative für herkömmliche Währungen angesehen. Daher stellt sich die Frage, ob die Einstellung zu Kryptowährungen und auch das Investitionsverhalten auf einer sorgfältigen Auseinandersetzung von Argumenten basiert. Dafür wurde die Forschungsfrage: „Basieren Kaufverhalten und Einstellung zu Kryptowährungen eher auf der intensiven Auseinandersetzung mit tatsächlichen Argumenten oder auf oberflächlichen Reizen?“ aufgestellt. Zur Untersuchung dieser wurde eine Umfrage mit 283 Teilnehmenden durchge-führt. Auf Basis theoretischer Überlegungen zur Einstellungsforschung durch das Elabora-tion-Likelihood-Model wurde ein Fragebogen entworfen, der den Einfluss der Elaboration auf die Einstellung und das Kaufverhalten empirisch messbar machen sollte. Durch eine Kausalanalyse mittels Strukturgleichungsmodell konnte ein teilweise signifikanter Einfluss von elaborationsbestimmenden Größen auf Einstellung und Kaufverhalten festgestellt wer-den. Eine Überprüfung der Gütekriterien des Fragebogens mittels explorativer und konfir-matorischer Faktoranalyse ergab in Hinsicht auf Reliabilität und Validität jedoch keine zu-friedenstellenden Ergebnisse. Die Ergebnisse des Kausalmodells sollten deswegen mit Vorsicht betrachtet werden. In weiterführenden Forschungen könnte die Struktur der durch den Fragebogen erhobenen Konstrukte für Elaboration und Einstellung überarbeitet werden, um eine bessere Reliabilität und Validität zu erreichen und somit genauere Aussagen über die eigentlichen Beziehungen der Konstrukte treffen zu können.
On a regular basis, we hear of well-known online services that have been abused or compromised as a result of data theft. Because insecure applications jeopardize users' privacy as well as the reputation of corporations and organizations, they must be effectively secured from the outset of the development process. The limited expertise and experience of involved parties, such as web developers, is frequently cited as a cause of risky programs. Consequently, they rarely have a full picture of the security-related decisions that must be made, nor do they understand how these decisions affect implementation accurately.
The selection of tools and procedures that can best assist a certain situation in order to protect an application against vulnerabilities is a critical decision. Regardless of the level of security that results from adhering to security standards, these factors inadvertently result in web applications that are insufficiently secured. JavaScript is a language that is heavily relied on as a mainstream programming language for web applications with several new JavaScript frameworks being released every year.
JavaScript is used on both the server-side in web applications development and the client-side in web browsers as well.
However, JavaScript web programming is based on a programming style in which the application developer can, and frequently must, automatically integrate various bits of code from third parties. This potent combination has resulted in a situation today where security issues are frequently exploited. These vulnerabilities can compromise an entire server if left unchecked. Even though there are numerous ad hoc security solutions for web browsers, client-side attacks are also popular. The issue is significantly worse on the server side because the security technologies available for server-side JavaScript application frameworks are nearly non-existent.
Consequently, this thesis focuses on the server-side aspect of JavaScript; the development and evaluation of robust server-side security technologies for JavaScript web applications. There is a clear need for robust security technologies and security best practices in server-side JavaScript that allow fine-grained security.
However, more than ever, there is this requirement of reducing the associated risks without hindering the web application in its functionality.
This is the problem that will be tackled in this thesis: the development of secure security practices and robust security technologies for JavaScript web applications, specifically, on the server-side, that offer adequate security guarantees without putting too many constraints on their functionality.
As information technology continues to advance at a rapid speed around the world, new difficulties emerge. The growing number of organizational vulnerabilities is among the most important issues. Finding and mitigating vulnerabilities is critical in order to protect an organization’s environment from multiple attack vectors.
The study investigates and comprehends the complete vulnerability management process from the standpoint of the security officer job role, as well as potential improvements. Few strategies are used to achieve efficient mitigation and the de- velopment of a process for tracking and mitigating vulnerabilities. As a result, a qualitative study is conducted in which the objective is to create a proposed vulner- ability and risk management process, as well as to develop a system for analyzing and tracking vulnerabilities and presenting the vulnerabilities in a graphical dash- board format. This thesis’s data was gathered through an organized literature study as well as through the use of various web resources. We explored numerous ap- proaches to analyze the data, such as categorizing the vulnerabilities every 30, 60, and 90 days to see whether the vulnerabilities were reoccurring or new. According to our findings, tracking vulnerabilities can be advantageous for a security officer.
We come to the conclusion that if an organization has a proper vulnerability tracking system and vulnerability management process, it can aid security officers in having a better understanding of and making plans for reducing vulnerabilities. In terms of system patching and vulnerability remediation, it will also assist the security officer in identifying areas of weakness in the process. As a result, the suggested ways provide an alternate approach to managing and tracking vulnerabilities in an effective manner, although there is still a small area that needs additional analysis and research to make it even better.
Entrepreneurship – die systematische Erkennung und Förderung von Unternehmertalenten gehört zu dem Kernaufgabengebiet von Hochschulen. Oftmals wird der Bereich jedoch auf die Förderung von Studierenden im Kontext von Gründungsvorhaben reduziert. In der Abstimmung mit Partnern der Region Südlicher Oberrhein liegt hier jedoch auch ein Aufgabengebiet der wissenschaftlichen Weiterbildungsangebote von Hochschulen, mit der auch Unternehmertalente in und für bestehende Unternehmen gefördert werden.
Digitales Engineering wird zunehmend wichtiger in unserer digitalen Welt. Auch die Hochschule und im speziellen der Bildungscampus Gengenbach hat den Anspruch, sich stets weiterzuentwickeln und den Studierenden die fortschreitende Technik greifbar und praxisnah zu vermitteln. Das digitale Engineering bietet dazu Möglichkeiten, neue studentische Lehrkonzepte zu entwickeln und umzusetzen, die beispielsweise aus neuartiger Software besteht. Durch den demografischen Wandel und den zunehmenden Kostendruck sind immer mehr Industrieunternehmen gezwungen, ihre Prozesse zu digitalisieren und neuste Software im Bereich Engineering einzusetzen. Deswegen müssen die zukünftigen Studierenden auf die neue Rolle optimal vorbereitet werden.
Die Herausforderung ist dabei, eine geeignete Software zu finden und zu analysieren. Vor diesem Hintergrund beschäftigt sich diese Arbeit zuerst mit einer Softwareanalyse. Zunächst gilt es, nach einer Einarbeitungsphase in die verschiedensten Engineering Softwaretools One Pager mit den wichtigsten Informationen zu erstellen. Danach wird eine Nutzwertanalyse durchgeführt, um zu definieren, welche Software den Ansprüchen gerecht wird.
Danach wird eine Planung und Auslegung eines Kollaborativen Engineering Laborkonzeptes durchgeführt. Dabei wird unterschieden in eine Planung auf einer grünen Wiese, das bedeutet es gibt keine Flächenbegrenzung und als weitere Variante mit der Planung auf der Fläche des derzeitigen Virtual Engineering Labors im Bildungscampus Gengenbach.
Anschließend wird ein Lehrkonzept für das neue Labor und entsprechenden Engineering Tools erarbeitet. Dabei geht es hauptsächlich um die Machbarkeit und der Definition der möglichen Potenziale und Umsetzung der Kollaboration.
BACKGROUND
Various neutral and alkaline peptidases are commercially available for use in protein hydrolysis under neutral to alkaline conditions. However, the hydrolysis of proteins under acidic conditions by applying fungal aspartic peptidases (FAPs) has not been investigated in depth so far. The aim of this study, thus, was to purify a FAP from the commercial enzyme preparation, ROHALASE® BXL, determine its biochemical characteristics, and investigate its application for the hydrolysis of food and animal feed proteins under acidic conditions.
RESULTS
A Trichoderma reesei derived FAP, with an apparent molecular mass of 45.8 kDa (sodium dodecyl sulfate–polyacrylamide gel electrophoresis; SDS-PAGE) was purified 13.8-fold with a yield of 37% from ROHALASE® BXL. The FAP was identified as an aspartate protease (UniProt ID: G0R8T0) by inhibition and nano-LC-ESI-MS/MS studies. The FAP showed the highest activity at 50°C and pH 4.0. Monovalent cations, organic solvents, and reducing agents were tolerated well by the FAP. The FAP underwent an apparent competitive product inhibition by soy protein hydrolysate and whey protein hydrolysate with apparent Ki-values of 1.75 and 30.2 mg*mL−1, respectively. The FAP showed promising results in food (soy protein isolate and whey protein isolate) and animal feed protein hydrolyses. For the latter, an increase in the soluble protein content of 109% was noted after 30 min.
CONCLUSION
Our results demonstrate the applicability of fungal aspartic endopeptidases in the food and animal feed industry. Efficient protein hydrolysis of industrially relevant substrates such as acidic whey or animal feed proteins could be conducted by applying fungal aspartic peptidases. © 2022 Society of Chemical Industry.
Significant improvements in module performance are possible via implementation of multi-wire electrodes. This is economically sound as long as the mechanical yield of the production is maintained. While flat ribbons have a relatively large contact area to exert forces onto the solar cell, wires with round cross section reduce this contact area considerably – in theory to an infinitively thin line. Therefore, the local stresses induced by the electrodes might increase to a point that mechanical production yields suffer unacceptably.
In this paper, we assess this issue by an analytical mechanical model as well as experiments with an encapsulant-free N.I.C.E. test setup. From these, we can derive estimations for the relationship between lay-up accuracy and expected breakage losses. This paves the way for cost-optimized choices of handling equipment in industrial N.I.C.E.-wire production lines.
Micronization of biochar (BC) may ease its application in agriculture. For example, fine biochar powders can be applied as suspensions via drip-irrigation systems or can be used to produce grnulated fertilizers. However, micronization may effect important physical biochar properties like the water holding capacity (WHC) or the porosity.
Weitsprung mit und ohne Unterschenkelprothese – gleiche Sportart, unterschiedliche Disziplinen
(2022)
The majority of anterior cruciate ligament (ACL) injuries in team sports are non-contact injuries, with cutting maneuvers identified as high-risk tasks. Young female handball players have been shown to be at greater risk for ACL injuries than males. One risk factor for ACL injuries is the magnitude of the knee abduction moment (KAM). Cutting technique variables on foot placement, overall approach and knee kinematics have been shown to influence the KAM. Since injury risk is believed to increase with increasing task complexity, the purpose of the study was to test the effect of task complexity on technique variables that influence the KAM in female handball players during fake-and-cut tasks.
Every new technology is used by us humans almost without hesitation. Usually the military use comes first. Examples from recent history are the use of chemical weapons by Germany in the First World War and of atomic bombs in the Second World War by the US. Now, with the rapid advances in microelectronics over the past few decades, a wave of its application, called digitization, is spreading around the world with barely any control mechanisms. In many areas this has simplified and enriched our lives, but it has also encouraged abuse. The adaptation of legislation to contain the obvious excesses of “digitization” such as hate mail and anonymous threats is lagging behind massively. We hear almost nothing about technology assessment through systematic research; it is demanded at most by a few, usually small groups in civil society, which draw attention to the threats to humankind—future and present—and the Earth's ecosystem. One such group, the Federation of German Scientists (VDW) e.V., in the spirit of the responsibility of science for the peaceful and considered application of the possibilities it creates, asked three of its study groups to jointly organize its 2019 Annual Conference. The study groups “Health in Social Change,” “Education and Digitization,” and “Technology Assessment of Digitization” formulated the following position paper for the 2019 VDW Annual Conference, entitled “Ambivalences of the Digital.”
In dem Projekt BioMeth wurde der Ansatz der Membranbegasung zur Erhöhung der Verfügbarkeit von gelöstem Wasserstoff für die biologische Methanisierung im Sinn der Etablierung eines Power-to-Gas-Konzeptes zur Energiespeicherung verfolgt. Übergeordnetes Ziel war die Entwicklung eines skalierbaren Verfahrenskonzeptes, dass sich zur Nutzung CO2-haltiger Gasvolumenström eignet. Geplant war es, das Verfahren am Beispiel der Biogasanlage der Biokäserei Monte-Ziego in Teningen zu demonstrieren und dort das bestehende Konzept der parallelen Abwasseraufbereitung und Energieerzeugung zu erweitern. Die ursprüngliche Struktur des Arbeitspaketplanes ist in nachfolgender Abbildung gezeigt.
Konstrukteure im Maschinenbau stehen häufig vor der Problemstellung, hochfest vorgespannte Schraubenverbindungen und einen durchgehenden Korrosionsschutz zu vereinen. Die einschlägigen Normen und Richtlinien bieten hierzu Stand heute keine ausreichende Hilfestellung. In diesem Beitrag werden an Versuchsblechen ermittelte Setzbeträge von maschinenbautypischen organischen Beschichtungssystemen unter Variation der Belastungshöhe und der Umgebungstemperatur präsentiert und mit in Bauteilversuchen gemessenen Vorspannkraftverlusten vergleichend bewertet.
Dort, wo Modelle der operativen Energiesystemanalyse untereinander Überschneidungen aufweisen, stellt sich zunächst die Frage, ob sie bei gleichgearteten Fragestellungen auch die gleichen Antworten liefern. Dies zu beantworten war erstes Ziel des hier beschriebenen Vorhabens. Das zweite Ziel war, im Falle von Differenzen zu ermitteln, worin diese begründet liegen. Es waren nicht nur die Modelle selbst, sondern auch das methodische Vorgehen zur Modellerstellung und Simulation in Betracht zu ziehen. Die darauf aufbauende Identifikation von individuellen Optimierungspotenzialen war das dritte Ziel. Da die operative Energiesystemanalyse noch ein recht junger Forschungsbereich ist, existiert darüber hinaus Klärungsbedarf, welches Modell sich für welche Untersuchungen besonders eignet und welches methodische Vorgehen sich empfiehlt. Die Beantwortung dieser Fragen stellte das vierte Ziel des Vorhabens dar.
To deal with frequent power outages in developing countries, people turn to solutions like uninterruptible power supply (UPS), which stores electric energy during normal operating hours and use it to meet energy needs during rolling blackout intervals. Locally produced UPSs of poorer power quality are widely accessible in the marketplaces, and they have a negative impact on power quality. The charging and discharging of the batteries in these UPSs generate significant amount of power losses in weak grid environments. The Smart-UPS is our proposed smart energy metering (SEM) solution for low voltage consumers that is provided by the distribution company. It does not require batteries, therefore there is no power loss or harmonic distortion due to corresponding charging and discharging. Through load flow and harmonic analysis of both traditional UPS and Smart-UPS systems on ETAP, this paper examines their impact on the harmonics and stability of the distribution grid. The simulation results demonstrate that Smart-UPS can assist fixing power quality issues in a developing country like Pakistan by providing cleaner energy than the battery-operated traditional UPSs.
Convolutional neural networks (CNN) define the state-of-the-art solution on many perceptual tasks. However, current CNN approaches largely remain vulnerable against adversarial perturbations of the input that have been crafted specifically to fool the system while being quasi-imperceptible to the human eye. In recent years, various approaches have been proposed to defend CNNs against such attacks, for example by model hardening or by adding explicit defence mechanisms. Thereby, a small “detector” is included in the network and trained on the binary classification task of distinguishing genuine data from data containing adversarial perturbations. In this work, we propose a simple and light-weight detector, which leverages recent findings on the relation between networks’ local intrinsic dimensionality (LID) and adversarial attacks. Based on a re-interpretation of the LID measure and several simple adaptations, we surpass the state-of-the-art on adversarial detection by a significant margin and reach almost perfect results in terms of F1-score for several networks and datasets. Sources available at: https://github.com/adverML/multiLID
TRIZ Inventive Principles
(2022)
The analysis of several thousand patents led to the conclusion that inventive engineering problems and technical contradictions in all kinds of industrial sectors could be solved by a limited number of basic Inventive Principles (Altshuller, 1984). The modern Theory of Inventive Problem Solving TRIZ (VDI 4521) contains 40 basic Inventive Principles (IP). These principles are simple to use or modify and can be easily integrated in brainstorming or daily engineer’s work. One established part of industrial practice is the composition of the specific groups of principles for solving different kinds of problems (Livotov, Petrov, 2011). Based on interdisciplinary experience of TRIZ application in the industrial companies in the last 25 years the a general order in the application of 40 Inventive Principles can be recommended for idea generation and problem solving (Livotov, Chandra, Mas'udah et al, 2019). This brochure presents an update of the 40 Inventive Principles extending the original version (Altshuller, 1984) with additional 70 sub-principles, resulting in the advanced set of 160 sub-principles, regarded as elementary inventive operators. These extended version of inventive principles finds its application in the AIDA Automatic IDEA & IP Generator https://www.tris-europe.com/eng/software/innovationssoftware.htm
VR-based implementation of interactive laboratory experiments in optics and photonics education
(2022)
Within the framework of a developed blended learning concept, a lot of experience has already been gained with a mixture of theoretical lectures and hands-on activities, combined with the advantages of modern digital media. Here, visualizations using videos, animations and augmented reality have proven to be effective tools to convey learning content in a sustainable way. In the next step, ideas and concepts were developed to implement hands-on laboratory experiments in a virtual environment. The main focus is on the realization of virtual experiments and environments that give the students a deep insight into selected subfields of optics and photonics.
DE\GLOBALIZE
(2022)
The artistic research cycle DE\GLOBALIZE is a media ecological search movement for the terrestrial. After examining matters of fact in India (2014-18), matters of concern in Egypt (2016-2019) and matters of care in the Upper Rhine (2018-22), the focus turns toward matters of violence in the Congo (2022). From matter to mater, mother-earth, the garden to exploitation. From science, water and climate to migration, oppression and extermination.
The long-term research is accessible through interactive web documentation. The platform serves as a continuous media-archaeological archive for a speculative ethnography. The relational structure of the videographic essay is enabling the forensic processing of single documents in the sense of the actor-network theory.
The subject of the presentation at IFM is a field trip to the Congo planned for March 2022, which will focus on the ambivalence of violence and care in collaboration with local artists. The field trip is based on the postcolonial reflection luderitzcargo by the author from 1996, in which a freight container was transformed into a translocal cinema in Namibia.
Through the journey to Congo, a group of media artists, a psychotherapist, a theater dramaturg, a filmmaker and a philosopher intend to explore the political, technological and psycho-geographic borders. By artistic interventions with locals, we want to interfere with relational string figures as part of the new Earth Politics. They are focusing on the displaced consumption of resources which are hard-fought and guarantee prosperity in the global north. The so-called ghost acreages are repressed and justified as part of a civilizational mission. With this trip, we want to confront our self-lies with the ones of our hosts. We want to confront ourselves with the foreign, the dark and the displaced ghosts within ourselves. In the presentation at the #IFM2022 Conference, the platform DE\GLOBALIZE will be problematized itself as an example of epistemic violence for the ethnographic memory of (Western) knowledge.
We are not the missionaries but the perplexed travellers. In our search movement, we are dealing with psychoanalysis, video, performance and trance. As disoriented white men we try the reversal of Black Skin and White Mask by Franz Fanon without blackfacing. We will not only care about the sensitivity of our skin but that of our g/hosts and the one of mother earth.
A circuit arrangement of a motor vehicle includes a high-voltage battery for storing electrical energy, an electric machine for driving the motor vehicle, a converter via which high-voltage direct current voltage provided by the high-voltage battery is convertible into high-voltage alternating current voltage for operating the electric machine, and a charging connection for providing electrical energy for charging the high-voltage battery. The converter is a three-stage converter having a first switch unit which is assigned to a first phase of the electric machine. The first switch unit has two switch groups connected in series which each have two insulated-gate bipolar transistors (IGBTs) connected in series, where a connection is disposed between the IGBTs of one of the two switch groups, which connection is electrically connected directly to a line of the charging connection.
Running shoes were categorized either as motion control, cushioned, or minimal footwear in the past. Today, these categories blur and are not as clearly defined. Moreover, with the advances in manufacturing processes, it is possible to create individualized running shoes that incorporate features that meet individual biomechanical and experiential needs. However, specific ways to individualize footwear to reduce individual injury risk are poorly understood. Therefore, the purpose of this scoping review was to provide an overview of (1) footwear design features that have the potential for individualization; (2) human biomechanical variability as a theoretical foundation for individualization; (3) the literature on the differential responses to footwear design features between selected groups of individuals. These purposes focus exclusively on reducing running-related risk factors for overuse injuries. We included studies in the English language on adults that analyzed: (1) potential interaction effects between footwear design features and subgroups of runners or covariates (e.g., age, gender) for running-related biomechanical risk factors or injury incidences; (2) footwear perception for a systematically modified footwear design feature. Most of the included articles (n = 107) analyzed male runners. Several footwear design features (e.g., midsole characteristics, upper, outsole profile) show potential for individualization. However, the overall body of literature addressing individualized footwear solutions and the potential to reduce biomechanical risk factors is limited. Future studies should leverage more extensive data collections considering relevant covariates and subgroups while systematically modifying isolated footwear design features to inform footwear individualization.
Featherweight Generic Go (FGG) is a minimal core calculus modeling the essential features of the programming language Go. It includes support for overloaded methods, interface types, structural subtyping and generics. The most straightforward semantic description of the dynamic behavior of FGG programs is to resolve method calls based on runtime type information of the receiver.
This article shows a different approach by defining a type-directed translation from FGG to an untyped lambda-calculus. The translation of an FGG program provides evidence for the availability of methods as additional dictionary parameters, similar to the dictionary-passing approach known from Haskell type classes. Then, method calls can be resolved by a simple lookup of the method definition in the dictionary.
Every program in the image of the translation has the same dynamic semantics as its source FGG program. The proof of this result is based on a syntactic, step-indexed logical relation. The step-index ensures a well-founded definition of the relation in the presence of recursive interface types and recursive methods.
Modelbasierte Zustandsschätzung elektrischer Betriebsmittel der Mittel- und Niederspannungsebenen
(2022)
Im Projekt MOBCOM wird ein neues Verfahren zur Zustandsüberwachung von elektrischen Betriebsmitteln in Niederspannungsnetzen und Anlagen entwickelt. Mittels PLC (power line communication) Technologie werden hochfrequente transiente Vorgänge auf dem Stromkanal und dessen Übertragungseigenschaften erfasst und bewertet.
In dem Abschlussbericht wird ein Prototyp für Powerline-Kommunikation zur Netzüberwachung beschrieben. Der Prototyp basiert auf einem PLC-Empfänger, welcher den Kanal misst, um so Informationen über den PLC-Kanal und den aktuellen Zustand des Stromnetzes zu erhaltet. Der PLC-Empfänger verwendet das Kommunikationssignal, um eine genaue Schätzung des Stromkanals zu erhalten und liefert Informationen zur Erkennung von Teilentladungen und anderen Anomalien im Netz. Diese Überwachung des Stromnetzes macht sich die bestehende PLC-Infrastruktur zunutze und verwendet die ohnehin übertragenen Datensignale, um eine Echtzeitmessung der Kanalübertragungsfunktion und des empfangenen Rauschsignals zu erhalten. Da dieses Signal im Vergleich zu einfacheren Messsensoren mit einer hohen Abtastrate abgetastet wird, enthält es wertvolle Informationen über mögliche Beeinträchtigungen im Netz, die behoben werden müssen. Während die Kanalmessungen auf einem empfangenen PLC-Signal beruhen, können Informationen über Teilentladungen oder andere Störquellen allein durch einen PLC-Empfänger gesammelt werden, d. h. ohne eine PLC-Übertragung. Es wurde ein Prototyp auf Basis von Software Defined Radio entwickelt, der die gleichzeitige Kommunikation und Erfassung für ein Stromnetz implementiert.
The sharp rise in electricity and oil prices due to the war in Ukraine has caused fluctuations in the results of the previous study about the economic analysis of electric buses. This paper shows how the increase in fuel prices affects the implementation of electric buses. This publication is constructing the Total Cost of Ownership (TCO) model in the small-mid-size city, Offenburg for the transition to electric buses. The future development of costs is estimated and a projection based on learning curves will be carried out. This study intends to introduce a new future prospect by presenting the latest data based on previous research. Through the new TCO result, the cost differences between the existing diesel bus and the electric bus are updated, and also the future prospects for the economic feasibility of the electric bus in a small and midsize city are presented.
The importance of machine learning has been increasing dramatically for years. From assistance systems to production optimisation to support the health sector, almost every area of daily life and industry comes into contact with machine learning. Besides all the benefits that ML brings, the lack of transparency and the difficulty in creating traceability pose major risks. While there are solutions that make the training of machine learning models more transparent, traceability is still a major challenge. Ensuring the identity of a model is another challenge. Unnoticed modification of a model is also a danger when using ML. One solution is to create an ML birth certificate and an ML family tree secured by blockchain technology. Important information about training and changes to the model through retraining can be stored in a blockchain and accessed by any user to create more security and traceability about an ML model.
Narrowband Internet-of-Things (NB-IoT) is a 3rd generation partnership project (3GPP) standardized cellular technology, adopted for 5G and optimized for massive Machine Type Communication (mMTC). Applications are anticipated around infrastructure monitoring, asset management, smart city and smart energy applications. In this paper, we evaluate the suitability of NB-IoT for private (campus) networks in industrial environments, including complex cloud-based applications around process automation. An end-to-end system has been developed, comprising of a sensor unit connected to a NB-IoT modem, a base station (gNodeB) equipped with a beamforming array and a local (private) network architecture comprising a sensor management system in the edge cloud. The experimental study includes field tests in realistic industrial environments with latency, reliability and coverage measurements. The results show a good suitability of NB-IoT for process automation with high scalability, low-power requirements and moderate latency requirements.
The identification of vulnerabilities is an important element in the software development life cycle to ensure the security of software. While vulnerability identification based on the source code is a well studied field, the identification of vulnerabilities on basis of a binary executable without the corresponding source code is more challenging. Recent research has shown, how such detection can be achieved by deep learning methods. However, that particular approach is limited to the identification of only 4 types of vulnerabilities. Subsequently, we analyze to what extent we could cover the identification of a larger variety of vulnerabilities. Therefore, a supervised deep learning approach using recurrent neural networks for the application of vulnerability detection based on binary executables is used. The underlying basis is a dataset with 50,651 samples of vulnerable code in the form of a standardized LLVM Intermediate Representation. The vectorised features of a Word2Vec model are used to train different variations of three basic architectures of recurrent neural networks (GRU, LSTM, SRNN). A binary classification was established for detecting the presence of an arbitrary vulnerability, and a multi-class model was trained for the identification of the exact vulnerability, which achieved an out-of-sample accuracy of 88% and 77%, respectively. Differences in the detection of different vulnerabilities were also observed, with non-vulnerable samples being detected with a particularly high precision of over 98%. Thus, the methodology presented allows an accurate detection of 23 (compared to 4) vulnerabilities.
Initially developed as a student project, a mobile ‘farm shop’ retail and freight service using a converted tram-train is being proposed for use on the regional rail network around Karlsruhe. This in turn could offer a more viable business model for other cargo tram initiatives.
In diesem Kapitel geht es um die Frage, welche systematischen Vorgehensmodelle dazu beitragen können, dass einzelne Bereiche in Industrieunternehmen auf ihrem Weg im Rahmen der digitalen Transformation unterstützt werden können. Die Darstellung erfolgt anhand eines Anwendungsbeispiels im Service-Sektor des Maschinenbaus.
Im Kern dieser Arbeit geht es um das Begreifen von Kognition. Der Kognitionsbegriff wird zur Schlüsselkategorie in den basalen Gedanken- bzw. Modellgebäuden und den daraus entwickelten Algorithmen. Es ist eine Arbeit, die unter anderem die philosophischen Positionen des Reduktionismus, Funktionalismus und Konstruktivismus mit einer kognitiven Theorie so in Verbindung bringt, um diese erkenntnistheoretischen Ismen mit den Erkenntnissen einer technologisierten Kognitionswissenschaft zu synchronisieren und als algorithmisierte Theorie im Rahmen eines Entwicklungsprojekt als artifizielle Kognition zu realisieren. Die Arbeit ist somit theoretisch fundiert und praktisch orientiert.
Das duale Krankenversicherungssystem, mit der Gesetzlichen und Privaten Krankenversicherung (GKV und PKV), ist sehr heterogen, und beide agieren in einem unterschiedlichen komplexen rechtlichen und strukturellen Rahmen. In der GKV sind rund 90 % der Bevölkerung versichert. Der folgende Beitrag zum Kundenmanagement in Krankenversicherungen fokussiert daher die GKV. Viele Maßnahmen des Kundenmanagements, insbesondere bezüglich der Services, haben jedoch trotz der unterschiedlichen Rahmenbedingungen sowohl in der GKV als auch in der PKV Relevanz und werden von Marktteilnehmern beider Systeme ergriffen.
Due to the Covid-19 pandemic, the RoboCup WorldCup 2021 was held completely remotely. For this competition the Webots simulator (https://cyberbotics.com/) was used, so all teams needed to transfer their robot to the simulation. This paper describes our experiences during this process as well as a genetic learning approach to improve our walk engine to allow a more stable and faster movement in the simulation. Therefore we used a docker setup to scale easily. The resulting movement was one of the outstanding features that finally led to the championship title.
This review provides an overview on the production and analysis techniques of antioxidative peptides from food proteins. Regarding the production of antioxidative peptides, interlinked factors must be considered. Depending on the protein substrate, different peptidases or peptidase systems containing multiple enzymes as well as a specific production process must be chosen. The antioxidative peptides might be produced in a batch process including multiple pre- and post-treatments, besides the hydrolyses with peptidases itself. As an alternative, the potential of continuous production systems is discussed in this review. Furthermore, robust analyses tools are needed to gain control of the process and final product properties. With no standardized methodology available for antioxidative peptide evaluation, pros and cons of various strategies for peptide separation and antioxidative measurement are discussed in this review. Therefore, this review provides a roadmap for antioxidative peptide generation from various sources for research and development as well as for potential industrial use.
Gas Analysis and Optimization of Debinding and Sintering Processes for Metallic Binder-Based AM*
(2022)
Binder-based additive manufacturing processes for metallic
AM components in a wide range of applications usually use
organic binders and process-related additives that must be
thermally removed before sintering. Debinding processes are
typically parameterized empirically and thus far from the optimum.
Since debinding based on thermal decomposition processes
of organic components and the subsequent thermochemical
reactions between process atmosphere and metal
powder materials make uncomplicated parameterization difficult,
in-situ instrumentation was introduced at Fraunhofer
IFAM. This measurement method relies on infrared spectroscopy
and mass spectrometry in various furnace concepts to
understand the gas processes of decomposition of organic
components and the subsequent thermochemical reactions
between the carrier gas atmosphere and the metal part, as well
as their kinetics. This method enables an efficient optimization
of the temperature-time profiles and the required atmosphere
composition to realize dense AM components with low contamination.
In the paper, the optimization strategy is presented,
and the achievable properties are illustrated using a fused
filament fabrication (FFF) component example made of 316L
stainless steel.
Synthesizing voice with the help of machine learning techniques has made rapid progress over the last years. Given the current increase in using conferencing tools for online teaching, we question just how easy (i.e. needed data, hardware, skill set) it would be to create a convincing voice fake. We analyse how much training data a participant (e.g. a student) would actually need to fake another participants voice (e.g. a professor). We provide an analysis of the existing state of the art in creating voice deep fakes and align the identified as well as our own optimization techniques in the context of two different voice data sets. A user study with more than 100 participants shows how difficult it is to identify real and fake voice (on avg. only 37% can recognize a professor’s fake voice). From a longer-term societal perspective such voice deep fakes may lead to a disbelief by default.
In the literature, many studies have described the 3D printing of ceramic-based scaffolds (e.g., printing with calcium phosphate cement) in the form of linear structures with layer rotations of 90°, although no right angles can be found in the human body. Therefore, this work focuses on the adaptation of biological shapes, including a layer rotation of only 1°. Sample shapes were printed with calcium phosphate cement using a 3D Bioplotter from EnvisionTec. Both straight and wavy spokes were printed in a round structure with 12 layers. Depending on the strand diameter (200 and 250 µm needle inner diameter) and strand arrangement, maximum failure loads of 444.86 ± 169.39 N for samples without subsequent setting in PBS up to 1280.88 ± 538.66 N after setting in PBS could be achieved.
Fusion 360 – kurz und bündig
(2022)
Dieses Lehrbuch ermöglicht dem Anfänger in der 3D-Modellierung einen schnellen Einstieg in die Arbeit mit dem cloudbasierten CAD-System Autodesk® Fusion 360TM. Der Schwerpunkt liegt dabei auf den grundlegenden Funktionen zur Modellierung von Einzelteilen und dem Zusammenbau von Produkten, sowie in der Erstellung von einfachen technischen Zeichnungen. Dabei werden bei jedem Schritt die besonderen Anforderungen an eine 3D-Druck-gerechte Gestaltung erläutert und umgesetzt. Somit ist das Ergebnis dieser „Schritt für Schritt“-Anleitung die vollständige Modellierung eines Miniatur-Automobils, das am 3D-Drucker in ein reales Modell umgesetzt werden kann. Das didaktische Konzept ist so ausgelegt, dass alle Schritte für ein Selbststudium geeignet sind.
In der vorliegenden Auflage wurde die Konstruktionsmethodik überarbeitet und einige Kapitel wurden ergänzt, beispielweise um das Erstellen von Teams.
Dieses Lehrbuch ermöglicht Anfängern in der 3D-Modellierung einen schnellen Einstieg in die Arbeit mit dem cloudbasierten praxisorientierten CAD-System Onshape. Dabei werden bei jedem Schritt die besonderen Anforderungen an eine 3D-Druck-gerechte Gestaltung erläutert und umgesetzt. Somit ist das Ergebnis dieser „Schritt für Schritt“-Anleitung die vollständige Modellierung eines Miniatur-Automobils, das am 3D-Drucker in ein reales Modell umgesetzt werden kann. Die vorliegende Auflage enthält nun eine Übersicht der 3D-Druckwerkstoffe und geht auf die aktuellen Weiterentwicklungen von Onshape ein. Die neue vereinfachte Anmeldung sowie die Erstellung einer Explosionsdarstellung werden in zwei neuen Kapiteln demonstriert.
Die Optimierung der Auftragsterminierung und Einsteuerungsreihenfolge hat großen Einfluss auf die Produktivität von Fertigungssystemen. Genetische Algorithmen und Simulation sind verbreitete Werkzeuge zur Optimierung. Dieser Beitrag beschreibt einen neuen Ansatz zur Optimierung durch einen genetischen Algorithmus und der Simulation in dynamischen Modellen. Eine illustrative Fallstudie validiert den Ansatz und zeigt das Potenzial zur ganzheitlichen Verbesserung von Fertigungssystemen auf.
Additive manufacturing offers completely new production technologies thanks to the layered structure and the simultaneous processing of several materials. In order to exploit the potential of this new technology, it is already necessary in product development to consider the components no longer as monolithic blocks, but as a structure of many layers and individual elements (voxels). Therefore, this paper will examine the current state of voxel-based CAD systems and the subsequent 3D multi-material printing of the designed components. Different voxel-based CAD systems are used and analyzed for component design and a sample component is additively manufactured. The results show that simple components can be designed using voxel-based CAD systems. With the application of 3D multi-material printing, different materials and thus functions can be assigned to the designed voxel-based CAD-model.
Digitalisierung ist ein populäres Wort mit diffuser Bedeutung. Aus der technischen Signalverarbeitung stammend, wird es heute in vielfältiger Form verwendet. Man kann damit einen gesellschaftlichen Megatrend beschreiben, die öffentliche Verwaltung zur Modernisierung auffordern oder produkt- wie prozessbezogene Veränderungen in Unternehmen begründen.
Die Kernfunktionen von Währungen sind daraufhin zu untersuchen, wie sie im Kontext der Digitalisierung bestmöglich erbracht werden können, und das schließt die Möglichkeit einer Entkoppelung der Funktionen mit ein. Die Instrumente, welche die Wertaufbewahrungsfunktion, die Abwicklung von Bezahlvorgängen und die Funktion als Rechen- und Bilanzierungseinheit optimal realisieren, könnten also in einer digitalisierten Wirtschaft auseinanderfallen und sich neu verknüpfen. Private und staatliche Digitalwährungen sind Konzepte, die solche Rekombinationen beinhalten.
„Alles, was digitalisiert werden kann, wird digitalisiert“ erklärte Carly Fiorina, ehemalige Chefin von Hewlett-Packard bereits vor Jahren. Betrachtet man die Bandbreite, in der Digitalisierung im Handel stattfindet, erscheint die obige Aussage nicht zu vermessen. Wie Graumann treffend in diesem Sammelband herausarbeitet, geht es beim Management der Digitalisierung im Kern um die Frage, wie Führungskräfte auf ihre Mitarbeiter in den Teilfunktionen des Unternehmens einwirken können, damit die Ressource der leistungsfähigen computerunterstützten Kommunikation zwischen Menschen oder Dingen in einen höheren Kundennutzen umgewandelt wird.
Wandel und Krise im Gastronomiebereich: Herausforderungen und Handlungsempfehlungen für Restaurants
(2022)
Seit Februar 2020 fordert die Corona-Pandemie einen hohen Tribut von Wirtschaft und Gesellschaft. Unzählige Branchen standen plötzlich Herausforderungen gegenüber, die es so zuvor noch nicht gegeben hat. Insbesondere die Gastronomie wurde von dem Shutdown hart getroffen. Restaurants, Bars und Cafés mussten unerwartet schließen. Dies führte branchenweit zu wachsenden Herausforderungen und steigenden Existenzängsten. Für das Gaststättengewerbe bedeutet dies den größten Notstand der Nachkriegszeit. Die Branche musste sich innerhalb kürzester Zeit an die enormen Veränderungen, die diese Pandemie hervorbrachte, anpassen. Die Situation verlangte von Restaurantbetreibern, aktiv tätig zu werden, um sich der aus der Krise erwachsenden Probleme zu stellen und langfristig erfolgreich zu bleiben. Dieser Beitrag bietet einen Einblick in die Situation der Gastronomie in Deutschland und beleuchtet dazu die wesentlichen Herausforderungen dieser Branche. Dabei wird der Fokus auf die Lage von Restaurants während der Coronakrise gerichtet und konkrete Maßnahmen zur Sicherung der zukünftigen Existenz betrachtet.
Die Corona-Pandemie erforderte in kürzester Zeit die Übertragung der Lehrveranstaltungen in digitale Formate. Dieser Beitrag stellt vor, wie die Umstellung auf digitale Lehre an der Hochschule Offenburg gelingen konnte, wie sich die Situation aus Sicht der Studierenden und der Lehrenden darstellte und welche zukunftsweisenden Erkenntnisse aus den digitalen Semestern gewonnen werden konnten. Anhand eines Lehrbeispiels im Bereich Digitale Labore wird ein Weg aufgezeigt, der den Transfer und die Weiterentwicklung bewährter digitaler Lehrformate ermöglicht.
Eine Pandemie mit neuen Hygiene- und Abstandsregelungen ist vordergründig keine spezifische Herausforderung für den Bildungssektor auf den unterschiedlichen Ebenen. Da jedoch unsere Bildungseinrichtungen so angelegt sind, dass der persönliche Kontakt und Veranstaltungen in Präsenzform die Regel sind und auch unabdingbar erscheinen, waren alle Ebenen der Bildung massiv von den Einschränkungen der Jahre 2020 und 2021 betroffen. Systeme, die seit Jahren in der pädagogischen und/oder didaktischen Konzeption gefordert sind, neuen Herausforderungen gerecht zu werden und neue Impulse aufzunehmen, müssen im Sinne eines Corona-Managements nicht nur das aktuelle Risiko- und Krisenmanagement, sondern die digitale Transformation und die strategische Neuausrichtung im Rahmen der Schul- und Hochschulentwicklung bewältigen.
Rasch auftretende grundsätzliche Veränderungen der Rahmenbedingungen, wie sie durch die Corona-Pandemie für Unternehmen der Agentur- und Eventbranche spürbar wurden, stellen Unternehmen sowie Unternehmerinnen und Unternehmer vor besondere Herausforderungen. Zwei Vertreter aus Unternehmen dieser Branche – eine inhabergeführte Eventagentur und eine inhabergeführte Werbeagentur – zeigen in einem kurzen Interview auf, welche Erfahrungen sie gemacht haben und welche Herausforderungen sie daraus für die Zukunft ableiten.
Die Musik-, Kunst- und Kulturszene ist vielfältig und lebt von Individualität. An der Diskussionsrunde zum Thema „Überlebensstrategien während der Pandemie“ nehmen die Musiker*innen Lindy Huppertsberg, Pat Appleton, Martin Verdonk, Tommy Baldu und Markus Birkle am 10.05.2021 teil. Die Teilnehmer*innen der Diskussionsrunde erwirtschaften ihr Einkommen primär über Konzertgagen und sind als freischaffende Musiker*innen etabliert und erfolgreich in der Musikwelt tätig. Trotz großer Übereinstimmungen werden Strategien während der Krise bemerkenswert individuell gewählt. Ebenso vielschichtig ist der Fokus bei der Karriereplanung und Auswahl der musikalischen Projekte. Zwei essenzielle Themenbereiche kristallisieren sich im Verlauf der Unterhaltung heraus: Zum einen die persönlichen singulären Strategien für ein wirtschaftliches Überleben, zum anderen die Auseinandersetzung mit dem Verlust der Möglichkeit auf Resonanz und Empathie mit Mitmusiker*innen und dem Publikum. Die Frage wird aufgeworfen, ob Kulturschaffende einer Gesellschaft eine emotionale Stimme geben.
Die Pandemie brachte zunächst zahlreiche Beschränkungen bei Präsenzveranstaltungen mit sich, die sich rasch und unmittelbar auf unterschiedliche Bereiche der Kultur- und Kreativwirtschaft auswirkten. Neben der Frage des wirtschaftlichen Überlebens für Institutionen und Akteure stellt sich in diesem Zusammenhang auch die Frage nach der gesellschaftlichen Relevanz dieses Sektors.
Virtual Reality ist ein allgegenwärtiges Thema und wird aktuell in zahlreichen Medien als sehr erfolgversprechende zukunftsorientierte Technologie mit großem Potenzial diskutiert. In diesem Beitrag werden, nach einer Definition und einem Überblick der zentralen Einsatzfelder, Use Cases aus der betriebswirtschaftlichen Praxis vorgestellt. Diese Anwendungsbeispiele sollen dem Leser das Potenzial und die Vielfältigkeit von Virtual Reality für Organisationen verdeutlichen.
Pandemie und Moral
(2022)
In der Corona-Pandemie wandelte sich die Moral der Menschen. Während auf der einen Seite Solidaritätsbestrebungen verstärkt zu verzeichnen waren, war andererseits aber auch, oft aus Angst und Unsicherheit erwachsen, ein Extremverhalten zu beobachten. Soll moralischer Fortschritt zum Bestehen der großen Herausforderungen der Zukunft beitragen, sind eine Bildungsoffensive, vor allem aber auch Gerechtigkeit, die Voraussetzungen.
Große Wellen, die die Welt verändert haben: Nein, es ist nicht die Rede von Tsunamis oder ähnlichen Naturkatastrophen. Es geht um eine Pandemie, deren Anzahl nacheinander folgender Wellen leider derzeit noch nicht absehbar ist. Lockdown war die erste Maßnahme zur Eindämmung, die sich bis heute etabliert hat, aber an Zuspruch enorm verloren hat. Insbesondere den Handel hat diese Maßnahme getroffen: Einzelhandelsgeschäfte und Dienstleistungsbetriebe mussten schließen – trotz Hygienekonzepte immer wieder. Nun könnte es ein logischer Schluss sein, dass Unternehmen überlegen, die Waren des geschlossenen Ladens über andere erlaubte Kanäle zu verkaufen. Wäre diese Situation in den 80er-Jahren eingetreten, hätten höchstens Katalog- oder Teleshopping als Alternativen für die Direktvermarktung zur Verfügung gestanden. Nun aber – dank Internetverbindung in alle Welt – gibt es eine für jeden und jede verfügbare und schon etablierte digitale Schnittstelle zu den Kunden und Kundinnen: Doch wird diese vom stationären Einzelhandel genutzt? Das vorliegende Kapitel arbeitet aktuelle Erfahrungen und Wahrnehmungen auf, fasst die Herausforderungen zusammen und bietet direkt anwendbare Handlungsempfehlungen für die klassischen Face-to-Face-Handelsunternehmen an.
Die Corona-Pandemie stellte nicht nur die Gesellschaft und Politik, sondern viele Organisationen aus dem Feld der Unternehmen und öffentlichen Einrichtungen (siehe auch in den jeweiligen Kapiteln die Einrichtungen der Kultur und des Bildungswesens) vor neue Herausforderungen. Branchenunabhängig wurde im Zuge der Pandemie deutlich, wo etwa im Bereich der digitalen Transformation Nachholbedarf besteht. Dies erfordert von den Verantwortlichen ein klares Transformationsmanagement, das neben dem Krisen- und Risikomanagement eine Veränderung auf strategischer Ebene beinhaltet. Deshalb werden hier typischerweise unterschiedliche Elemente aus der Organisationsentwicklung und dem Changemanagement kombiniert und in ein Managementsystem integriert, um den Anforderungen eines Transformationsmanagements gerecht zu werden.
Es wird ein System zur Vorlesungsnachverfolgung (engl. Lecture Tracking) vorgestellt, das eine Kamera automatisch in Richtung des Vortragenden ausrichtet. Die kontinuierliche Positionsbestimmung der Kamera als auch die des Vortragenden erfolgt dabei durch Smartphones. Die Kamera und ein Smartphone sind an einen Roboter montiert, der als Schwenkeinheit dient. Das andere Smartphone trägt der Vortragende. Beide Smartphones können ihre Position im Raum bestimmen, sodass der erforderliche Drehwinkel berechnet und an den Roboter gesendet werden kann. Dieser führt dann die entsprechende Rotation durch, sodass der Vortragende immer in der Bildmitte zu sehen ist.
This work focuses on the dependencies between typical design parameters of surface acoustic wave (SAW) resonators and the nonlinear emitted signals of second and third order. The parameters metalization ratio and pitch are used as examples, but the approach can be extended to other design parameters as well. It is shown, that the interaction between the nonlinear current generation and the linear admittance is defining the measured nonlinear power signals. It is also discussed, that changes in linear properties get more pronounced in nonlinear responses. Therefore, slight effects on linear parameters will have significant influence on the observed nonlinearity.
Im Projekt „BioMeth“ wurden zwei neuartige und bislang noch nicht für die biologische Methanisierung beschriebene Anlagenkonzepte entwickelt. Der neuentwickelte Invers-Membranreaktor (IMR) ermöglicht es, den Eintrag der erforderlichen Eduktgase Wasserstoff H2 und Kohlendioxid CO2 über kommerziell erhältliche Ultrafiltrationsmembranen und den Entgasungsbereich für den Methanaustrag räumlich zu trennen und zusätzlich einen hydraulischen Druck zur Steigerung des Wasserstoffeintrages zu nutzen. Ein Vorteil des Verfahrens ist, dass perspektivisch sowohl das CO2 aus klassischem Biogas als auch CO2-Quellen aus industriellen Abluftströmen, z. B. aus der Zementindustrie als Kohlenstoffquelle genutzt werden können.
Über die biologische Methanisierung hinaus eignet sich der Invers-Membranreaktor der Einschätzung der Autoren nach auch generell zur biotechnologischen Herstellung nicht-flüchtiger Wertstoffe ausgehend von gasförmigen Substraten. Im IMR kann z. B. ein Membranmodul zum Eintrag der Eduktgase verwendet werden, während ein weiteres Hohlmembranmodul zur zyklischen oder kontinuierlichen Abtrennung der wertstoffhaltigen Reaktionslösung unter Rückhaltung der Mikrobiologie im Sinne eines In-situ Product Recovery (ISPR)-Konzeptes genutzt werden kann.
Als herausragendes Ergebnis erwies sich während der Untersuchung des IMR, dass mit dem Konzept der Membranbegasung CH4-Konzentrationen von > 90 Vol.-% über eine einjährige Versuchsreihe kontinuierlich und mit flexiblem Gaseintrag erzielt werden konnten. Nach Inbetriebnahme war dabei außer der Zugabe von H2 und CO2 als Energie- bzw. C-Quelle lediglich eine zweimalige Ergänzung von Supplementen erforderlich. Die maximal erreichte membranflächen-spezifische Methanbildungsrate ohne Gaszirkulation lag bei 83 LN Methan pro m2 Membranfläche und Tag bei einer Produktgaszusammensetzung von 94 Vol.% Methan, 2 Vol.% H2, und 4 Vol.% CO2.
Das zweite noch in der frühen Testphase befindliche Verfahren nutzt Druckunterschiede in einer 10 m hohen gepackten Gegenstromblasensäule, die mit einem ebenfalls 10 m hohen separaten Entgasungs-Reaktor kombiniert wurde. Diese Verfahrenskonzept soll es ermöglichen, eine hohe Wasserstofflöslichkeit aufgrund des am Säulenfuß vorliegenden hydrostatischen Druckes zu erreichen und dabei gleichzeitig den Energiebedarf zu minimieren, die Investitionskosten zu reduzieren und optimale zeitliche und räumlichen Bedingungen für die mikrobiologische Umsetzung von H2 und CO2 zu schaffen. Erste Untersuchungen am Gegenstromblasensäulenreaktor zum Stoffübergang von Luft bestätigten eine gute Anreicherung der im Kreislauf geführten Flüssigkeit bereits bei verhältnismäßig niedrigen Gasleerrohrgeschwindigkeiten. In der zweiten Säule des Reaktoraufbaus sollte am Kopf aufgrund der Druckentspannung ein Ausgasen der im Vergleich zu Atmosphärendruck mit Gas übersättigten Flüssigkeit erfolgen. Das Ausgasen der Flüssigkeit konnte ebenfalls am Beispiel des Lufteintrages bestätigt werden.
Digitalisierung und Visualisierung für die Lehre an Hochschulen am Beispiel der Medientechnik
(2022)
Ziel dieser Arbeit war die Erstellung eines Konzepts für die digitale Lehre am Beispiel der Medientechnik an der Hochschule Offenburg. Das Konzept sollte anhand der Funktionsweise von Digitalkameras und den Themengebieten Blende, Verschlusszeit, ISO und dem Crop-Faktor erstellt werden. Bei Konzepterstellung wurden insbesondere existierende, wissenschaftliche Erkenntnisse aus den Bereichen E-Learning, Blended-Learning und Visualisierung berücksichtigt. Darüber hinaus wurden für das Konzept Visualisierungen für die genannten Themengebiete erstellt. Vor Erstellung der Visualisierungen galt es, mögliche Vorteile der 3D-Visualisierung gegenüber der 2D-Visualisierung zu prüfen und eine Auswahl für das Konzept zu treffen. Als weiteres Ziel sollten die in der Arbeit gewonnenen Erkenntnisse, insbesondere bei der Konzepterstellung, anderen Hochschulen und Lehrenden als Grundlage für eigene Konzepte dienen, um eine digitale Lehre mit Online-Anteilen umsetzen zu können.
Diese Ziele werden im Verlauf der Arbeit uneingeschränkt erreicht.
Die in der Arbeit durchgeführte Literaturanalyse zeigt, dass der Einsatz von E-Learning und digitalen Medien zu einem besseren Lernerfolg bei Studierenden führt. Die Anwendung von Blended-Learning-Modellen, als Ergänzung zum E-Learning, können die Nachteile der Präsenzlehre ausgleichen.
Durch den Einsatz von Visualisierungen (Bilder und Animationen) kann in der Theorie belegt werden, dass sich beide Darstellungsformen positiv auf die Lernleistung von Studierenden auswirken. Insbesondere eigenen sich Animationen bei der Durchführung von Laboren zum Ausgleich unterschiedlicher Vorkenntnisse. Außerdem tragen Animationen dazu bei, die Fähigkeit zur eigenständigen Problemlösung zu verbessern, wenn Animationen gleichzeitig mit Erläuterungen eingesetzt werden.
Eine Vorteilhaftigkeit von 3D- gegenüber 2D-Visualisierungen in der Lehre, konnte in der Arbeit nicht bestätigt werden. Nicht zuletzt aufgrund eines erhöhten Aufwandes zur Erstellung und Anwendung von 3D-Visualisierungen, wurde für das Konzept eine 2D-Darstellung gewählt. Zwar werden 3D-Visualisierungen zur Wissensvermittlung an Hochschulen eingesetzt, es konnten jedoch keine wissenschaftlichen Erkenntnisse herangezogen werden, die eine verbesserte Lernleistung oder einen besseren Lernerfolg gegenüber 2D-Visualisierungen belegen. Diese Arbeit zeigt ebenfalls, dass die Anforderungen Expressivität, Effektivität und Angemessenheit für jede Visualisierung erfüllt werden müssen, damit eine Visualisierung im Kontext der Lehre vorteilhaft ist. Darüber hinaus müssen für jede Darstellung operationalisierte Lernziele definiert werden. Nur so kann eine Überprüfung und Beurteilung einer Visualisierung durchgeführt werden. Die Erfüllung dieser Anforderungen wurde für die selbsterstellten Illustrationen zu Blende, Verschlusszeit, ISO und dem Crop-Faktor berücksichtigt und kritisch geprüft. Die Anforderungen wurden vollumfänglich erfüllt.
Bei der Konzepterstellung wurden die in der Arbeit gewonnenen wissenschaftlichen Erkenntnisse berücksichtigt und am Beispiel der Vorlesung Digitale Medien 2 umgesetzt. Das Konzept zeigt in der Theorie, wie E-Learning, Blended-Learning und Visualisierungen bei dieser Vorlesung eingesetzt werden können.
Eine Erprobung in der praktischen Anwendung muss zwingend erfolgen, um die im Konzept definierten, operationalisierten Lernziele der Visualisierungen zu bestätigen. Ebenfalls gilt es den Einfluss des Konzepts auf den Lernerfolg von Studierenden an der Hochschule Offenburg zu prüfen.
Diese Arbeit befasst sich mit der Entwicklung von Full-Stack-Anwendungen im Bereich des Internets der Dinge mit JavaScript. Grundlegende Wissensbereiche, die für diese Entwicklung notwendig sind, werden vorgestellt und erklärt. Es werden ausgewählte JavaScript-Frameworks und -Interpreter im Bereich des Internets der Dinge vorgestellt, bewertet und miteinander verglichen. Mikrocontroller und Einplatinencomputer, welche von den vorgestellten JavaScript-Frameworks und -Interpretern unterstützt werden, werden vorgestellt.
Um die Entwicklung von Full-Stack-Anwendungen im Bereich des Internets der Dinge mit JavaScript bewerten zu können wird eine Anwendung zur Erfassung, Speicherung und Darstellung von Umgebungsvariablen mit Moddable SDK und dem MERN-Stack entwickelt. Vor der Entwicklung werden Anforderungen über eine Anforderungsanalyse definiert und die Anwendung konzipiert. Im Anschluss wird die Anwendung anhand der Anforderungen bewertet. Probleme, die während der Entwicklung der Anwendung auftreten, werden zusammen mit möglichen Lösungen vorgestellt und Full-Stack-Anwendungen im Bereich des Internets der Dinge mit JavaScript werden in diesem Schritt evaluiert.
JavaScript ist für die Entwicklung von Mikrocontrollern zum aktuellen Stand noch nicht ausgereift genug, jedoch bestehen aktuelle Anstrengungen die Entwicklung von JavaScript APIs für Embedded Systems zu vereinheitlichen und voranzutreiben. Dadurch hat die Entwicklung von Full-Stack-Anwendungen im Bereich des Internets der Dinge mit JavaScript Zukunftspotenzial.