Refine
Year of publication
- 2019 (208) (remove)
Document Type
- Conference Proceeding (54)
- Part of a Book (37)
- Bachelor Thesis (35)
- Article (unreviewed) (25)
- Article (reviewed) (24)
- Book (15)
- Master's Thesis (15)
- Doctoral Thesis (1)
- Report (1)
- Working Paper (1)
Conference Type
- Konferenzartikel (49)
- Konferenz-Abstract (4)
- Konferenzband (1)
Keywords
- Human Computer Interaction (4)
- Robotik (4)
- Heart rhythm model (3)
- Informatik (3)
- Learning Analytics (3)
- Modeling and simulation (3)
- Psychometrie (3)
- Roboter (3)
- Virtual Reality (3)
- Bildungscontrolling (2)
- Energiemanagement (2)
- IT-Sicherheit (2)
- Interaction metaphor (2)
- Kompetenz (2)
- Kreativität (2)
- Künstliche Intelligenz (2)
- Materialermüdung (2)
- PWA (2)
- Plastizität (2)
- Process engineering (2)
- Programmierung (2)
- Progressive Web App (2)
- Projektmanagement (2)
- Sensor (2)
- Social Robots (2)
- TRIZ (2)
- TRIZ Inventive Principles (2)
- datengestützte Schulentwicklung (2)
- thermomechanische Ermüdung (2)
- 3D interaction (1)
- API (1)
- Affective Computing (1)
- Agentur (1)
- Air Pollution (1)
- Android (1)
- Angular (1)
- Animationen im Web (1)
- Antriebsregelung (1)
- Applikation (1)
- Architektur (1)
- Assekuranz (1)
- Atrial fibrillation (1)
- Automata (1)
- Automated Invention (1)
- Automatisierungstechnik (1)
- Automotive After Market (1)
- Battery storage (1)
- Beweisaufgaben (1)
- Bildverarbeitung (1)
- Biosignals (1)
- Blockchain (1)
- Bluetooth Low Energy (1)
- Bluetooth-Applikation (1)
- Business Intelligence (1)
- COS ERM 2017 (1)
- Car Repair Service Performance (1)
- Cardiac resynchronization therapy (1)
- Collision Avoidance (1)
- Collision avoidance (1)
- Combined heat and power generation (1)
- Computer Aided Design (CAD) (1)
- Computerphysik (1)
- Control Algorithms (1)
- Controller PFC100; 2 x ETHERNET (1)
- Corporate Governance (1)
- Cryoballoon catheter ablation (1)
- Cunninghamella elegans (1)
- Data Integrity (1)
- Data Science (1)
- Datenanalyse (1)
- DevExtreme (1)
- Didaktik (1)
- Digital Storytelling (1)
- Digitale Medien (1)
- Digitalpakt Schule (1)
- Digitalsierung von Schule und Unterricht (1)
- Docker (1)
- Drehstromantrieb (1)
- Drehzahlregelung (1)
- Durchflussmessung von Gasen (1)
- Ecodesign (1)
- Education in Optics and Photonics (1)
- Electricity-coupled heat generation (1)
- Electromagnetic and thermal simulation (1)
- Emotion Recognition (1)
- Energieversorgung (1)
- Engineering Creativity (1)
- Enterprise Resource Planning (1)
- Entwurfsmuster (1)
- Environmental monitoring (1)
- Erfolgsfaktoren (1)
- Event Tracing for Windows (1)
- FSK Wake-Up (1)
- Feldorientierung (1)
- Fingersystem, sensomotorisches controllergesteuertes (1)
- Finite element method (1)
- Flexibilisierung (1)
- Formelsammlung (1)
- Funk (1)
- Funktionsprüfung (1)
- Führungsgrößenkorrektur (1)
- GSL (1)
- GUI (1)
- Gamification (1)
- Gesellschaftsrecht (1)
- Guided waves (1)
- Heat pumps (1)
- Herz-Lungen-Maschine (1)
- Hidden Champions (1)
- High frequency ablation (1)
- History of Technology (1)
- Hot-Spot (1)
- Human Resources (1)
- Hyperledger (1)
- IEEE802.15.4 (1)
- IPv6 (1)
- Ideation Performance (1)
- Infratruktur (1)
- Ink (1)
- Intel (1)
- Intelligent Agents (1)
- Interaktivität (1)
- International Day of Light, IDL (1)
- International Year of Light, IYL (1)
- Internes Kontrollsystem (1)
- Java (1)
- Johann Sebastian Bach (1)
- Kommunalmarketing (1)
- Kommunalpolitik (1)
- Kommunikationspolitik (1)
- Kritische Infrastrukturen (1)
- LabVIEW Programmierung (1)
- Lernvideo (1)
- Logging (1)
- MEAN-Stack (1)
- MPC (1)
- Machine Learning (1)
- Marfan-Syndrom (1)
- Marketing (1)
- Maschinelles Lernen (1)
- Material Flow (1)
- Mathematik (1)
- Mechanik (1)
- Medien-Informatik (1)
- Medien-Konzeption (1)
- Medien-Produktion (1)
- Microsoft dot net (1)
- Mikroservice (1)
- Mikrostruktur (1)
- Mobile Apps (1)
- Mobilität (1)
- Model Predictive Control (1)
- Modeling (1)
- Multimedia (1)
- Multiside heart stimulation (1)
- MySQL (1)
- NPS (1)
- Nickel oxidation (1)
- Numerical simulation (1)
- Numerische Physik (1)
- Obesity (1)
- Odoo (1)
- Online-Marketing (1)
- Open-Source (1)
- Operational flexibility (1)
- Organisation (1)
- Organisationslehre (1)
- PV-Module (1)
- Peak shaving (1)
- Physik (1)
- Predictive Management (1)
- Process innovation (1)
- Progressive Web Apps (1)
- Projektorientierung (1)
- Pulmonary vein isolation (1)
- QFD (1)
- Quality Function Deployment (1)
- RFID (1)
- RFID-/NFC-Ausleseschnittstelle (1)
- RabbitMQ (1)
- Range Imaging (1)
- Range imaging RGB-D (1)
- Real-Time Communication (1)
- Recruiting (1)
- Regelung (1)
- Regelungstechnik (1)
- Regler-Windup (1)
- Rest (1)
- Risikoanalyse (1)
- Risikomanagement (1)
- Risk Assessment (1)
- Robotics (1)
- SEA (1)
- SEO (1)
- SGX (1)
- SOA (1)
- SPS (1)
- SPS-Programmierung (1)
- Schalllokalisation (1)
- Schallquellenlokalisation (1)
- Schulcloud (1)
- Security (1)
- Security Engineering (1)
- Sensopart Kamera: VISOR V20 Robotic Advanced (1)
- Service Worker (1)
- Servqual (1)
- Sign of Hertoghe (1)
- Smart grid (1)
- SmartMAC (1)
- Software Guard Extension (1)
- Software Protection (1)
- Software Security (1)
- Sofwareentwicklung (1)
- Solid oxide electrolyzer cell (1)
- Solid oxide fuel cell (1)
- Soziale Roboter (1)
- Sozialmarketing (1)
- Soziomarketing (1)
- Stadtmarketing (1)
- Station Festo Pick&Place (1)
- Stellgrößenbegrenzung (1)
- Strecken-Windup (1)
- Stromregelung (1)
- Struma (1)
- Substrates (1)
- Suchmaschinenmarketing (1)
- Supraventricular tachycardia (1)
- Surface acoustic waves (1)
- Sustainable Innovation (1)
- Synergie (1)
- Sägemaschinen (1)
- TCP/IP, Modbus-TCP (1)
- Technikakzeptanz (1)
- Technology Acceptance (1)
- Telemetry (1)
- Telepresence (1)
- Testablauf (1)
- Theoretische Physik (1)
- Threat Modeling (1)
- Threat-Modelling (1)
- Timing Attacks (1)
- Toolkit (1)
- Tourism (1)
- Transesophageal left atrial pacing (1)
- Ultra-Low Energy (1)
- Ultra-Low Power (1)
- Unternehmensübernahme (1)
- Unterricht (1)
- User Acceptance (1)
- Verkehr (1)
- Vermessung des Menschen (1)
- Verschleißprüfung (1)
- Versicherungsmarkt (1)
- Versicherungswirtschaft (1)
- Virtual power plants (1)
- Visual Components (1)
- Vitalparametern bei Kleinstlebewesen (1)
- Vue (1)
- Wake-Up Receiver (1)
- Web-Entwicklung (1)
- Webassembly (1)
- Webentwicklung (1)
- Website (1)
- Wedge waves (1)
- Windows (1)
- Zentrale Sauerstoffversorgung (1)
- Zustandsregler (1)
- building management systems (1)
- color vision (1)
- display technologies (1)
- energy harvesting (1)
- fungi (1)
- home automation (1)
- irrigation (1)
- kybernetische Pädagogik (1)
- metabolism (1)
- nicht-invasives Messsystem (1)
- optics and photonics (1)
- printed Antennas (1)
- prädiktive Wartung (1)
- research-oriented education (1)
- scroll-activated animation (1)
- tryptamines (1)
- universal Roboter UR5e (1)
- wireless sensor networks (1)
- zeitdiskreter PI-Zustandsregler (1)
- Ökonomisierung von Schule und Untericht (1)
- „Eiserne Hand“ des Götz von Berlichingen (1)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (94)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (51)
- Fakultät Wirtschaft (W) (27)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (22)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (11)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (8)
- INES - Institut für nachhaltige Energiesysteme (6)
- ACI - Affective and Cognitive Institute (4)
- CRT - Campus Research & Transfer (4)
- WLRI - Work-Life Robotics Institute (3)
Open Access
- Closed Access (208) (remove)
The development of secure software systems is of ever-increasing importance. While software companies often invest large amounts of resources into the upkeeping and general security properties of large-scale applications when in production, they appear to neglect utilizing threat modeling in the earlier stages of the software development lifecycle. When applied during the design phase of development, and continuously throughout development iterations, threat modeling can help to establish a "Secure by Design" approach. This approach allows issues relating to IT security to be found early during development, reducing the need for later improvement – and thus saving resources in the long term. In this paper the current state of threat modeling is investigated. This investigation drove the derivation of requirements for the development of a new threat modelling framework and tool, called OVVL. OVVL utilizes concepts of established threat modeling methodologies, as well as functionality not available in existing solutions.
Auf Grundlage der Computer-Aided-Design (CAD)-rekonstruierten ersten „Eisernen Hand“ des Götz von Berlichingen wird ein umgebautes, controllergesteuertes sensomotorisches Fingersystem auf seine Funktionalität beim Greifen von unterschiedlichen Gegenständen beschrieben und geprüft. Die elektronischen Finger, die den „Pinzettengriff“ nachahmen und automatisch bei dem zuvor eingestellten Anpressdruck abschalten, bewiesen eine bemerkenswerte Alltagstauglichkeit. Das vorgestellte Grundkonzept könnte eine Alternative bei der Entwicklung einfacher und kostengünstiger, aber dennoch gut einsatzfähiger bionischer Hände sein und zeigt einmal mehr, wie historische Ideen in die Gegenwart transferiert werden können.
The Internet of Things (IoT) application has becoming progressively in-demand, most notably for the embedded devices (ED). However, each device has its own difference in computational capabilities, memory usage, and energy resources in connecting to the Internet by using Wireless Sensor Networks (WSNs). In order for this to be achievable, the WSNs that form the bulk of the IoT implementation requires a new set of technologies and protocol that would have a defined area, in which it addresses. Thus, IPv6 Low Power Area Network (6LoWPAN) was designed by the Internet Engineering Task Force (IETF) as a standard network for ED. Nevertheless, the communication between ED and 6LoWPAN requires appropriate routing protocols for it to achieve the efficient Quality of Service (QoS). Among the protocols of 6LoWPAN network, RPL is considered to be the best protocol, however its Energy Consumption (EC) and Routing Overhead (RO) is considerably high when it is implemented in a large network. Therefore, this paper would propose the HRPL to enchance the RPL protocol in reducing the EC and RO. In this study, the researchers would present the performance of RPL and HRPL in terms of EC, Control traffic Overhead (CTO) and latency based on the simulation of the 6LoWPAN network in fixed environment using COOJA simulator. The results show HRPL protocol achieves better performance in all the tested topology in terms of EC and CTO. However, the latency of HRPL only improves in chain topology compared with RPL. We found that further research is required to study the relationship between the latency and the load of packet transmission in order to optimize the EC usage.
Radio frequency identification (RFID) antennas are popular for high frequency (HF) RFID, energy transfer and near field communication (NFC) applications. Particularly for wireless measurement systems the RFID/NFC technology is a good option to implement a wireless communication interface. In this context, the design of corresponding reader and transmitter antennas plays a major role for achieving suitable transmission quality. This work proves the feasibility of the rapid prototyping of a RFID/NFC antenna, which is used for the wireless communication and energy harvesting at the required frequency of 13.56 MHz. A novel and low-cost direct ink writing (DIW) technology utilizing highly viscous silver nanoparticle ink is used for this process. This paper describes the development and analysis of low-cost printed flexible RFID/NFC antennas on cost-effective substrates for a microelectronic vital parameter measurement system. Furthermore, we compare the measured technical parameters with existing copper-based counterparts on a FR4 substrate.
The monitoring of industrial environments ensures that highly automated processes run without interruption. However, even if the industrial machines themselves are monitored, the communication lines are currently not continuously monitored in todays installations. They are checked usually only during maintenance intervals or in case of error. In addition, the cables or connected machines usually have to be removed from the system for the duration of the test. To overcome these drawbacks, we have developed and implemented a cost-efficient and continuous signal monitoring of Ethernet-based industrial bus systems. Several methods have been developed to assess the quality of the cable. These methods can be classified to either passive or active. Active methods are not suitable if interruption of the communication is undesired. Passive methods, on the other hand, require oversampling, which calls for expensive hardware. In this paper, a novel passive method combined with undersampling targeting cost-efficient hardware is proposed.
A novel Bluetooth Low Energy advertising scan algorithm is presented for hybrid radios that are additionally capable to measure energy on Bluetooth channels, e.g. as they would need to be compliant with IEEE 802.15.4. Scanners applying this algorithm can achieve a low latency whilst consuming only a fraction of the power that existing mechanisms can achieve at a similar latency. Furthermore, the power consumption can scale with the incoming network traffic and in contrast to the existing mechanisms, scanners can operate without any frame loss given ideal network conditions. The algorithm does not require any changes to advertisers, hence, stays compatible with existing devices. Performance evaluated via simulation and experiments on real hardware shows a 37 percent lower power consumption compared to the best existing scan setting while even achieving a slightly lower latency which proves that this algorithm can be used to improve the quality of service of connection-less Bluetooth communication or reduce the connection establishment time of connection-oriented communication.
High temperature components in internal combustion engines and exhaust systems must withstand severe mechanical and thermal cyclic loads throughout their lifetime. The combination of thermal transients and mechanical load cycling results in a complex evolution of damage, leading to thermomechanical fatigue (TMF) of the material. Analytical tools are increasingly employed by designers and engineers for component durability assessment well before any hardware testing. The DTMF model for TMF life prediction, which assumes that micro-crack growth is the dominant damage mechanism, is capable of providing reliable predictions for a wide range of high-temperature components and materials in internal combustion engines. Thus far, the DTMF model has employed a local approach where surface stresses, strains, and temperatures are used to compute damage for estimating the number of cycles for a small initial defect or micro-crack to reach a critical length. In the presence of significant gradients of stresses, strains, and temperatures, the use of surface field values could lead to very conservative estimates of TMF life when compared with reported lives from hardware testing. As an approximation of gradient effects, a non-local approach of the DTMF model is applied. This approach considers through-thickness fields where the micro-crack growth law is integrated through the thickness considering these variable fields. With the help of software tools, this method is automated and applied to components with complex geometries and fields. It is shown, for the TMF life prediction of a turbocharger housing, that the gradient correction using the non-local approach leads to more realistic life predictions and can distinguish between surface cracks that may arrest or propagate through the thickness and lead to component failure.
When designing and installing Indoor Positioning Systems, several interrelated tasks have to be solved to find an optimum placement of the Access Points. For this purpose, a mathematical model for a predefined number of access points indoors is presented. Two iterative algorithms for the minimization of localization error of a mobile object are described. Both algorithms use local search technique and signal level probabilities. Previously registered signal strengths maps were used in computer simulation.
This paper presents the use of model predictive control (MPC) based approach for peak shaving application of a battery in a Photovoltaic (PV) battery system connected to a rural low voltage gird. The goals of the MPC are to shave the peaks in the PV feed-in and the grid power consumption and at the same time maximize the use of the battery. The benefit to the prosumer is from the maximum use of the self-produced electricity. The benefit to the grid is from the reduced peaks in the PV feed-in and the grid power consumption. This would allow an increase in the PV hosting and the load hosting capacity of the grid.
The paper presents the mathematical formulation of the optimal control problem
along with the cost benefit analysis. The MPC implementation scheme in the
laboratory and experiment results have also been presented. The results show
that the MPC is able to track the deviation in the weather forecast and operate
the battery by solving the optimal control problem to handle this deviation.
A Novel Approach of High Dynamic Current Control of Interior Permanent Magnet Synchronous Machines
(2019)
Harmonic-afflicted effects of permanent magnet synchronous machines with high power density are hardly faced by traditional current PI controllers, due to limited controller bandwidth. As a consequence, currents and lastly torque ripples appear. In this paper, a new deadbeat current controller architecture has been presented, which is capable to encounter the effects of these harmonics. This new control algorithm, here named “Hybrid-Deadbeat-Controller”, combines the stability and the low steady-state errors offered by common PI regulators with the high dynamic offered by the deadbeat control. Therefore, a novel control algorithm is proposed, capable of either compensating the current harmonics in order to get smoother currents or to control a varying reference value to achieve a smoother torque. The information needed to calculate the optimal reference currents is based on an online parameter estimation feeding an optimization algorithm to achieve an optimal torque output and will be investigated in future research. In order to ensure the stability of the controller over the whole area of operation even under the influence of effects changing the system’s parameter, this work as well focusses on the robustness of the “hybrid” dead beat controller.
Robots and automata are key elements of every vision and forecast of life in the near and distant future. However, robots and automata also have a long history, which reaches back into antiquity. Today most historians think that one of the key roles of robots and automata was to amaze or even terrify the audience: They were designed to express something mythical, magical, and not explainable. Moreover, the visions of robots and their envisioned fields of application reflect the different societies. Therefore, this short history of robotics and (especially) anthropomorphic automata aims to give an overview of several historical periods and their perspective on the topic. In a second step, this work aims to encourage readers to reflect on the recent discussion about fields of application as well as the role of robotics today and in the future.
The fast and cost-effective manufacturing of tools for thermoforming is an essential requirement to shorten the development time of products. Thus, additive processes are used increasingly in tooling for thermoforming of plastic sheets. However, a disadvantage of many additive methods is that they are highly cost-intensive, since complex systems based on laser technology and expensive metal powders are needed. Therefore, this paper examines how to work with favorable additive methods, e.g. Binder Jetting, to manufacture tools, which provide sufficient strength for thermoforming. The use of comparatively low-priced inkjet technology for the layer construction and a polymer plaster as material can be expected to result in significant cost reductions. Based on a case study using a cowling (engine bonnet) for an Unmanned Aerial Vehicle (UAV), the development of a complex tool for thermoforming is demonstrated. The object in this study is to produce a tool for a complex-shaped component in small numbers and high quality in a short time and at reasonable costs. Within the tooling process, integrated vacuum channels are implemented in additive tooling without the need for additional post-processing (for example, drilling). In addition, special technical challenges, such as the demolding of undercuts or the parting of the tool are explained. All process steps from tool design to the use of the additively manufactured tool are analyzed. Based on the manufacturing of a small series of cowlings for a UAV made of plastic sheets (ABS), it is shown, that the Binder Jetting offers sufficient mechanical and thermal strength for additive tooling. In addition, an economic evaluation of the tool manufacturing and a detailed consideration of the required manufacturing times for the different process steps are carried out. Finally, a comparison is made with conventional and alternative additive methods of tooling.
What emotional effects does gamification have on users who work or learn with repetitive tasks? In this work, we use biosignals to analyze these affective effects of gamification. After a brief discussion of related work, we describe the implementation of an assistive system augmenting work by projecting elements for guidance and gamification. We also show how this system can be extended to analyse users' emotions. In a user study, we analyse both biosignals (facial expressions and electrodermal activity), and regular performance measures (error rate and task completion time).
For the performance measures, the results confirm known effects like increased speed and slightly increased error rate. In addition, the analysis of the biosignals provides strong evidence for two major affective effects: the gamification of work and learning tasks incites highly significantly more positive emotions and increases emotionality altogether. The results add to the design of assistive systems, which are aware of the physical as well as the affective context.
Analyse der Anwendbarkeit des Dynamische Fähigkeiten-Konzepts am Beispiel von Großhandelsunternehmen
(2019)
Eine Anpassung aufgrund sich schnell verändernder Geschäftsumgebungen an aktuelle Gegebenheiten ist für alle Unternehmen sowohl in der freien Wirtschaft als auch staatlichen Ursprungs relevant. Diese kann durch starke dynamische Fähigkeiten der involvierten Unternehmen erfolgen. Zur Validierung des theoretischen Konzepts der dynamischen Fähigkeiten werden Großhandelsunternehmen herangezogen und deren Unternehmensaktivitäten im Hinblick auf die erste dynamische Fähigkeit in Gesprächen ermittelt. Die Ausführungen der vier Großhändler zielen in einem ersten Teil darauf ab, die grundsätzliche Anwendbarkeit des Konzepts in der Praxis zu bestätigen. In einem zweiten Teil wird analysiert in welchem Umfang sie für die betrachtete Branche beschrieben werden kann. Es zeigt sich, dass das Dynamische Fähigkeiten-Konzept nicht ohne Einschränkungen auf die Praxis übertragen werden kann, wenngleich die Ausprägungen dem Konzept zugrundeliegender Elemente bei allen Firmen ähnlich sind. Trotz dieser Ähnlichkeit konnten keine festen Muster bzw. Interdependenzen erkannt werden, die die Integration, den Aufbau und/oder die Neukonfiguration von Fähigkeiten zuverlässig fördern. Die Resultate ermöglichen es dennoch in einem letzten Teil zu beurteilen, welche Indikatoren eine Basis zur strategischen Anpassung an den Strukturwandel schaffen. Sie sind Teil der formulierten Hypothesen zu den einzelnen Elementen der ersten dynamischen Fähigkeit. Mit der Summe der Erkenntnisse konnte in gewisser Hinsicht eine Transparenz des Konzepts erreicht werden – mit Hilfe des entwickelten Interviewleitfadens kann analog zum Vorgehen in dieser Arbeit für die zweite und dritte dynamische Fähigkeit verfahren werden, sodass in einem breiteren Kontext erneut eine Aussage über die Anwendbarkeit des Konzepts getroffen werden kann.
Synergieprognosen spielen bei der Begründung von Unternehmensübernahmen regelmäßig eine wichtige Rolle. Da diese Prognosen unsicher sind, bedürfen sie einer fundierten Beurteilung, was wiederum eine offene Diskussion innerhalb von Vorstand und Aufsichtsrat voraussetzt. Solche Diskussionen sind jedoch keine Selbstverständlichkeit, da Gruppen dazu neigen, problematische Entscheidungsaspekte nicht angemessen zu würdigen. Mit dem Tornado-Diagramm wird ein Instrument vorgestellt, das diesem Effekt entgegenwirkt und die Entscheider dazu motiviert, auch ungünstige Synergieprognosen zu diskutieren. Auf diese Weise kann die Übernahmeentscheidung auf eine bessere Informationsgrundlage gestellt werden.
Intels Software Guard Extension (SGX) ist eine Technologie, die einen umfassenden Datenschutz verspricht. SGX wurde 2013 als Softwaremodell für die isolierte Ausführung von Anwendungen veröffentlicht.
Mit Intel SGX können Container in einem geschützten Speicherbereich erstellt werden. Diese Container werden Enclave genannt. Es ist nicht möglich den Speicher-
bereich der Enclave auszulesen oder in ihn zu schreiben. Die Enclave soll Integrität und Verfügbarkeit der Daten sicherstellen, auch wenn diese auf einem nicht vertrauenswürdigen Host ausgeführt werden.
In dieser Arbeit soll zunächst ein Überblick über die Funktionsweise und das Potenzial von Intel Software Guard Extension gegeben werden. Vor allem soll analysiert werden
wie Datenbanken mit Hilfe von SGX gesichert werden können und wie groß die Performance einbüßen mit SGX sind.
Aufbauend auf den Grundlagen von Intel SGX und EnclaveDB soll anschließend eine sichere Datenbank erstellt werden. Hierzu wird EnclaveDB von Microsoft analysiert und auf Basis dieser Datenbank eine neue Datenbank erschaffen, die Daten verschlüsselt in der Datenbank speichert ohne, dass diese in Klartext vom Host ausgelesen werden können. Zum Schluss wird die Performance von EnclaveDB und der erstellten Datenbank so gut es geht verglichen.
In dieser Arbeit wird die Funktionsweise, Standardisierung und Verwundbarkeit der Technologien RFID und NFC behandelt. Es wird gezeigt welche Angriffe existieren und wie man sich dagegen schützen kann. Es wird ein Überblick über einige in der Praxis verwendete Protokolle sowie deren Sicherheit gegeben. Außerdem werden grundlegende Fragen beantwortet, die man sich bei Auseinandersetzung mit dieser Technologie stellt (z.B. Reichweiten).
Audio over IP
(2019)
Der Wandel im Bereich Tontechnik geht stetig weiter. Was vor über 100 Jahren begann, entwickelt sich heutzutage rasend voran. Das Ziel immer vor Augen: Ein Audiosignal soll in bestmöglichster Qualität, möglichst mit einer geringen Datenmenge, in kürzester Zeit von A nach B transportiert und anschließend konserviert werden.
Durch die Digitalisierung werden auch hier völlig neue Anwendungsbereiche und Szenarien ermöglicht, die weit über das klassische Recording oder die Studioinfrastruktur hinausgehen. Die Rede ist zum Beispiel von Klanginstallationen oder Konferenzszenarien. Audionetzwerke bieten durch die Nutzung beliebiger Quellen und Senken in der Produktionsumgebung eine signifikant flexiblere Signalverteilung, als dies noch mit klassischen Verteilern und Steckfeldern möglich war. Übertragungen und Vernetzungen in mehreren Gebäuden sind hiermit kein Problem. Allerdings unterscheidet sich diese Technologie in Punkto Stabilität, Datenrate, Netzwerk-Layer & Qualität deutlich von seinem Pendant, dem Internetstreaming.
Die Funkschnittstelle nach dem Bluetooth Standard ist heutzutage nicht mehr aus dem Consumer-Markt wegzudenken. Auch durch die zukünftige Weiterentwicklung des Prinzips von IoT (Internet of Things) wird vor allem die Bluetooth Low Energy Technologie für Unternehmen bei der Entwicklung von Geräten mehr an Bedeutung gewinnen. Um die Studierenden im Bereich der Kommunikationstechnik auf das Thema Bluetooth vorzubereiten, wird der Versuch „Kurzstreckenkommunikation nach dem Bluetooth Standard“ im Telekommunikations-Labor an der Hochschule Offenburg angeboten. Der Versuch wurde im Rahmen dieser Bachelor-Thesis an die heutigen Anforderungen angepasst.
Die nachfolgende Bachelor-Thesis beinhaltet die gesamte Laboranleitung des Versuchs, welche in die drei Teile: Theoretische Grundlagen, vorbereitende Aufgaben und der Versuchsdurchführung aufgeteilt wird. Der Versuchsanleitung folgt ein Teil mit weiteren Anmerkungen für die akademischen Mitarbeiter, welche den Versuch betreuen. Hier wird sichergestellt, dass auch in Zukunft der Versuch problemlos weiter durchgeführt werden kann. Im Anhang befinden sich die Musterlösungen für die vorbereitentenden Aufgaben und der Versuchsdurchführung.
Aufbau/Ansteuerung/Kalibrierung/Pilotierung eines Lautsprecher-Halbkreises für Lokalisationstests
(2019)
Seit September 2018 ist die Hochschule Offenburg im Besitz einer Hörkabine, in der ein Schallquellenlokalisationstest im Rahmen dieser Bachelorarbeit aufgebaut wurde. Eine Schallquellenlokalisation ist im Alltag für Normalhörende in den meisten Fällen keine Schwierigkeit. Wir Menschen sind in der Lage mit einer Genauigkeit von 1° bis 2° eine Schallquelle zu lokalisieren (Feigenspan 2017,S.624). Entfällt jedoch das Hörvermögen auf einer Seite, so verschlechtert sich die Lokalisationsfähigkeit erheb-lich. Um Schallquellen präzise lokalisieren zu können, werden optimaler Weise beide Ohren benötigt. Heutzutage gibt es viele Hörsysteme, um diverse Hörstörungen zu therapieren. Den-noch bleibt die Lokalisationsfähigkeit für Menschen mit einseitiger Taubheit, bezie hungsweise asymmetrischen Hörverlust eine Herausforderung. Ein Schallquellenlo kalisationstest findet Anwendung in der Klinik, um eine bestmögliche Versor gung/Therapie durch Hörsysteme zu gewährleisten. Ziel dieser Bachelorarbeit war der Aufbau eines Lokalisationstestes nach Leitlinien einer wissenschaftlichen Publikation, sowie die Durchführung an fünf freiwilligen Normalhörenden. Die Realisierung umfasste den Aufbau der Lautsprecher, die An-steuerung mithilfe einer externen Soundkarte und MATLAB, eine Kalibrierung der Lautsprecher und die Durchführung der Tests.
Auswahl von elektrischen Antriebskomponenten zur Elektrifizierung des Antriebes eines „Tuk-Tuks“
(2019)
Die vorliegende Abschlussarbeit handelt von einem Tuk-Tuk. Im Ausgangszustand ist dieses mit einem 1-Zylinder Ottomotor versehen.
Im Rahmen eines Hochschulprojektes wird dieser Motor durch einen Elektromotor ersetzt. Ziel dieser Thesis ist es, einen passenden Motor zu finden. Dabei soll eine Auslegung erarbeitet werden, die es ermöglicht, sämtliche Widerstandskräfte zu berechnen und daraus auf die notwendigen Antriebsleistungen bzw. Drehmomente zu schließen. Im Anschluss daran kann eine Aussage getroffen werden, ob der Elektromotor die gewünschten Anforderungen erfüllt.
Mit Hilfe eines Präzisionsmessplatzes soll es ermöglicht werden, automatisierte Tests mit optischen Distanzsensoren der Firma SICK durchzuführen. Hierbei handelt es sich um applikationsbezogene Vergleichsmessungen. Für die Realisierung einer erweiterbaren, automatischen Ansteuerung wird mit LabVIEW eine Software entwickelt, die unterschiedliche Distanzsensoren für Displacement Anwendungen (kurze Reichweite) einbindet. Zur Bewertung von Sensoren werden unterschiedliche Messmodi bereitgestellt. Hierbei werden motorisierte Linearachsen angesteuert, wodurch dynamische 2D-, bzw. 3D Messungen von unterschiedlichen Materialproben ermöglicht werden. Außerdem können Messergebnisse verschiedener Materialproben visuell verglichen werden. Des Weiteren besteht die Möglichkeit, aufgenommene Messdaten zu exportieren.
Mit der realisierten Ansteuerungssoftware ist es möglich, in Zukunft Mitarbeiter der global agierenden Sales & Service Units ressourcenschonend und in einem anwendungsbezogenen Kontext in die Benutzung und Bewertung von Dis-placementsensoren einzuarbeiten. Für diese Maßnahme der betrieblichen Weiterbildung ist eine Lerneinheit konzipiert. Hier geht es hauptsächlich darum, dass Mitarbeiter die Eigenschaften und Konfigurationsmöglichkeiten von Displacementsensoren verstehen und für unterschiedliche Testobjekte anwenden. Für die Lerneinheit sind Unterrichtsmaterialien erstellt sowie ein vollständiger Unterrichtsentwurf erarbeitet. Der Unterrichtsentwurf orientiert sich an dem Perspektivenschema nach Klafki (vgl. 1994, S. 270ff.).
Medical devices accompany our everyday life and come across in situations of worse condition, in significant moments concerning the health or during routine checkups. To ensure flawless operations and error-free results it is essential to test applications and devices. High risks for patient’s health come with operating errors [33] so that the presented research project, called Professional UX, identifies signals and irritations caused by the interaction with a certain device by analyzing mimic, voice and eye tracking data during user experience tests. Besides, this paper will provide information on typical errors of interactive applications which are based on an empirical lab-based survey and the evaluated results achieved. The pictured proceeding of user experience tests and the following analysis can also be applied to other fields and serves as a support for the optimization of products and systems.
In many application domains, in particular automotives, guaranteeing a very low failure rate is crucial to meet functional and safety standards. Especially, reliable operation of memory components such as SRAM cells is of essential importance. Due to aggressive technology downscaling, process and runtime variations significantly impact manufacturing yield as well as functionality. For this reason, a thorough memory failure rate assessment is imperative for correct circuit operation and yield improvement. In this regard, Monte Carlo simulations have been used as the conventional method to estimate the variability induced failure rate of memory components. However, Monte Carlo methods become infeasible when estimating rare events such as high-sigma failure rates. To this end, Importance Sampling methods have been proposed which reduce the number of required simulations substantially. However, existing methods still suffer from inaccuracies and high computational efforts, in particular for high-sigma problems. In this paper, we fill this gap by presenting an efficient mixture Importance Sampling approach based on Bayesian optimization, which deploys a surface model of the objective function to find the most probable failure points. Its advantages include constant complexity independent of the dimensions of design space, the potential to find the global extrema, and higher trustworthiness of the estimated failure rate by accurately exploring the design space. The approach is evaluated on a 6T-SRAM cell as well as a master-slave latch based on a 28nm FDSOI process. The results show an improvement in accuracy, resulting in up to 63× better accuracy in estimating failure rates compared to the best state-of-the-art solutions on a 28nm technology node.
Angesichts des verschärften intermedialen Wettbewerbs stellt sich die Frage, wie Medienunternehmen und Verlage künftig mit ihren Print- und Digitalangeboten den Bedürfnissen ihrer Kunden gerecht werden können. Es geht dabei um die Möglichkeiten, mit Abonnementangeboten und Bundles News und journalistische Inhalte aufzubereiten und so anzubieten, dass sie einen maximalen Nutzen stiften und marktfähig sind.
Diese Bachelorarbeit befasst sich mit der Integration von Storytelling in der Unternehmenskommunikation mittelständischer Unternehmen und analysiert, welche Bedeutung dem Einsatz von Storytelling zur Lead-Generierung, zugesprochen werden kann. Dabei wird die Wirkungsweise von Storytelling näher betrachtet und mit dem unternehmerischen Nutzen in Verbindung gebracht.
Die Arbeit bietet einen Überblick über die Kommunikationsabläufe eines Unternehmens und nimmt den Leadgenerierungsprozess unter die Lupe. Unter Berücksichtigung der besonderen Rahmenbedingungen, die sich für mittelständische Unternehmen ergeben, werden Berührungspunkte und Zusammenhänge erarbeitet, die eine Integration von Storytelling in den Leadgenerierungsprozess ermöglichen. Die Betrachtung der Rolle von Storytelling, sowohl auf der operativen als auch auf der strategischen Ebene, verdeutlicht dabei die unterschiedlichen Integrationsstufen, die sich für den Storytelling-Einsatz ergeben können. Ein abschließender Ausblick, bei dem die Herausforderungen des Mittelstandes erörtert werden, soll auf die Bedeutung des Storytellings in der nahen Zukunft eingegangen werden.
Wer sich als Pädagoge und Wissenschaftler mit dem Thema „Digitalisierung und Schule“ befasst, stellt fest, dass nur Wenige die Tragweite der beabsichtigten Transformation von Bildungseinrichtungen zu automatisierten, algorithmisch gesteuerten Lernfabriken realisieren. Dabei wird übersehen, dass mit Theorien und empirischen Modellen wie der „datengestützten Schulentwicklung“ und „Learning Analytics“ grundlegende Paradigmenwechsel verbunden sind, die das humane wie das christliche Menschenbild erschüttern. Mit Kybernetik und Behaviorismus auf der einen, mit der sogenannten „Künstlichen Intelligenz“ (KI) und darauf aufbauenden Geschäftsmodellen der Datenökonomie auf der anderen Seite, untergraben diese Beschulungsmodelle die Autonomie, das Selbstbestimmungsrecht und die Handlungsfreiheit des Menschen. Vertreter dieser Disziplinen behaupten, dass sowohl der einzelne Mensch wie Sozialgemeinschaften wie Maschinen programmiert und gesteuert werden können. Sie blenden aus, dass Mündigkeit und Selbstverantwortung das Ziel von Schule und Unterricht sind, nicht maschinell berechnete Verhaltenssteuerung und -manipulation. Diese Fehlentwicklungen sind nicht der Technik an sich geschuldet, die sich anders einsetzen ließe, sondern den Geschäftsmodellen der IT-Anbieter.
Brückenkurs Physik
(2019)
Dieses Lehrbuch fasst alle wesentlichen, für das Studium eines MINT-Faches relevanten Inhalte der Physik zusammen und hilft physikalisches Grundwissen aufzufrischen. Es unterstützt Studienanfänger dabei, die Routine in der konkreten Anwendung, die an der Hochschule vorausgesetzt wird, zu festigen. Dabei folgt die Stoffauswahl dem Mindestanforderungskatalog Physik, den ein Arbeitskreis aus Professoren der baden-württembergischen Hochschulen für angewandte Wissenschaften zusammengestellt hat.
Besides of conventional CAD systems, new, cloud-based CAD systems have also been available for some years. These CAD systems designed according to the principle of software as a service (SaaS) differ in some important features from the conventional CAD systems. Thus, these CAD systems are operated via a browser and it is not necessary to install the software on a computer. The CAD-data is stored in the cloud and not on a local computer or central server. This new approach should also facilitate the sharing and management of data. Finally, many of these new CAD systems are available as freeware for education purposes, so the universities can save license costs. This contribution examines newly developed, cloud-based CAD systems. In the context of a case study, the application of these new CAD systems are investigated in the training of engineers in design education. Thus, the students compare a conventional and a cloud-based CAD system as part of an exercise of designing and 3D modelling of a pinion shaft. Subsequently, the students manufacture a drawing with different views of the pinion shaft. This assessment evaluates different criteria such as user-friendliness, tutorial support and installation effort.
Classification of TRIZ Inventive Principles and Sub-Principles for Process Engineering Problems
(2019)
The paper proposes a classification approach of 40 Inventive Principles with an extended set of 160 sub-principles for process engineering, based on a thorough analysis of 155 process intensification technologies, 200 patent documents, 6 industrial case studies applying TRIZ, and other sources. The authors define problem-specific sub-principles groups as a more precise and productive ideation technique, adaptable for a large diversity of problem situations, and finally, examine the anticipated variety of ideation using 160 sub-principles with the help of MATCEM-IBD fields.
Protecting software from illegal access, intentional modification or reverse engineering is an inherently difficult practical problem involving code obfuscation techniques and real-time cryptographic protection of code. In traditional systems a secure element (the "dongle") is used to protect software. However, this approach suffers from several technical and economical drawbacks such as the dongle being lost or broken.
We present a system that provides such dongles as a cloud service, and more importantly, provides the required cryptographic material to control access to software functionality in real-time.
This system is developed as part of an ongoing nationally funded research project and is now entering a first trial stage with stakeholders from different industrial sectors.
Cast aluminum alloys are frequently used as materials for cylinder head applications in internal combustion gasoline engines. These components must withstand severe cyclic mechanical and thermal loads throughout their lifetime. Reliable computational methods allow for accurate estimation of stresses, strains, and temperature fields and lead to more realistic Thermomechanical Fatigue (TMF) lifetime predictions. With accurate numerical methods, the components could be optimized via computer simulations and the number of required bench tests could be reduced significantly. These types of alloys are normally optimized for peak hardness from a quenched state that maximizes the strength of the material. However due to high temperature exposure, in service or under test conditions, the material would experience an over-ageing effect that leads to a significant reduction in the strength of the material. To numerically account for ageing effects, the Shercliff & Ashby ageing model is combined with a Chaboche-type viscoplasticity model available in the finite-element program ABAQUS by defining field variables. The constitutive model with ageing effects is correlated with uniaxial cyclic isothermal tests in the T6 state, the overaged state, as well as thermomechanical tests. On the other hand, the mechanism-based TMF damage model (DTMF) is calibrated for both T6 and over-aged state. Both the constitutive and the damage model are applied to a cylinder head component simulating several cycles on an engine dynamometer test. The effects of including ageing for both models are shown.
Das Geschäftsgeheimnisgesetz - Praxisrelevante Aspekte der Umsetzung der EU Richtlinie 2016/943
(2019)
Geschäftsgeheimnisse sind wertvoll. Mit dem neuen Geschäftsgeheimnisgesetz vom 18.4.2019 (Gesetz zum Schutz von Geschäftsgeheimnissen – GeschGehG, BGBl. I 2019, 466) ist die Know-how-Richtlinie (Richtlinie (EU) 2016/943 des Europäischen Parlaments und des Rates vom 8.6.2016 über den Schutz vertraulichen Know-hows und vertraulicher Geschäftsinformationen vor rechtswidrigem Erwerb sowie rechtswidriger Nutzung und Offenlegung) umgesetzt. Der bisher dezentral und weitgehend unspezifiziert (§§ 823 ff., 826, 1004 BGB) bestehende Geheimnisschutz ist nunmehr einheitlich und übersichtlich zusammengefasst. Stefan Ernst gibt einen Überblick über die Neuerungen gegenüber der bisherigen Rechtslage und Anhaltspunkte für Handlungsbedarf bei betroffenen Unternehmen.
Unternehmen erzielen durch den Einsatz von Big Data-Analyse bereits heute eine Umsatzsteigerung, bei gleichzeitiger Kostensenkung. Trotzdem setzen lediglich 36% der mittelständischen Unternehmen in Deutschland auf Big-Data Initiativen. Diese Unternehmen sind sich nicht bewusst, welchen Datenschatz sie bereits besitzen, allerdings nicht gewinnbringend nutzen.
Ziel der Arbeit ist es, die Herausforderungen mit denen Unternehmen in der digitalen Transformation konfrontiert werden, sowie die Chancen, die sich durch den Einsatz von Datenanalyse ergeben, herauszuarbeiten.
Die Arbeit stellt einen Leitfaden für kleine und mittelständische Unternehmen dar, die erste Erfahrungen mit Big Data-Analytics machen möchten.
Walking interfaces offer advantages in navigation of VE systems over other types of locomotion. However, VR helmets have the disadvantage that users cannot see their immediate surroundings. Our publication describes the prototypical implementation of a virtual environment (VE) system, capable of detecting possible obstacles using an RGB-D sensor. In order to warn users of potential collisions with real objects while they are moving throughout the VE tracking area, we designed 4 different visual warning metaphors: Placeholder, Rubber Band, Color Indicator and Arrow. A small pilot study was carried out in which the participants had to solve a simple task and avoid any arbitrarily placed physical obstacles when crossing the virtual scene. Our results show that the Placeholder metaphor (in this case: trees), compared to the other variants, seems to be best suited for the correct estimation of the position of obstacles and in terms of the ability to evade them.
Die vorliegende Arbeit befasst sich mit der Fragestellung, inwiefern sich der Einsatz und die Produktion von Lernvideos an baden-württembergischen Berufsschulen aus der Per-spektive von Lehrpersonen auf Lehr- und Lernprozesse auswirken. Auf den ersten Blick ein sehr fokussierter Blick auf ein Randthema, auf eine von vielen didaktischen Möglich-keiten des Unterrichtens. Lernvideos – also irgendeine Methode, die sich aus den tech-nischen Möglichkeiten der digitalen Medien ergeben und eine zeitgemäße Weiterent-wicklung von Overhead-Projektor und Lehrbuch bedeuten. Dies wäre ein sehr verkürzter Blick, ja ein falscher auf dieses Thema. Nicht die technische Umsetzung, nicht die Er-gänzung des didaktischen Methodenpools steht im Vordergrund. Es geht um eine ganz grundsätzliche Sicht auf das Lehren und Lernen an Schulen, um die Kompetenzen, die bei den Schülern als output angestrebt werden, um die Anforderungen und Erwartun-gen welche die Gesellschaft – und vor allem die Arbeitswelt - zukünftig an die heran-wachsenden Generationen stellt.
DigitalPakt Schule der Bundesregierung , Industrie 4.0 , Berufsbildung 4.0 sind neue und umfassende Programme, um einen weiteren großen Schritt bei der so genannten digitalen Revolution zu gehen. Digitale Kompetenz, so formuliert das zuständige Minis-terium für Bildung und Forschung zur Begründung des DigitalPakts Schule, ist
„[…] von entscheidender Bedeutung für jeden und jede Einzelne, um digitale Medien selbst-bestimmt und verantwortungsvoll nutzen zu können und um gute Chancen auf dem Ar-beitsmarkt zu haben; und für die Gesellschaft, um Demokratie und Wohlstand im 21. Jahr-hundert zu erhalten.“
Auch innerhalb des Schulsystems wird seit langem geforscht und werden Handlungsempfehlungen herausgearbeitet, wie das System Schule auf die Digitalisierung aller Lebensbereiche reagieren muss. Später wird darauf noch näher eingegangen. Beispielhaft eine Aussage einer vom zuständigen Ministerium in Auftrag gegebenen Studie die festhält: Statt Wissensanhäufung und ‚Lernen auf Vorrat‘ sind andere Kompetenzen gefragt: In praxisbezogenen Problemstellungen soll Wissen angewendet werden. Dazu muss neues Wissen selbständig erarbeitet, neue Informationen recherchiert werden. Lernen und Arbeiten wachsen daher immer stärker zusammen.
Es geht also bei aller Integration der so genannten ‚Neuen Medien‘ in den Unterrichts-alltag an Schulen immer um die Prozess- und Ergebnisqualität des Lernprozesses.
Diese Vorgehensweise bietet auch ein Korrektiv in diesem Tempo der Veränderung, damit nicht jegliche Form der Digitalisierung per se als fortschrittlich und gut bewertet wird, sondern auf den qualitativen Prüfstand gestellt wird. Nicht die technische Mach-barkeit bestimmt den Fortschritt, sondern die Gütekriterien für eine gute Didaktik.
Ein weiterer Aspekt dieses Themenbereichs ist, dass bei der didaktischen Nut-zung von Lernvideos die Schule nicht Vorreiter oder gar Erfinder war. Die JIM-Studie aus dem Jahr 2016 zeigt, dass 87% der Jugendlichen und jungen Erwachsenen durchschnitt-lich 200 Minuten pro Tag im Internet surfen um sich zu informieren sowie zur Unterhal-tung. Weiter sehen sich 81% der Befragten mehrmals wöchentlich Videos im Internet an. Dabei steht die Nutzung des Online Portals YouTube an erster Stelle. Das Medium Film ist zusammenhängend als Leitmedium junger Erwachsener anzusehen und bedarf dementsprechend besonderer Aufmerksamkeit. Um nicht einer naiven Fortschrittsgläu-bigkeit zu verfallen soll daher der Einsatz von Lernvideos an baden-württembergischen Berufsschulen anhand einer qualitativen Forschung untersucht werden. Auch aufgrund der noch geringen Verbreitung dieser Lehr- und Lernform würde bei einer quantitativen Vorgehensweise kein ausreichendes Datenmaterial zur Verfügung stehen. Die vorlie-gende Arbeit fokussiert die Einbeziehung vorgefertigter Lernvideos in den Unterricht wie auch die eigene Herstellung und die damit verbundenen Lernprozesse. Da Lernvi-deos – zumindest von Ihrer Definition - eine sehr umfassende Möglichkeit selbstgesteu-erten Lernens beinhalten sollen, wird der Frage nachgegangen, ob Lernvideos auch im Rahmen von ‚Flipped Classroom‘ Anwendung finden können.
Aufgrund bisheriger Erfahrungen und theoretischen Auseinandersetzungen des Autors mit den Themen Film und digitale Medien wird der Arbeit folgende Hypothese vorweg-gestellt:
Der Einsatz und die Herstellung von Lernvideos im Unterricht an Berufsschu-len steigert die Prozess- wie auch die Ergebnisqualität des Unterrichts.
Die Auswertung wird zeigen, ob diese Lehr- und Lernmethode ein Baustein ist, die di-daktische Qualität des Unterrichts an die Anforderungen der digitalen Revolution anzu-passen.
Konkret soll die medienpädagogische Untersuchung auf Grundlage von 3 Forschungs-fragen durchgeführt werden.
1. Wie beeinflusst der Einsatz und die Herstellung von Lernvideos im Unterricht an beruflichen Schulen die Lehrer/Schüler Interaktion und wie verändert sich die Rolle der Lehrperson?
2. Wie wirken sich der Einsatz und die Herstellung von Lernvideos auf die Qualität des Unterrichts aus und lässt sich ein höherer Lernerfolg bei den Schülerinnen und Schülern feststellen?
3. Welche Rahmenbedingungen müssen an den Berufsschulen vorhanden sein, um diese Lehr- und Lernmethode gut integrieren zu können.
Aufbau und Ablauf dieser medienpädagogischen Untersuchung gliedert sich wie folgt: In Kapitel 2 findet eine Auseinandersetzung mit den mannigfaltigen Begrifflichkeiten statt, die in der Diskussion verwendet werden. Digitale Kompetenz, Medienkompetenz, Medi-enbildung, Medienpädagogik, sind Begriffe, die teilweise synonym verwendet werden, dadurch aber nicht zu Klarheit und Präzision führen. Oftmals entstehen aufgrund dieses Problems Verwirrungen, die für den Bereich beruflicher Praxis wenig hilfreich sind.
In Ableitung daraus soll das Thema in der bildungspolitischen Diskussion veror-tet werden, aber auch untersucht, inwieweit Gütekriterien für guten Unterricht in die Arbeit mit digitalen Medien integriert werden können. Im 3. Kapitel wird genauer auf die theoretischen Erkenntnisse und Forderungen der Lerntheorie eingegangen, mit Hilfe der Aspekte konstruktivistisches, kooperatives und selbstgesteuertes Lernen. Daraus folgernd, wie dieses Verständnis über Lernprozesse bei der Arbeit mit Lernvideos im Unterricht didaktisch umgesetzt werden kann. Im 4. Kapitel wird, ausgehend von einer kurzen theoretischen Begründung der qualitativen Sozialforschung, das Forschungsdes-ign beschrieben und ein Leitfaden für die Experteninterviews entwickeln. Nach Auswer-tung der transkribierten Gespräche werden die gewonnen Erkenntnisse auf die For-schungsfragen und die Erkenntnisse des Theorieteils bezogen.
Wünschenswert wäre, wenn diese Arbeit einen kleinen Baustein in die Diskussion eingebringen kann, wie die Formen heutiger Wissens- und Informationsverarbeitung sowie die prognostizierten Anforderungen der Arbeitswelt, in die Didaktik schulischen Lernens eingehen können.
The ability to change aerodynamic parameters of airfoils during flying can potentially save energy as well as reducing the noise made by the unmanned aerial vehicles (UAV) because of sharp edges of the airfoil and its rudders. In this paper, an approach for the design of an adaptive wing using a multi-material 3D printer is shown. In multi-material 3D printing, up to six different materials can be combined in one component. Thus, the user can determine the mixture and the spatial arrangement of this “digital material” in advance in the pre-processing software. First, the theoretical benefits of adaptive wings are shown, and already existing adaptive wings and concepts are explicated within a literature review. Then the additive manufacturing process using photopolymer jetting and its capabilities to print multiple materials in one part are demonstrated. Within the scope of a case study, an adaptive wing is developed and the necessary steps for the product development and their implementation in CAD are presented. This contribution covers the requirements for different components and sections of an adaptive wing designed for additive manufacturing using multiple materials as well as the single steps of development with its different approaches until the final design of the adaptive wing. The developed wing section is simulated, and qualitative tests in a wind tunnel are carried out with the wing segment. Finally, the additively manufactured wing segment is evaluated under technical and economic aspects.
Development of Fully Printed Oxide Field-Effect Transistors using Graphene Passive Structures
(2019)
During the past decade to the present time, the topic of printed electronics has gained a lot of attention for their potential use in a number of practical applications, including biosensors, photovoltaic devices, RFIDs, flexible displays, large-area circuits, and so on. To fully realize printed electronic components and devices, effective techniques for the printing of passive structures and electrically and chemically compatible materials in the printed devices need to be developed first. The opportunity of using electrically conducting graphene inks will enable the integration of passive structures into active devices, as for example, printed electrolyte-gated transistors (EGTs). Accordingly, in this study, we present the parametric results obtained on fully printed electrolyte-gated transistors having graphene as the passive electrodes, an inorganic oxide semiconductor as the active channel, and a composite solid polymer electrolyte (CSPE) as the gate insulating material. This configuration offers high chemical and electrical stability while at the same time allowing EGT operation at low potentials, implying the distinct advantage of operation at low input voltages. The printed in-plane EGTs we developed exhibit excellent performance with device mobility up to 16 cm2 V–1 s–1, an ION/IOFF ratio of 105, and a subthreshold slope of 120 mV dec–1.
Die Kultur der Macht: Politische Kommunikation zwischen Artefakten, Manipulation und Repräsentation
(2019)
Macht ist eine entscheidende Größe, um innerhalb von sozialen Systemen Veränderungen durchzusetzen und Entwicklungen voranzutreiben oder gar erst zu ermöglichen. In der politischen Kommunikation ist der bewusste und konstruktive Umgang mit Macht oft einer der Erfolgsfaktoren für politische Akteure wie Politiker, Bürger und Parteien. Macht kann dabei nur durch die Menschen ausgeübt werden, denen sie durch andere zugesprochen oder auch zugebilligt wird, weshalb der Kultur der Macht als Ergebnis und Mittel der Kommunikation eine entscheidende Bedeutung zukommt. Dies ist aktuell durch die veränderten Informations- und Mediennutzungsgewohnheiten der Bürger*innen und der veränderten Kommunikationsszenarien in Zeiten postfaktischer und populistischer Tendenzen eine besondere Herausforderung. Ausgehend von der Wechselwirkung zwischen Artefakten der Macht und dem Aufgabenfeld der politischen Kommunikation werden in der knapp gefassten Analyse die praktischen Handlungsfelder aufgezeigt. Die kommunikativen Anforderungen aus dem Prinzip der Repräsentation, die Ausgestaltung politsicher Informationen und die Festlegung des passenden Sprachniveaus, die Auswahl der passenden Kommunikationskanäle und -anlässe sowie die Entwicklung kompletter Kampagnen oder die Festlegung inhaltlicher Wahlkampfstrategien erweisen sich als große Herausforderung für alle politischen Akteure.
Das vorliegende Buch richtet sich vorwiegend an Webentwickler und Webinteressierte. Zunächst wird ein Überblick über Digital Storytelling, seine Geschichte und die verschiedenen heutigen Ausprägungen gegeben. Dabei liegt der Fokus auf Digital Storytelling im Web auf Basis von Animation.
Besonders die Idee der scroll-activated animation als zeitgemäßes Konzept für das Storytelling wird in diesem Buch in den Mittelpunkt gestellt.
Als technische Möglichkeiten zur Umsetzung von Webanimationen werden CSS3, SVG und HTML5-Canvas vorgestellt und diese in der Folge detailliert beschrieben.
Im Rahmen eines umfangreich dokumentierten Demoprojekts wird intensiv auf die Konzeption einer scroll-actived animation basierten Website und deren technische Umsetzung mittels HTML5, CSS3, JavaScript/jQuery und ScrollMagic sowie die damit verbundenen Herausforderungen eingegangen. Dies erlaubt dem Leser das detaillierte Nachvollziehen der Erstellung und die davon abgeleitete Entwicklung eigener Projekte.
Der Inhalt des Buches
- Definition, Entwicklung und psychologische Wirkungsweisen
- Medienformen
- Digital Storytelling
- Animationen im Web
- Technische Umsetzung
Die Zielgruppen des Buches
- Konzepter
- Webentwickler
- Mediengestalter
- Studenten, Azubis
- Webinteressierte
Über Chancen und Risiken von Computern an Schulen wird seit deren Einführung im Jahr 1984 kontrovers diskutiert. Neben Laptops und Tablets geht es heute um die Nutzung von Schulclouds und privaten Smartphones im Unterricht. Das Akronym dafür ist BYOD – »Bring Your Own Device«.
Dabei stellen sich grundsätzliche pädagogische und politische Fragen: Welcher Unterrichts- und Medienkonzepte bedarf es, um den Risiken der Digitalisierung vorzubeugen, die Schüler_innen aber zugleich an deren Chancen teilhaben zu lassen? Bei Netzanwendungen ist zudem der Datenschutz zu beachten, vor allem, wenn eigene Geräte genutzt werden sollen. So fördert das BMBF eine Schulcloud, in der Lehrkräfte und Schüler_innen wie bei Facebook Gruppen bilden, Dokumente austauschen und online darüber diskutieren können.
Das Buch greift die aktuelle Kontroverse auf und fragt nach den Zielen und Nebenwirkungen von »Bildung 4.0«. Was davon ist für die Unterrichtspraxis relevant? Und wessen Interessen werden bei welchen Konzepten vertreten?
Die Digitalisierung aller Lebensbereiche ist kein Technik-, sondern ein Systemwechsel. Alles, was wir im Netz tun, wird verdatet; idealiter prenatal bis postmortal. Dieser Datenpool wird mit immer ausgefeilteren Algorithmen des Big Data Mining analysiert und mit Methoden der Empirie, Statistik und Mustererkennung ausgewertet. Der Mensch wird zum Datensatz. Je früher Menschen psychometrisch vermessen werden können, desto exaktere Persönlichkeits-, Lern- und Leistungsprofile entstehen – und umso leichter ist die Einflussnahme. Das ist der Grund für die Forderung nach Digitaltechnik in KiTas und Grundschulen. Menschen werden daran gewöhnt zu tun, was Maschinen ihnen sagen. Das ist Gegenaufklärung aus dem Silicon Valley per App und Web. Wie Alternativen aussehen können, zeigt dieser Beitrag.