Refine
Year of publication
- 2019 (343) (remove)
Document Type
- Conference Proceeding (86)
- Article (reviewed) (49)
- Bachelor Thesis (42)
- Article (unreviewed) (41)
- Part of a Book (39)
- Book (22)
- Master's Thesis (17)
- Report (12)
- Working Paper (11)
- Contribution to a Periodical (9)
- Doctoral Thesis (5)
- Patent (5)
- Letter to Editor (2)
- Periodical Part (2)
- Other (1)
Conference Type
- Konferenzartikel (71)
- Konferenz-Abstract (9)
- Konferenzband (3)
- Sonstiges (3)
Language
- German (213)
- English (128)
- Multiple languages (1)
- Russian (1)
Keywords
- Heart rhythm model (5)
- Machine Learning (5)
- Modeling and simulation (5)
- Human Computer Interaction (4)
- Roboter (4)
- Robotik (4)
- Virtual Reality (4)
- Augmented Reality (3)
- Education in Optics and Photonics (3)
- Energiemanagement (3)
- Herzrhythmusmodell (3)
- Informatik (3)
- Kompetenz (3)
- Learning Analytics (3)
- Marketing (3)
- Materialermüdung (3)
- Plastizität (3)
- Projektmanagement (3)
- Psychometrie (3)
- RoboCup (3)
- Social Media (3)
- Bildungscontrolling (2)
- Bioimpedance measurement (2)
- Cryoballoon catheter ablation (2)
- Data Science (2)
- Docker (2)
- Ecodesign (2)
- Gamification (2)
- Genossenschaften (2)
- Geothermie (2)
- Hochschuldidaktik (2)
- Human Resources (2)
- IT-Sicherheit (2)
- Interaction metaphor (2)
- International Day of Light, IDL (2)
- International Year of Light, IYL (2)
- Johann Sebastian Bach (2)
- Katheterablation (2)
- Kommunikationspolitik (2)
- Kreativität (2)
- Kryoballonkatheter (2)
- Künstliche Intelligenz (2)
- MPC (2)
- Mobilität (2)
- Modellierung und Simulation (2)
- Online Marketing (2)
- PWA (2)
- Process engineering (2)
- Programmierung (2)
- Progressive Web App (2)
- Pulmonalvenenisolation (2)
- Regelungstechnik (2)
- Rohrleitung (2)
- Sensor (2)
- Social Robots (2)
- Supraventricular tachycardia (2)
- TRIZ (2)
- TRIZ Inventive Principles (2)
- Threat Modeling (2)
- Web-Entwicklung (2)
- Zustandsregler (2)
- datengestützte Schulentwicklung (2)
- esophageal catheter (2)
- europäisches Urheberrecht (2)
- research-oriented education (2)
- thermomechanische Ermüdung (2)
- 3D interaction (1)
- 3D print (1)
- 3d print (1)
- API (1)
- Ackermann-Formel (1)
- Ackermann´s formula (1)
- Affective Computing (1)
- Agentur (1)
- Agilität (1)
- Air Pollution (1)
- Akkumulator (1)
- Altenpflege (1)
- Android (1)
- Angemessene Information (1)
- Angular (1)
- Animationen im Web (1)
- Anthropozän (1)
- Antriebsregelung (1)
- Applikation (1)
- Architektur (1)
- Art and Photonics (1)
- Artemisinin (1)
- Assekuranz (1)
- Astronomical events (1)
- Atrial fibrillation (1)
- Automata (1)
- Automated Invention (1)
- Automatisierungstechnik (1)
- Automotive After Market (1)
- B2B-Marketing (1)
- Batterie (1)
- Batteries Lithium (1)
- Battery storage (1)
- Bedrohungsanalyse (1)
- Betriebliche Berufsbildung (1)
- Beweisaufgaben (1)
- Bildverarbeitung (1)
- Bioimpedanzmessung (1)
- Biologische Methanisierung (1)
- Biosignals (1)
- Blockchain (1)
- Bloom filters (1)
- Bluetooth Low Energy (1)
- Bluetooth-Applikation (1)
- Business Intelligence (1)
- Business Judgment Rule (1)
- COS ERM 2017 (1)
- Caffeine (1)
- Cantera (1)
- Car Repair Service Performance (1)
- Cardiac resynchronization therapy (1)
- China (1)
- Cluster (1)
- Clusteranalyse (1)
- Collision Avoidance (1)
- Collision avoidance (1)
- Combined heat and power generation (1)
- Computer Aided Design (CAD) (1)
- Computereinsatz in Unterricht und Ausbildung (1)
- Computerphysik (1)
- Control Algorithms (1)
- Controller PFC100; 2 x ETHERNET (1)
- Corporate Governance (1)
- Cunninghamella elegans (1)
- Data Integrity (1)
- Data Mining (1)
- Datenanalyse (1)
- De-Humanisierung (1)
- Deactivation/activation processes (1)
- Deep learning (1)
- DevExtreme (1)
- Didaktik (1)
- Digital Storytelling (1)
- Digitale Medien (1)
- Digitalisierung als Dehumanisierung (1)
- Digitalpakt Schule (1)
- Digitalsierung von Schule und Unterricht (1)
- Direct analysis in real time–mass spectrometry (1)
- Drehstrom (1)
- Drehstromantrieb (1)
- Drehzahlregelung (1)
- Durchflussmessung von Gasen (1)
- E-Commerce (1)
- E-Mail (1)
- Einzelhandel (1)
- Electricity-coupled heat generation (1)
- Electrochemical Engineering (1)
- Electromagnetic and thermal simulation (1)
- Elektrischer Energiespeicher (1)
- Elektrisches Netz (1)
- Elektrophysiologie (1)
- Elektrophysiologische Untersuchung (1)
- Emotion Recognition (1)
- Emotionen (1)
- Energie (1)
- Energieversorgung (1)
- Energy Harvesting (1)
- Energy Storage (1)
- Engineering Creativity (1)
- Engineering education in the age of digitalization (1)
- Enterprise Resource Planning (1)
- Entkopplung (1)
- Entwurfsmuster (1)
- Environmental monitoring (1)
- Equol (1)
- Erfolgsfaktoren (1)
- Erweiterte Realität (1)
- Esophageal catheter (1)
- Esophageal electrode (1)
- Event Tracing for Windows (1)
- Export (1)
- Eye Tracking (1)
- Eyetracking (1)
- FSK Wake-Up (1)
- Feldorientierung (1)
- Fernsehen (1)
- Finance (1)
- Fingersystem, sensomotorisches controllergesteuertes (1)
- Finite element method (1)
- Finite-Elemente-Methode (1)
- Flexibilisierung (1)
- Formelsammlung (1)
- Forstbetriebe (1)
- Freiheitsgrade (1)
- Funk (1)
- Funktionsprüfung (1)
- Führungsentkopplung (1)
- Führungsgrößenkorrektur (1)
- GPU Computing (1)
- GSL (1)
- GUI (1)
- Gesellschaftsrecht (1)
- Gleichstrom (1)
- Google Shopping (1)
- Guided waves (1)
- Gütesiegel (1)
- HR (1)
- Hand (1)
- Handel (1)
- Handelsvertrag (1)
- Heat pumps (1)
- Herz-Lungen-Maschine (1)
- Herzkatheterablation (1)
- Hidden Champions (1)
- High frequency ablation (1)
- High-performance thin-layer chromatography (1)
- History of Technology (1)
- Hochspannung (1)
- Hot-Spot (1)
- Hyperledger (1)
- IEEE802.15.4 (1)
- IPv6 (1)
- Ideation Performance (1)
- Infratruktur (1)
- Ink (1)
- Innovation Hubs (1)
- Innovationspotenzial (1)
- Innovationsökosysteme (1)
- Integrated product development (1)
- Intel (1)
- Intelligent Agents (1)
- Intelligentes Stromnetz (1)
- Interaktivität (1)
- Intercalation thermodynamics (1)
- Internes Kontrollsystem (1)
- Java (1)
- Kinderkommission (1)
- Klimawandel (1)
- Knowledge-based innovation (1)
- Kommunalmarketing (1)
- Kommunalpolitik (1)
- Kritische Infrastrukturen (1)
- Künstlerische Forschung (1)
- LabVIEW Programmierung (1)
- Lerntrails (1)
- Lernvideo (1)
- Lithium-Ionen-Batterie (1)
- Lithium-ion battery (1)
- Lithiumbatterie (1)
- Live Broadcasting (1)
- Logging (1)
- Low-Cost Füllstandssensor (1)
- Luftelektrode (1)
- MEAN-Stack (1)
- Managerhaftung (1)
- Marfan-Syndrom (1)
- Marke (1)
- Marktforschung (1)
- Maschinelles Lernen (1)
- Material Flow (1)
- Mathematik (1)
- Mathematiktrails (1)
- Mathematikunterricht (1)
- Mechanik (1)
- Medien-Informatik (1)
- Medien-Konzeption (1)
- Medien-Produktion (1)
- Medientechnik (1)
- Mehrgrößenregelung (1)
- Mercosur Staaten (1)
- Microsoft dot net (1)
- Mikroelektronik (1)
- Mikroservice (1)
- Mikrostruktur (1)
- Mobile Apps (1)
- Modehandel (1)
- Model Predictive Control (1)
- Modeling (1)
- MongoDB (1)
- Multimedia (1)
- Multiside heart stimulation (1)
- MySQL (1)
- NPS (1)
- Netzwerke (1)
- Neuroprothetics (1)
- New Retail (1)
- Newsletter (1)
- Nickel oxidation (1)
- Numerical simulation (1)
- Numerische Physik (1)
- Obesity (1)
- Odoo (1)
- Omni-Channel-Handel (1)
- Onboarding (1)
- Online-Handel (1)
- Online-Marketing (1)
- Open-Source (1)
- Operational flexibility (1)
- Optics and Photonics (1)
- Organisation (1)
- Organisationslehre (1)
- PV-Module (1)
- Peak shaving (1)
- Photovoltaikeinspeisung (1)
- Physik (1)
- Physikdidaktik (1)
- Plattformen (1)
- Policy (1)
- Polvorgabe (1)
- Positron emission tomography (1)
- Predictive Control (1)
- Predictive Management (1)
- Process innovation (1)
- Process intensification (1)
- Product Placement (1)
- Produkte (1)
- Prognosen (1)
- Progressive Web Apps (1)
- Projektorientierung (1)
- Pulmonary vein isolation (1)
- QFD (1)
- Quality Function Deployment (1)
- RFID (1)
- RFID-/NFC-Ausleseschnittstelle (1)
- RabbitMQ (1)
- Range Imaging (1)
- Range imaging RGB-D (1)
- Real-Time Communication (1)
- Recruiting (1)
- Regelung (1)
- Regler-Windup (1)
- Rest (1)
- Risikoanalyse (1)
- Risikomanagement (1)
- Risk Assessment (1)
- Robotics (1)
- SEA (1)
- SEO (1)
- SGX (1)
- SOA (1)
- SPS (1)
- SPS-Programmierung (1)
- STRIDE (1)
- Schalllokalisation (1)
- Schallquellenlokalisation (1)
- Schulcloud (1)
- Security (1)
- Security Engineering (1)
- Sensopart Kamera: VISOR V20 Robotic Advanced (1)
- Service Worker (1)
- Servqual (1)
- Showcase Ads (1)
- Sign of Hertoghe (1)
- Simulation und Modellierung (1)
- Single-particle model (1)
- Smart Gardening (1)
- Smart Home (1)
- Smart grid (1)
- SmartMAC (1)
- Social Media Marketing (1)
- Social Robot (1)
- Software Architecture (1)
- Software Guard Extension (1)
- Software Protection (1)
- Software Security (1)
- Sofwareentwicklung (1)
- Solid oxide electrolyzer cell (1)
- Solid oxide fuel cell (1)
- Sortiment (1)
- Sortimentskompetenz (1)
- Soziale Roboter (1)
- Sozialmarketing (1)
- Soziomarketing (1)
- Spinal cord stimulation (1)
- Sprunggelenksachse (1)
- Stadtmarketing (1)
- Station Festo Pick&Place (1)
- Stationärer Handel (1)
- Statistik (1)
- Stellgrößenbegrenzung (1)
- Strecken-Windup (1)
- Stromregelung (1)
- Stromspeicherung (1)
- Struma (1)
- Subspace Clustering (1)
- Substrates (1)
- Suchmaschinenmarketing (1)
- Supraventrikuläre Tachyarrhythmien (1)
- Surface acoustic waves (1)
- Sustainable Innovation (1)
- Synergie (1)
- Sägemaschinen (1)
- TCP/IP, Modbus-TCP (1)
- Technikakzeptanz (1)
- Technology Acceptance (1)
- Telemetry (1)
- Telepresence (1)
- Testablauf (1)
- Theoretische Physik (1)
- Threat-Modelling (1)
- Timing Attacks (1)
- Toolkit (1)
- Tourism (1)
- Trade (1)
- Transesophageal left atrial pacing (1)
- Transesophageal neurostimulation (1)
- Transösophageale Neurostimulation (1)
- Ultra-Low Energy (1)
- Ultra-Low Power (1)
- Umweltforschung (1)
- Unternehmenskommunikation (1)
- Unternehmensübernahme (1)
- Unterricht (1)
- User Acceptance (1)
- Verkehr (1)
- Vermessung des Menschen (1)
- Verschleißprüfung (1)
- Versicherungsmarkt (1)
- Versicherungswirtschaft (1)
- Verteilnetzbetreiber (1)
- Verteiltes System (1)
- Vertrauen (1)
- Virtual power plants (1)
- Visual Components (1)
- Visual Social Marketing (1)
- Vitalparametern bei Kleinstlebewesen (1)
- Vorhofflimmern (1)
- Vue (1)
- Wake-Up Receiver (1)
- Warmarbeitsstahl (1)
- Web Development (1)
- Webassembly (1)
- Webentwicklung (1)
- Website (1)
- Wedge waves (1)
- Whiplash injury (1)
- Windows (1)
- Wireless Sensor Nodes (1)
- Zeitschriftenverlag (1)
- Zentrale Sauerstoffversorgung (1)
- atrial septal defect (1)
- bimodal hearing (1)
- blend electrode (1)
- blockchain (1)
- building management systems (1)
- catheter ablation (1)
- cochlear implant (1)
- color vision (1)
- degrees of freedom (1)
- design education (1)
- device closure (1)
- display technologies (1)
- eco-innovation (1)
- ecosystem (1)
- education and research (1)
- electrophysiological investigation (1)
- energy harvesting (1)
- environmental education (1)
- first Röntgen picture (1)
- fungi (1)
- grenzüberschreitende Arbeitnehmerentsendung (1)
- hearing aid (1)
- heart rhythm model (1)
- home automation (1)
- infrastructure (1)
- input-output decoupling (1)
- interaural stimulation timing (1)
- irrigation (1)
- kybernetische Pädagogik (1)
- lithium-ion battery (1)
- mechanical properties (1)
- metabolism (1)
- multivariable control (1)
- natürliche Leistung (1)
- nicht-invasives Messsystem (1)
- open science (1)
- optics and photonics (1)
- outsourced computation (1)
- pole placement (1)
- presentation skills (1)
- printed Antennas (1)
- prädiktive Wartung (1)
- pulmonary vein isolation (1)
- review (1)
- scroll-activated animation (1)
- septal occluder device (1)
- set operations (1)
- set relations (1)
- sound localization (1)
- spatial imagination (1)
- spinal cord stimulation (1)
- sustainability (1)
- teaching and learning culture (1)
- technical drawings (1)
- thermische Entfestigung (1)
- transesophageal electrical pacing (1)
- transesophageal neurostimulation (1)
- tryptamines (1)
- universal Roboter UR5e (1)
- virtual simulations (1)
- wireless sensor networks (1)
- zeitdiskreter PI-Zustandsregler (1)
- Ökonomisierung der Bildung (1)
- Ökonomisierung von Schule und Untericht (1)
- Ösophaguselektrodensonde (1)
- übertragbare Wirkleistung (1)
- „Eiserne Hand“ des Götz von Berlichingen (1)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (139)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (90)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (49)
- Fakultät Wirtschaft (W) (44)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (16)
- INES - Institut für nachhaltige Energiesysteme (14)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (12)
- CRT - Campus Research & Transfer (8)
- ACI - Affective and Cognitive Institute (6)
- IMLA - Institute for Machine Learning and Analytics (6)
Open Access
- Closed Access (208)
- Open Access (113)
- Bronze (11)
- Closed (1)
- Diamond (1)
- Gold (1)
The development of secure software systems is of ever-increasing importance. While software companies often invest large amounts of resources into the upkeeping and general security properties of large-scale applications when in production, they appear to neglect utilizing threat modeling in the earlier stages of the software development lifecycle. When applied during the design phase of development, and continuously throughout development iterations, threat modeling can help to establish a "Secure by Design" approach. This approach allows issues relating to IT security to be found early during development, reducing the need for later improvement – and thus saving resources in the long term. In this paper the current state of threat modeling is investigated. This investigation drove the derivation of requirements for the development of a new threat modelling framework and tool, called OVVL. OVVL utilizes concepts of established threat modeling methodologies, as well as functionality not available in existing solutions.
Auf Grundlage der Computer-Aided-Design (CAD)-rekonstruierten ersten „Eisernen Hand“ des Götz von Berlichingen wird ein umgebautes, controllergesteuertes sensomotorisches Fingersystem auf seine Funktionalität beim Greifen von unterschiedlichen Gegenständen beschrieben und geprüft. Die elektronischen Finger, die den „Pinzettengriff“ nachahmen und automatisch bei dem zuvor eingestellten Anpressdruck abschalten, bewiesen eine bemerkenswerte Alltagstauglichkeit. Das vorgestellte Grundkonzept könnte eine Alternative bei der Entwicklung einfacher und kostengünstiger, aber dennoch gut einsatzfähiger bionischer Hände sein und zeigt einmal mehr, wie historische Ideen in die Gegenwart transferiert werden können.
The visualization of heart rhythm disturbance and atrial fibrillation therapy allow the optimization of new cardiac catheter ablations. With the simulation software CST (Computer Simulation Technology, Darmstadt) electromagnetic and thermal simulations can be carried out to analyze and optimize different heart rhythm disturbance and cardiac catheters for pulmonary vein isolation. Another form of visualization is provided by haptic, three-dimensional print models. These models can be produced using an additive manufacturing method, such as a 3D printer. The aim of the study was to produce a 3D print of the Offenburg heart rhythm model with a representation of an atrial fibrillation ablation procedure to improve the visualization of simulation of cardiac catheter ablation.
The basis of 3D printing was the Offenburg heart rhythm model and the associated simulation of cryoablation of the pulmonary vein. The thermal simulation shows the pulmonary vein isolation of the left inferior pulmonary vein with the cryoballoon catheter Arctic Front AdvanceTM from Medtronic. After running through the simulation, the thermal propagation during the procedure was shown in the form of different colors. The three-dimensional print models were constructed on the base of the described simulation in a CAD program. Four different 3D printers are available for this purpose in a rapid prototyping laboratory at the University of Applied Science Offenburg. Two different printing processes were used: 1. a binder jetting printer with polymer gypsum and 2. a multi-material printer with photopolymer. A final print model with additional representation of the esophagus and internal esophagus catheter was also prepared for printing.
With the help of the thermal simulation results and the subsequent evaluation, it was possible to make a conclusion about the propagation of the cold emanating from the catheter in the myocardium and the surrounding tissue. It could be measured that already 3 mm from the balloon surface into the myocardium the temperature drops to 25 °C. The simulation model was printed using two 3D printing methods. Both methods as well as the different printing materials offer different advantages and disadvantages. While the first model made of polymer gypsum can be produced quickly and cheaply, the second model made of photopolymer takes five times longer and was twice as expensive. On the other hand, the second model offers significantly better properties and was more durable overall. All relevant parts, especially the balloon catheter and the conduction, are realistically represented. Only the thermal propagation in the form of different colors is not shown on this model.
Three-dimensional heart rhythm models as well as virtual simulations allow a very good visualization of complex cardiac rhythm therapy and atrial fibrillation treatment methods. The printed models can be used for optimization and demonstration of cryoballoon catheter ablation in patients with atrial fibrillation.
The visualization of heart rhythm disturbance and atrial fibrillation therapy allows the optimization of new cardiac catheter ablations. With the simulation software CST (Computer Simulation Technology, Darmstadt) electromagnetic and thermal simulations can be carried out to analyze and optimize different heart rhythm disturbance and cardiac catheters for pulmonary vein isolation. Another form of visualization is provided by haptic, three-dimensional print models. These models can be produced using an additive manufacturing method, such as a 3d printer. The aim of the study was to produce a 3d print of the Offenburg heart rhythm model with a representation of an atrial fibrillation ablation procedure to improve the visualization of simulation of cardiac catheter ablation. The basis of 3d printing was the Offenburg heart rhythm model and the associated simulation of cryoablation of the pulmonary vein. The thermal simulation shows the pulmonary vein isolation of the left inferior pulmonary vein with the cryoballoon catheter Arctic Front Advance™ from Medtronic. After running through the simulation, the thermal propagation during the procedure was shown in the form of different colors. The three-dimensional print models were constructed on the base of the described simulation in a CAD program. Four different 3d printers are available for this purpose in a rapid prototyping laboratory at the University of Applied Science Offenburg. Two different printing processes were used and a final print model with additional representation of the esophagus and internal esophagus catheter was also prepared for printing. With the help of the thermal simulation results and the subsequent evaluation, it was possible to draw a conclusion about the propagation of the cold emanating from the catheter in the myocardium and the surrounding tissue. It was measured that just 3 mm from the balloon surface into the myocardium the temperature dropped to 25 °C. The simulation model was printed using two 3d printing methods. Both methods, as well as the different printing materials offer different advantages and disadvantages. All relevant parts, especially the balloon catheter and the conduction, are realistically represented. Only the thermal propagation in the form of different colors is not shown on this model. Three-dimensional heart rhythm models as well as virtual simulations allow very clear visualization of complex cardiac rhythm therapy and atrial fibrillation treatment methods. The printed models can be used for optimization and demonstration of cryoballoon catheter ablation in patients with atrial fibrillation.
The Internet of Things (IoT) application has becoming progressively in-demand, most notably for the embedded devices (ED). However, each device has its own difference in computational capabilities, memory usage, and energy resources in connecting to the Internet by using Wireless Sensor Networks (WSNs). In order for this to be achievable, the WSNs that form the bulk of the IoT implementation requires a new set of technologies and protocol that would have a defined area, in which it addresses. Thus, IPv6 Low Power Area Network (6LoWPAN) was designed by the Internet Engineering Task Force (IETF) as a standard network for ED. Nevertheless, the communication between ED and 6LoWPAN requires appropriate routing protocols for it to achieve the efficient Quality of Service (QoS). Among the protocols of 6LoWPAN network, RPL is considered to be the best protocol, however its Energy Consumption (EC) and Routing Overhead (RO) is considerably high when it is implemented in a large network. Therefore, this paper would propose the HRPL to enchance the RPL protocol in reducing the EC and RO. In this study, the researchers would present the performance of RPL and HRPL in terms of EC, Control traffic Overhead (CTO) and latency based on the simulation of the 6LoWPAN network in fixed environment using COOJA simulator. The results show HRPL protocol achieves better performance in all the tested topology in terms of EC and CTO. However, the latency of HRPL only improves in chain topology compared with RPL. We found that further research is required to study the relationship between the latency and the load of packet transmission in order to optimize the EC usage.
Radio frequency identification (RFID) antennas are popular for high frequency (HF) RFID, energy transfer and near field communication (NFC) applications. Particularly for wireless measurement systems the RFID/NFC technology is a good option to implement a wireless communication interface. In this context, the design of corresponding reader and transmitter antennas plays a major role for achieving suitable transmission quality. This work proves the feasibility of the rapid prototyping of a RFID/NFC antenna, which is used for the wireless communication and energy harvesting at the required frequency of 13.56 MHz. A novel and low-cost direct ink writing (DIW) technology utilizing highly viscous silver nanoparticle ink is used for this process. This paper describes the development and analysis of low-cost printed flexible RFID/NFC antennas on cost-effective substrates for a microelectronic vital parameter measurement system. Furthermore, we compare the measured technical parameters with existing copper-based counterparts on a FR4 substrate.
The monitoring of industrial environments ensures that highly automated processes run without interruption. However, even if the industrial machines themselves are monitored, the communication lines are currently not continuously monitored in todays installations. They are checked usually only during maintenance intervals or in case of error. In addition, the cables or connected machines usually have to be removed from the system for the duration of the test. To overcome these drawbacks, we have developed and implemented a cost-efficient and continuous signal monitoring of Ethernet-based industrial bus systems. Several methods have been developed to assess the quality of the cable. These methods can be classified to either passive or active. Active methods are not suitable if interruption of the communication is undesired. Passive methods, on the other hand, require oversampling, which calls for expensive hardware. In this paper, a novel passive method combined with undersampling targeting cost-efficient hardware is proposed.
A novel Bluetooth Low Energy advertising scan algorithm is presented for hybrid radios that are additionally capable to measure energy on Bluetooth channels, e.g. as they would need to be compliant with IEEE 802.15.4. Scanners applying this algorithm can achieve a low latency whilst consuming only a fraction of the power that existing mechanisms can achieve at a similar latency. Furthermore, the power consumption can scale with the incoming network traffic and in contrast to the existing mechanisms, scanners can operate without any frame loss given ideal network conditions. The algorithm does not require any changes to advertisers, hence, stays compatible with existing devices. Performance evaluated via simulation and experiments on real hardware shows a 37 percent lower power consumption compared to the best existing scan setting while even achieving a slightly lower latency which proves that this algorithm can be used to improve the quality of service of connection-less Bluetooth communication or reduce the connection establishment time of connection-oriented communication.
High temperature components in internal combustion engines and exhaust systems must withstand severe mechanical and thermal cyclic loads throughout their lifetime. The combination of thermal transients and mechanical load cycling results in a complex evolution of damage, leading to thermomechanical fatigue (TMF) of the material. Analytical tools are increasingly employed by designers and engineers for component durability assessment well before any hardware testing. The DTMF model for TMF life prediction, which assumes that micro-crack growth is the dominant damage mechanism, is capable of providing reliable predictions for a wide range of high-temperature components and materials in internal combustion engines. Thus far, the DTMF model has employed a local approach where surface stresses, strains, and temperatures are used to compute damage for estimating the number of cycles for a small initial defect or micro-crack to reach a critical length. In the presence of significant gradients of stresses, strains, and temperatures, the use of surface field values could lead to very conservative estimates of TMF life when compared with reported lives from hardware testing. As an approximation of gradient effects, a non-local approach of the DTMF model is applied. This approach considers through-thickness fields where the micro-crack growth law is integrated through the thickness considering these variable fields. With the help of software tools, this method is automated and applied to components with complex geometries and fields. It is shown, for the TMF life prediction of a turbocharger housing, that the gradient correction using the non-local approach leads to more realistic life predictions and can distinguish between surface cracks that may arrest or propagate through the thickness and lead to component failure.
When designing and installing Indoor Positioning Systems, several interrelated tasks have to be solved to find an optimum placement of the Access Points. For this purpose, a mathematical model for a predefined number of access points indoors is presented. Two iterative algorithms for the minimization of localization error of a mobile object are described. Both algorithms use local search technique and signal level probabilities. Previously registered signal strengths maps were used in computer simulation.
This paper presents the use of model predictive control (MPC) based approach for peak shaving application of a battery in a Photovoltaic (PV) battery system connected to a rural low voltage gird. The goals of the MPC are to shave the peaks in the PV feed-in and the grid power consumption and at the same time maximize the use of the battery. The benefit to the prosumer is from the maximum use of the self-produced electricity. The benefit to the grid is from the reduced peaks in the PV feed-in and the grid power consumption. This would allow an increase in the PV hosting and the load hosting capacity of the grid.
The paper presents the mathematical formulation of the optimal control problem
along with the cost benefit analysis. The MPC implementation scheme in the
laboratory and experiment results have also been presented. The results show
that the MPC is able to track the deviation in the weather forecast and operate
the battery by solving the optimal control problem to handle this deviation.
A Novel Approach of High Dynamic Current Control of Interior Permanent Magnet Synchronous Machines
(2019)
Harmonic-afflicted effects of permanent magnet synchronous machines with high power density are hardly faced by traditional current PI controllers, due to limited controller bandwidth. As a consequence, currents and lastly torque ripples appear. In this paper, a new deadbeat current controller architecture has been presented, which is capable to encounter the effects of these harmonics. This new control algorithm, here named “Hybrid-Deadbeat-Controller”, combines the stability and the low steady-state errors offered by common PI regulators with the high dynamic offered by the deadbeat control. Therefore, a novel control algorithm is proposed, capable of either compensating the current harmonics in order to get smoother currents or to control a varying reference value to achieve a smoother torque. The information needed to calculate the optimal reference currents is based on an online parameter estimation feeding an optimization algorithm to achieve an optimal torque output and will be investigated in future research. In order to ensure the stability of the controller over the whole area of operation even under the influence of effects changing the system’s parameter, this work as well focusses on the robustness of the “hybrid” dead beat controller.
Many sectors, like finance, medicine, manufacturing, and education, use blockchain applications to profit from the unique bundle of characteristics of this technology. Blockchain technology (BT) promises benefits in trustability, collaboration, organization, identification, credibility, and transparency. In this paper, we conduct an analysis in which we show how open science can benefit from this technology and its properties. For this, we determined the requirements of an open science ecosystem and compared them with the characteristics of BT to prove that the technology suits as an infrastructure. We also review literature and promising blockchain-based projects for open science to describe the current research situation. To this end, we examine the projects in particular for their relevance and contribution to open science and categorize them afterwards according to their primary purpose. Several of them already provide functionalities that can have a positive impact on current research workflows. So, BT offers promising possibilities for its use in science, but why is it then not used on a large-scale in that area? To answer this question, we point out various shortcomings, challenges, unanswered questions, and research potentials that we found in the literature and identified during our analysis. These topics shall serve as starting points for future research to foster the BT for open science and beyond, especially in the long-term.
Robots and automata are key elements of every vision and forecast of life in the near and distant future. However, robots and automata also have a long history, which reaches back into antiquity. Today most historians think that one of the key roles of robots and automata was to amaze or even terrify the audience: They were designed to express something mythical, magical, and not explainable. Moreover, the visions of robots and their envisioned fields of application reflect the different societies. Therefore, this short history of robotics and (especially) anthropomorphic automata aims to give an overview of several historical periods and their perspective on the topic. In a second step, this work aims to encourage readers to reflect on the recent discussion about fields of application as well as the role of robotics today and in the future.
ABSCHIED VOM AUSSEN
(2019)
The fast and cost-effective manufacturing of tools for thermoforming is an essential requirement to shorten the development time of products. Thus, additive processes are used increasingly in tooling for thermoforming of plastic sheets. However, a disadvantage of many additive methods is that they are highly cost-intensive, since complex systems based on laser technology and expensive metal powders are needed. Therefore, this paper examines how to work with favorable additive methods, e.g. Binder Jetting, to manufacture tools, which provide sufficient strength for thermoforming. The use of comparatively low-priced inkjet technology for the layer construction and a polymer plaster as material can be expected to result in significant cost reductions. Based on a case study using a cowling (engine bonnet) for an Unmanned Aerial Vehicle (UAV), the development of a complex tool for thermoforming is demonstrated. The object in this study is to produce a tool for a complex-shaped component in small numbers and high quality in a short time and at reasonable costs. Within the tooling process, integrated vacuum channels are implemented in additive tooling without the need for additional post-processing (for example, drilling). In addition, special technical challenges, such as the demolding of undercuts or the parting of the tool are explained. All process steps from tool design to the use of the additively manufactured tool are analyzed. Based on the manufacturing of a small series of cowlings for a UAV made of plastic sheets (ABS), it is shown, that the Binder Jetting offers sufficient mechanical and thermal strength for additive tooling. In addition, an economic evaluation of the tool manufacturing and a detailed consideration of the required manufacturing times for the different process steps are carried out. Finally, a comparison is made with conventional and alternative additive methods of tooling.
What emotional effects does gamification have on users who work or learn with repetitive tasks? In this work, we use biosignals to analyze these affective effects of gamification. After a brief discussion of related work, we describe the implementation of an assistive system augmenting work by projecting elements for guidance and gamification. We also show how this system can be extended to analyse users' emotions. In a user study, we analyse both biosignals (facial expressions and electrodermal activity), and regular performance measures (error rate and task completion time).
For the performance measures, the results confirm known effects like increased speed and slightly increased error rate. In addition, the analysis of the biosignals provides strong evidence for two major affective effects: the gamification of work and learning tasks incites highly significantly more positive emotions and increases emotionality altogether. The results add to the design of assistive systems, which are aware of the physical as well as the affective context.
Analyse der Anwendbarkeit des Dynamische Fähigkeiten-Konzepts am Beispiel von Großhandelsunternehmen
(2019)
Eine Anpassung aufgrund sich schnell verändernder Geschäftsumgebungen an aktuelle Gegebenheiten ist für alle Unternehmen sowohl in der freien Wirtschaft als auch staatlichen Ursprungs relevant. Diese kann durch starke dynamische Fähigkeiten der involvierten Unternehmen erfolgen. Zur Validierung des theoretischen Konzepts der dynamischen Fähigkeiten werden Großhandelsunternehmen herangezogen und deren Unternehmensaktivitäten im Hinblick auf die erste dynamische Fähigkeit in Gesprächen ermittelt. Die Ausführungen der vier Großhändler zielen in einem ersten Teil darauf ab, die grundsätzliche Anwendbarkeit des Konzepts in der Praxis zu bestätigen. In einem zweiten Teil wird analysiert in welchem Umfang sie für die betrachtete Branche beschrieben werden kann. Es zeigt sich, dass das Dynamische Fähigkeiten-Konzept nicht ohne Einschränkungen auf die Praxis übertragen werden kann, wenngleich die Ausprägungen dem Konzept zugrundeliegender Elemente bei allen Firmen ähnlich sind. Trotz dieser Ähnlichkeit konnten keine festen Muster bzw. Interdependenzen erkannt werden, die die Integration, den Aufbau und/oder die Neukonfiguration von Fähigkeiten zuverlässig fördern. Die Resultate ermöglichen es dennoch in einem letzten Teil zu beurteilen, welche Indikatoren eine Basis zur strategischen Anpassung an den Strukturwandel schaffen. Sie sind Teil der formulierten Hypothesen zu den einzelnen Elementen der ersten dynamischen Fähigkeit. Mit der Summe der Erkenntnisse konnte in gewisser Hinsicht eine Transparenz des Konzepts erreicht werden – mit Hilfe des entwickelten Interviewleitfadens kann analog zum Vorgehen in dieser Arbeit für die zweite und dritte dynamische Fähigkeit verfahren werden, sodass in einem breiteren Kontext erneut eine Aussage über die Anwendbarkeit des Konzepts getroffen werden kann.
„Die Reform kommt – stirbt das Netz?“ So titelte die Süddeutsche Zeitung bereits Mitte April 2019 in Bezug auf die sich anbahnende Urheberrechtsreform. Kaum ein anderes Rechtsgebiet ist derzeit so präsent in der Mitte der Gesellschaft angekommen und löst derart hitzige Diskussionen aus wie die anstehende Urheberrechtsreform durch den europäischen Gesetzgeber. Dabei ist es der Urheberrechtsreform in der Tat gelungen, einen ähnlichen Stellenwert für sich zu vereinnahmen wie die Einführung der lange gefürchteten Datenschutz-Grundverordnung im Jahr 2018.
Im Fokus der Debatte steht dabei insbesondere Artikel 13, der sich mittlerweile als Artikel 17 in der aktuellen Fassung der Richtlinie wiederfindet. Seine breite Aufmerksamkeit verdankt dieser dem Umstand, dass er die Meinungsfreiheit und die freie Netzkultur in erheblichem Maße einschränken könnte. Allerdings geht die gesamte Richtlinie des europäischen Gesetzgebers deutlich über Artikel 17 hinaus, sodass sich neben der breiten Bevölkerung auch weitere Adressaten ergeben, deren Rahmenbedingungen sich ändern werden.
Synergieprognosen spielen bei der Begründung von Unternehmensübernahmen regelmäßig eine wichtige Rolle. Da diese Prognosen unsicher sind, bedürfen sie einer fundierten Beurteilung, was wiederum eine offene Diskussion innerhalb von Vorstand und Aufsichtsrat voraussetzt. Solche Diskussionen sind jedoch keine Selbstverständlichkeit, da Gruppen dazu neigen, problematische Entscheidungsaspekte nicht angemessen zu würdigen. Mit dem Tornado-Diagramm wird ein Instrument vorgestellt, das diesem Effekt entgegenwirkt und die Entscheider dazu motiviert, auch ungünstige Synergieprognosen zu diskutieren. Auf diese Weise kann die Übernahmeentscheidung auf eine bessere Informationsgrundlage gestellt werden.
Intels Software Guard Extension (SGX) ist eine Technologie, die einen umfassenden Datenschutz verspricht. SGX wurde 2013 als Softwaremodell für die isolierte Ausführung von Anwendungen veröffentlicht.
Mit Intel SGX können Container in einem geschützten Speicherbereich erstellt werden. Diese Container werden Enclave genannt. Es ist nicht möglich den Speicher-
bereich der Enclave auszulesen oder in ihn zu schreiben. Die Enclave soll Integrität und Verfügbarkeit der Daten sicherstellen, auch wenn diese auf einem nicht vertrauenswürdigen Host ausgeführt werden.
In dieser Arbeit soll zunächst ein Überblick über die Funktionsweise und das Potenzial von Intel Software Guard Extension gegeben werden. Vor allem soll analysiert werden
wie Datenbanken mit Hilfe von SGX gesichert werden können und wie groß die Performance einbüßen mit SGX sind.
Aufbauend auf den Grundlagen von Intel SGX und EnclaveDB soll anschließend eine sichere Datenbank erstellt werden. Hierzu wird EnclaveDB von Microsoft analysiert und auf Basis dieser Datenbank eine neue Datenbank erschaffen, die Daten verschlüsselt in der Datenbank speichert ohne, dass diese in Klartext vom Host ausgelesen werden können. Zum Schluss wird die Performance von EnclaveDB und der erstellten Datenbank so gut es geht verglichen.
In dieser Arbeit wird die Funktionsweise, Standardisierung und Verwundbarkeit der Technologien RFID und NFC behandelt. Es wird gezeigt welche Angriffe existieren und wie man sich dagegen schützen kann. Es wird ein Überblick über einige in der Praxis verwendete Protokolle sowie deren Sicherheit gegeben. Außerdem werden grundlegende Fragen beantwortet, die man sich bei Auseinandersetzung mit dieser Technologie stellt (z.B. Reichweiten).
Apache Hadoop is a well-known open-source framework for storing and processing huge amounts of data. This paper shows the usage of the framework within a project of the university in cooperation with a semiconductor company. The goal of this project was to supplement the existing data landscape by the facilities of storing and analyzing the data on a new Apache Hadoop based platform.
Art and Photonics
(2019)
In this paper we report on our continuous efforts to apply optics and photonics in art. This results in interdisciplinary projects which sometimes lead to concrete art installations.
We presented some of these projects at the UNESCO headquarters in Paris, at the opening ceremony of the International Year of Light and the inaugural ceremony of the International Day of Light.
Some newer projects, such as “A Maze: Ingenious Pipes” and “The Power of Your Eyes,” are also presented in this paper.
More than 200 years ago, the scientist Alexander von Humboldt noted in his travel diaries that "everything is interconnectedness", when he was fascinated by nature and the phenomena observed. The view of nature has become much more detailed through the knowledge of phenomena and natural processes, which led to a more precise view of nature shaped by Humboldt. Technological progress and the artificial intelligence of highly developed computer systems are upsetting this view and changing the established world view through a new, unprecedented interaction between man and machinery. Thus we need digital axioms and comprehensive rules and laws for such autonomous acting systems that determine human interaction between cybernetic systems and biological individuals. This digital humanism should encompass our relationship to nature, our handling of the complexity and diversity of nature and the technological influences on society in order to avoid technical colonialism through supercomputers.
The TriRhenaTech alliance universities and their partners presented their competences in the field of artificial intelligence and their cross-border cooperations with the industry at the tri-national conference 'Artificial Intelligence : from Research to Application' on March 13th, 2019 in Offenburg. The TriRhenaTech alliance is a network of universities in the Upper Rhine Trinational Metropolitan Region comprising of the German universities of applied sciences in Furtwangen, Kaiserslautern, Karlsruhe, and Offenburg, the Baden-Wuerttemberg Cooperative State University Loerrach, the French university network Alsace Tech (comprised of 14 'grandes écoles' in the fields of engineering, architecture and management) and the University of Applied Sciences and Arts Northwestern Switzerland. The alliance's common goal is to reinforce the transfer of knowledge, research, and technology, as well as the cross-border mobility of students.
We present our twenty years of experience in the live broadcasting of astronomical events, with the main focus on total lunar eclipses. Our efforts were motivated by the great impact and high number of viewers of these events. Visitors from over a hundred countries watched our live broadcasts. Our viewer record was set on July 27, 2018, with the live transmission of the total lunar eclipse from the Feldberg, the highest mountain in the Black Forest, attracting nearly half a million viewers in five hours.
An especially challenging activity was the live observing of the Mercury transit on 9 May 2016, which we presented as ‘live astronomy’ with hands-on telescope. The main goal of this event was to awake our students enthusiasm for optics and astronomy.
Furthermore, we report on our experiences with the photography of optical phenomena such as polar lights and green flash.
Audio over IP
(2019)
Der Wandel im Bereich Tontechnik geht stetig weiter. Was vor über 100 Jahren begann, entwickelt sich heutzutage rasend voran. Das Ziel immer vor Augen: Ein Audiosignal soll in bestmöglichster Qualität, möglichst mit einer geringen Datenmenge, in kürzester Zeit von A nach B transportiert und anschließend konserviert werden.
Durch die Digitalisierung werden auch hier völlig neue Anwendungsbereiche und Szenarien ermöglicht, die weit über das klassische Recording oder die Studioinfrastruktur hinausgehen. Die Rede ist zum Beispiel von Klanginstallationen oder Konferenzszenarien. Audionetzwerke bieten durch die Nutzung beliebiger Quellen und Senken in der Produktionsumgebung eine signifikant flexiblere Signalverteilung, als dies noch mit klassischen Verteilern und Steckfeldern möglich war. Übertragungen und Vernetzungen in mehreren Gebäuden sind hiermit kein Problem. Allerdings unterscheidet sich diese Technologie in Punkto Stabilität, Datenrate, Netzwerk-Layer & Qualität deutlich von seinem Pendant, dem Internetstreaming.
Die Funkschnittstelle nach dem Bluetooth Standard ist heutzutage nicht mehr aus dem Consumer-Markt wegzudenken. Auch durch die zukünftige Weiterentwicklung des Prinzips von IoT (Internet of Things) wird vor allem die Bluetooth Low Energy Technologie für Unternehmen bei der Entwicklung von Geräten mehr an Bedeutung gewinnen. Um die Studierenden im Bereich der Kommunikationstechnik auf das Thema Bluetooth vorzubereiten, wird der Versuch „Kurzstreckenkommunikation nach dem Bluetooth Standard“ im Telekommunikations-Labor an der Hochschule Offenburg angeboten. Der Versuch wurde im Rahmen dieser Bachelor-Thesis an die heutigen Anforderungen angepasst.
Die nachfolgende Bachelor-Thesis beinhaltet die gesamte Laboranleitung des Versuchs, welche in die drei Teile: Theoretische Grundlagen, vorbereitende Aufgaben und der Versuchsdurchführung aufgeteilt wird. Der Versuchsanleitung folgt ein Teil mit weiteren Anmerkungen für die akademischen Mitarbeiter, welche den Versuch betreuen. Hier wird sichergestellt, dass auch in Zukunft der Versuch problemlos weiter durchgeführt werden kann. Im Anhang befinden sich die Musterlösungen für die vorbereitentenden Aufgaben und der Versuchsdurchführung.
Aufbau/Ansteuerung/Kalibrierung/Pilotierung eines Lautsprecher-Halbkreises für Lokalisationstests
(2019)
Seit September 2018 ist die Hochschule Offenburg im Besitz einer Hörkabine, in der ein Schallquellenlokalisationstest im Rahmen dieser Bachelorarbeit aufgebaut wurde. Eine Schallquellenlokalisation ist im Alltag für Normalhörende in den meisten Fällen keine Schwierigkeit. Wir Menschen sind in der Lage mit einer Genauigkeit von 1° bis 2° eine Schallquelle zu lokalisieren (Feigenspan 2017,S.624). Entfällt jedoch das Hörvermögen auf einer Seite, so verschlechtert sich die Lokalisationsfähigkeit erheb-lich. Um Schallquellen präzise lokalisieren zu können, werden optimaler Weise beide Ohren benötigt. Heutzutage gibt es viele Hörsysteme, um diverse Hörstörungen zu therapieren. Den-noch bleibt die Lokalisationsfähigkeit für Menschen mit einseitiger Taubheit, bezie hungsweise asymmetrischen Hörverlust eine Herausforderung. Ein Schallquellenlo kalisationstest findet Anwendung in der Klinik, um eine bestmögliche Versor gung/Therapie durch Hörsysteme zu gewährleisten. Ziel dieser Bachelorarbeit war der Aufbau eines Lokalisationstestes nach Leitlinien einer wissenschaftlichen Publikation, sowie die Durchführung an fünf freiwilligen Normalhörenden. Die Realisierung umfasste den Aufbau der Lautsprecher, die An-steuerung mithilfe einer externen Soundkarte und MATLAB, eine Kalibrierung der Lautsprecher und die Durchführung der Tests.
Die erste Auflage von "Ausführung von Stahlbauten" wurde – trotz ihres erheblichen Umfangs – zu einem sehr beliebten Nachschlagewerk und unverzichtbaren Praxishelfer in vielen Bereichen des Stahlbaus. Nachdem die Normen, auf die sich die erste Auflage bezieht, grundlegend überarbeitet wurden, entstand mit dem hier vorliegenden Buch auch eine aktualisierte Nachfolgeausgabe der Kommentare. Das Werk profitiert davon, dass es von den im Normungsausschuss federführenden Spezialisten ausgearbeitet wurde: Die Autoren liefern also zuverlässig die korrekten Interpretationen der Normentexte. Damit ist auch diese zweite Auflage von "Ausführung von Stahlbauten" eine gute Wahl, um mit den Normen DIN EN 1090-2 und DIN EN 1090-4 sicher und professionell arbeiten zu können. Da sich die Norm DIN EN 1090-1 aktuell in Überarbeitung befindet, ist diese nicht Teil der zweiten Auflage der Stahlbauten-Kommentare.
Auswahl von elektrischen Antriebskomponenten zur Elektrifizierung des Antriebes eines „Tuk-Tuks“
(2019)
Die vorliegende Abschlussarbeit handelt von einem Tuk-Tuk. Im Ausgangszustand ist dieses mit einem 1-Zylinder Ottomotor versehen.
Im Rahmen eines Hochschulprojektes wird dieser Motor durch einen Elektromotor ersetzt. Ziel dieser Thesis ist es, einen passenden Motor zu finden. Dabei soll eine Auslegung erarbeitet werden, die es ermöglicht, sämtliche Widerstandskräfte zu berechnen und daraus auf die notwendigen Antriebsleistungen bzw. Drehmomente zu schließen. Im Anschluss daran kann eine Aussage getroffen werden, ob der Elektromotor die gewünschten Anforderungen erfüllt.
Mit Hilfe eines Präzisionsmessplatzes soll es ermöglicht werden, automatisierte Tests mit optischen Distanzsensoren der Firma SICK durchzuführen. Hierbei handelt es sich um applikationsbezogene Vergleichsmessungen. Für die Realisierung einer erweiterbaren, automatischen Ansteuerung wird mit LabVIEW eine Software entwickelt, die unterschiedliche Distanzsensoren für Displacement Anwendungen (kurze Reichweite) einbindet. Zur Bewertung von Sensoren werden unterschiedliche Messmodi bereitgestellt. Hierbei werden motorisierte Linearachsen angesteuert, wodurch dynamische 2D-, bzw. 3D Messungen von unterschiedlichen Materialproben ermöglicht werden. Außerdem können Messergebnisse verschiedener Materialproben visuell verglichen werden. Des Weiteren besteht die Möglichkeit, aufgenommene Messdaten zu exportieren.
Mit der realisierten Ansteuerungssoftware ist es möglich, in Zukunft Mitarbeiter der global agierenden Sales & Service Units ressourcenschonend und in einem anwendungsbezogenen Kontext in die Benutzung und Bewertung von Dis-placementsensoren einzuarbeiten. Für diese Maßnahme der betrieblichen Weiterbildung ist eine Lerneinheit konzipiert. Hier geht es hauptsächlich darum, dass Mitarbeiter die Eigenschaften und Konfigurationsmöglichkeiten von Displacementsensoren verstehen und für unterschiedliche Testobjekte anwenden. Für die Lerneinheit sind Unterrichtsmaterialien erstellt sowie ein vollständiger Unterrichtsentwurf erarbeitet. Der Unterrichtsentwurf orientiert sich an dem Perspektivenschema nach Klafki (vgl. 1994, S. 270ff.).
Medical devices accompany our everyday life and come across in situations of worse condition, in significant moments concerning the health or during routine checkups. To ensure flawless operations and error-free results it is essential to test applications and devices. High risks for patient’s health come with operating errors [33] so that the presented research project, called Professional UX, identifies signals and irritations caused by the interaction with a certain device by analyzing mimic, voice and eye tracking data during user experience tests. Besides, this paper will provide information on typical errors of interactive applications which are based on an empirical lab-based survey and the evaluated results achieved. The pictured proceeding of user experience tests and the following analysis can also be applied to other fields and serves as a support for the optimization of products and systems.
In many application domains, in particular automotives, guaranteeing a very low failure rate is crucial to meet functional and safety standards. Especially, reliable operation of memory components such as SRAM cells is of essential importance. Due to aggressive technology downscaling, process and runtime variations significantly impact manufacturing yield as well as functionality. For this reason, a thorough memory failure rate assessment is imperative for correct circuit operation and yield improvement. In this regard, Monte Carlo simulations have been used as the conventional method to estimate the variability induced failure rate of memory components. However, Monte Carlo methods become infeasible when estimating rare events such as high-sigma failure rates. To this end, Importance Sampling methods have been proposed which reduce the number of required simulations substantially. However, existing methods still suffer from inaccuracies and high computational efforts, in particular for high-sigma problems. In this paper, we fill this gap by presenting an efficient mixture Importance Sampling approach based on Bayesian optimization, which deploys a surface model of the objective function to find the most probable failure points. Its advantages include constant complexity independent of the dimensions of design space, the potential to find the global extrema, and higher trustworthiness of the estimated failure rate by accurately exploring the design space. The approach is evaluated on a 6T-SRAM cell as well as a master-slave latch based on a 28nm FDSOI process. The results show an improvement in accuracy, resulting in up to 63× better accuracy in estimating failure rates compared to the best state-of-the-art solutions on a 28nm technology node.
Angesichts des verschärften intermedialen Wettbewerbs stellt sich die Frage, wie Medienunternehmen und Verlage künftig mit ihren Print- und Digitalangeboten den Bedürfnissen ihrer Kunden gerecht werden können. Es geht dabei um die Möglichkeiten, mit Abonnementangeboten und Bundles News und journalistische Inhalte aufzubereiten und so anzubieten, dass sie einen maximalen Nutzen stiften und marktfähig sind.
Diese Bachelorarbeit befasst sich mit der Integration von Storytelling in der Unternehmenskommunikation mittelständischer Unternehmen und analysiert, welche Bedeutung dem Einsatz von Storytelling zur Lead-Generierung, zugesprochen werden kann. Dabei wird die Wirkungsweise von Storytelling näher betrachtet und mit dem unternehmerischen Nutzen in Verbindung gebracht.
Die Arbeit bietet einen Überblick über die Kommunikationsabläufe eines Unternehmens und nimmt den Leadgenerierungsprozess unter die Lupe. Unter Berücksichtigung der besonderen Rahmenbedingungen, die sich für mittelständische Unternehmen ergeben, werden Berührungspunkte und Zusammenhänge erarbeitet, die eine Integration von Storytelling in den Leadgenerierungsprozess ermöglichen. Die Betrachtung der Rolle von Storytelling, sowohl auf der operativen als auch auf der strategischen Ebene, verdeutlicht dabei die unterschiedlichen Integrationsstufen, die sich für den Storytelling-Einsatz ergeben können. Ein abschließender Ausblick, bei dem die Herausforderungen des Mittelstandes erörtert werden, soll auf die Bedeutung des Storytellings in der nahen Zukunft eingegangen werden.
Wer sich als Pädagoge und Wissenschaftler mit dem Thema „Digitalisierung und Schule“ befasst, stellt fest, dass nur Wenige die Tragweite der beabsichtigten Transformation von Bildungseinrichtungen zu automatisierten, algorithmisch gesteuerten Lernfabriken realisieren. Dabei wird übersehen, dass mit Theorien und empirischen Modellen wie der „datengestützten Schulentwicklung“ und „Learning Analytics“ grundlegende Paradigmenwechsel verbunden sind, die das humane wie das christliche Menschenbild erschüttern. Mit Kybernetik und Behaviorismus auf der einen, mit der sogenannten „Künstlichen Intelligenz“ (KI) und darauf aufbauenden Geschäftsmodellen der Datenökonomie auf der anderen Seite, untergraben diese Beschulungsmodelle die Autonomie, das Selbstbestimmungsrecht und die Handlungsfreiheit des Menschen. Vertreter dieser Disziplinen behaupten, dass sowohl der einzelne Mensch wie Sozialgemeinschaften wie Maschinen programmiert und gesteuert werden können. Sie blenden aus, dass Mündigkeit und Selbstverantwortung das Ziel von Schule und Unterricht sind, nicht maschinell berechnete Verhaltenssteuerung und -manipulation. Diese Fehlentwicklungen sind nicht der Technik an sich geschuldet, die sich anders einsetzen ließe, sondern den Geschäftsmodellen der IT-Anbieter.
Vorgestellt wird ein Konzept zur biologischen Methanisierung von Wasserstoff direkt in Biogasreaktoren, mit dem durch Membranbegasung der Methangehalt des Biogases auf > 96 % erhöht werden kann. Essentiell zum Erreichen solch hoher Methanwerte sind die Einhaltung eines optimalen pH-Bereichs und die Vermeidung von H2-Akkumulation. Im Falle einer Limitierung der Methanbildungsrate durch den eigentlichen anaeroben Abbauprozess der Biomasse ist auch eine externe Zufuhr von CO2 zur weiteren Methanbildung denkbar. Das Verfahren soll weiter optimiert und in einem von der Deutschen Bundesstiftung Umwelt geförderten Projekt in der Biogasanlage einer regionalen Käserei in der Praxis getestet werden. Die hier angestrebte Kombination aus dezentraler Abfallverwertung und Eigenenergieerzeugung eines lebensmittelverarbeitenden Betriebs unter Einbindung in ein intelligentes Erneuerbare Energien - Konzept soll einen zusätzlichen Mehrwert liefern.
Brückenkurs Physik
(2019)
Dieses Lehrbuch fasst alle wesentlichen, für das Studium eines MINT-Faches relevanten Inhalte der Physik zusammen und hilft physikalisches Grundwissen aufzufrischen. Es unterstützt Studienanfänger dabei, die Routine in der konkreten Anwendung, die an der Hochschule vorausgesetzt wird, zu festigen. Dabei folgt die Stoffauswahl dem Mindestanforderungskatalog Physik, den ein Arbeitskreis aus Professoren der baden-württembergischen Hochschulen für angewandte Wissenschaften zusammengestellt hat.
Campus 2019
(2019)
Besides of conventional CAD systems, new, cloud-based CAD systems have also been available for some years. These CAD systems designed according to the principle of software as a service (SaaS) differ in some important features from the conventional CAD systems. Thus, these CAD systems are operated via a browser and it is not necessary to install the software on a computer. The CAD-data is stored in the cloud and not on a local computer or central server. This new approach should also facilitate the sharing and management of data. Finally, many of these new CAD systems are available as freeware for education purposes, so the universities can save license costs. This contribution examines newly developed, cloud-based CAD systems. In the context of a case study, the application of these new CAD systems are investigated in the training of engineers in design education. Thus, the students compare a conventional and a cloud-based CAD system as part of an exercise of designing and 3D modelling of a pinion shaft. Subsequently, the students manufacture a drawing with different views of the pinion shaft. This assessment evaluates different criteria such as user-friendliness, tutorial support and installation effort.
Occluders made of the shape memory alloy Nitinol are commonly used to close Atrial Septal Defects (ASD). Until now, standard parameters are missing defining the mechanical properties of these implants. In this study,we developed a special measuring setup for the determination of the mechanical properties of customly available occluders (i.e. Occlutech Figulla®Flex II 29ASD12 and AGA AMPLATZER™9-ASD-012
Classification of TRIZ Inventive Principles and Sub-Principles for Process Engineering Problems
(2019)
The paper proposes a classification approach of 40 Inventive Principles with an extended set of 160 sub-principles for process engineering, based on a thorough analysis of 155 process intensification technologies, 200 patent documents, 6 industrial case studies applying TRIZ, and other sources. The authors define problem-specific sub-principles groups as a more precise and productive ideation technique, adaptable for a large diversity of problem situations, and finally, examine the anticipated variety of ideation using 160 sub-principles with the help of MATCEM-IBD fields.
Protecting software from illegal access, intentional modification or reverse engineering is an inherently difficult practical problem involving code obfuscation techniques and real-time cryptographic protection of code. In traditional systems a secure element (the "dongle") is used to protect software. However, this approach suffers from several technical and economical drawbacks such as the dongle being lost or broken.
We present a system that provides such dongles as a cloud service, and more importantly, provides the required cryptographic material to control access to software functionality in real-time.
This system is developed as part of an ongoing nationally funded research project and is now entering a first trial stage with stakeholders from different industrial sectors.
With the growing share of renewable energies in the electricity supply, transmission and distribution grids have to be adapted. A profound understanding of the structural characteristics of distribution grids is essential to define suitable strategies for grid expansion. Many countries have a large number of distribution system operators (DSOs) whose standards vary widely, which contributes to coordination problems during peak load hours. This study contributes to targeted distribution grid development by classifying DSOs according to their remuneration requirement. To examine the amendment potential, structural and grid development data from 109 distribution grids in South-Western Germany, are collected, referring to publications of the respective DSOs. The resulting data base is assessed statistically to identify clusters of DSOs according to the fit of demographic requirements and grid-construction status and thus identify development needs to enable a broader use of regenerative energy resources. Three alternative algorithms are explored to manage this task. The study finds the novel Gauss-Newton algorithm optimal to analyse the fit of grid conditions to regional requirements and successfully identifies grids with remuneration needs. It is superior to the so far used K-Means algorithm. The method developed here is transferable to other areas for grid analysis and targeted, cost-efficient development.
In this article the high-temperature behavior of a cylindrical lithium iron phosphate/graphite lithium-ion cell is investigated numerically and experimentally by means of differential scanning calorimetry (DSC), accelerating rate calorimetry (ARC), and external short circuit test (ESC). For the simulations a multi-physics multi-scale (1D+1D+1D) model is used. Assuming a two-step electro-/thermochemical SEI formation mechanism, the model is able to qualitatively reproduce experimental data at temperatures up to approx. 200 °C. Model assumptions and parameters could be evaluated via comparison to experimental results, where the three types of experiments (DSC, ARC, ESC) show complementary sensitivities towards model parameters. The results underline that elevated-temperature experiments can be used to identify parameters of the multi-physics model, which then can be used to understand and interpret high-temperature behavior. The resulting model is able to describe nominal charge/discharge operation behavior, long-term calendaric aging behavior, and short-term high-temperature behavior during extreme events, demonstrating the descriptive and predictive capabilities of physicochemical models.
The authors explain a developed concept for research-oriented education in optics and photonics. It is presented which goals are to be achieved, which strategies have been developed and how these can be implemented in a blended learning scenario. The goal of our education is the best possible qualification of the students on the basis of a strong scientific and research-oriented education, which also includes the acquisition of important interdisciplinary competences. All phases of a research process are to be mapped in the learning process and offer students an insight into current research topics in optics and photonics.
The development of secure software systems is of ever-increasing importance. While software companies often invest large amounts of resources into the upkeeping and general security properties of large-scale applications when in production, they appear to neglect utilizing threat modeling in the earlier stages of the software development lifecycle. When applied during the design phase of development, and continuously during development iterations, threat modeling can help in following a “Security by Design” approach. This approach allows issues relating to IT security to be found early during development, reducing the need for later improvement – and thus saving resources in the long term. In this thesis the current state of threat modeling is investigated. Based on this analysis, requirements for a new tool are derived. These requirements are then used to develop a new tool, called OVVL, which utilizes all main components of current threat modeling methodologies, as well as functionality not available in existing solutions. After documenting the development process and OVVL in general, this newly developed tool is used to conduct two case studies in the field of e-commerce and IoT.
Cast aluminum alloys are frequently used as materials for cylinder head applications in internal combustion gasoline engines. These components must withstand severe cyclic mechanical and thermal loads throughout their lifetime. Reliable computational methods allow for accurate estimation of stresses, strains, and temperature fields and lead to more realistic Thermomechanical Fatigue (TMF) lifetime predictions. With accurate numerical methods, the components could be optimized via computer simulations and the number of required bench tests could be reduced significantly. These types of alloys are normally optimized for peak hardness from a quenched state that maximizes the strength of the material. However due to high temperature exposure, in service or under test conditions, the material would experience an over-ageing effect that leads to a significant reduction in the strength of the material. To numerically account for ageing effects, the Shercliff & Ashby ageing model is combined with a Chaboche-type viscoplasticity model available in the finite-element program ABAQUS by defining field variables. The constitutive model with ageing effects is correlated with uniaxial cyclic isothermal tests in the T6 state, the overaged state, as well as thermomechanical tests. On the other hand, the mechanism-based TMF damage model (DTMF) is calibrated for both T6 and over-aged state. Both the constitutive and the damage model are applied to a cylinder head component simulating several cycles on an engine dynamometer test. The effects of including ageing for both models are shown.
Das Geschäftsgeheimnisgesetz - Praxisrelevante Aspekte der Umsetzung der EU Richtlinie 2016/943
(2019)
Geschäftsgeheimnisse sind wertvoll. Mit dem neuen Geschäftsgeheimnisgesetz vom 18.4.2019 (Gesetz zum Schutz von Geschäftsgeheimnissen – GeschGehG, BGBl. I 2019, 466) ist die Know-how-Richtlinie (Richtlinie (EU) 2016/943 des Europäischen Parlaments und des Rates vom 8.6.2016 über den Schutz vertraulichen Know-hows und vertraulicher Geschäftsinformationen vor rechtswidrigem Erwerb sowie rechtswidriger Nutzung und Offenlegung) umgesetzt. Der bisher dezentral und weitgehend unspezifiziert (§§ 823 ff., 826, 1004 BGB) bestehende Geheimnisschutz ist nunmehr einheitlich und übersichtlich zusammengefasst. Stefan Ernst gibt einen Überblick über die Neuerungen gegenüber der bisherigen Rechtslage und Anhaltspunkte für Handlungsbedarf bei betroffenen Unternehmen.
Data Science
(2019)
Data Science steht derzeit wie kein anderer Begriff für die Auswertung großer Datenmengen mit analytischen Konzepten des Machine Learning oder der künstlichen Intelligenz. Nach der bewussten Wahrnehmung der Big Data und dabei insbesondere der Verfügbarmachung in Unternehmen sind Technologien und Methoden zur Auswertung dort gefordert, wo klassische Business Intelligence an ihre Grenzen stößt.
Dieses Buch bietet eine umfassende Einführung in Data Science und deren praktische Relevanz für Unternehmen. Dabei wird auch die Integration von Data Science in ein bereits bestehendes Business-Intelligence-Ökosystem thematisiert. In verschiedenen Beiträgen werden sowohl Aufgabenfelder und Methoden als auch Rollen- und Organisationsmodelle erläutert, die im Zusammenspiel mit Konzepten und Architekturen auf Data Science wirken. Neben den Grundlagen werden unter anderem folgende Themen behandelt:
- Data Science und künstliche Intelligenz
- Konzeption und Entwicklung von Data-driven Products
- Deep Learning
- Self-Service im Data-Science-Umfeld
- Data Privacy und Fragen zur digitalen Ethik
- Customer Churn mit Keras/TensorFlow und H2O
- Wirtschaftlichkeitsbetrachtung bei der Auswahl und Entwicklung von Data Science
- Predictive Maintenance
- Scrum in Data-Science-Projekten
Zahlreiche Anwendungsfälle und Praxisbeispiele geben Einblicke in die aktuellen Erfahrungen bei Data-Science-Projekten und erlauben dem Leser einen direkten Transfer in die tägliche Arbeit.
Unternehmen erzielen durch den Einsatz von Big Data-Analyse bereits heute eine Umsatzsteigerung, bei gleichzeitiger Kostensenkung. Trotzdem setzen lediglich 36% der mittelständischen Unternehmen in Deutschland auf Big-Data Initiativen. Diese Unternehmen sind sich nicht bewusst, welchen Datenschatz sie bereits besitzen, allerdings nicht gewinnbringend nutzen.
Ziel der Arbeit ist es, die Herausforderungen mit denen Unternehmen in der digitalen Transformation konfrontiert werden, sowie die Chancen, die sich durch den Einsatz von Datenanalyse ergeben, herauszuarbeiten.
Die Arbeit stellt einen Leitfaden für kleine und mittelständische Unternehmen dar, die erste Erfahrungen mit Big Data-Analytics machen möchten.
Walking interfaces offer advantages in navigation of VE systems over other types of locomotion. However, VR helmets have the disadvantage that users cannot see their immediate surroundings. Our publication describes the prototypical implementation of a virtual environment (VE) system, capable of detecting possible obstacles using an RGB-D sensor. In order to warn users of potential collisions with real objects while they are moving throughout the VE tracking area, we designed 4 different visual warning metaphors: Placeholder, Rubber Band, Color Indicator and Arrow. A small pilot study was carried out in which the participants had to solve a simple task and avoid any arbitrarily placed physical obstacles when crossing the virtual scene. Our results show that the Placeholder metaphor (in this case: trees), compared to the other variants, seems to be best suited for the correct estimation of the position of obstacles and in terms of the ability to evade them.
Der bildungsferne Campus
(2019)
Die vorliegende Arbeit befasst sich mit der Fragestellung, inwiefern sich der Einsatz und die Produktion von Lernvideos an baden-württembergischen Berufsschulen aus der Per-spektive von Lehrpersonen auf Lehr- und Lernprozesse auswirken. Auf den ersten Blick ein sehr fokussierter Blick auf ein Randthema, auf eine von vielen didaktischen Möglich-keiten des Unterrichtens. Lernvideos – also irgendeine Methode, die sich aus den tech-nischen Möglichkeiten der digitalen Medien ergeben und eine zeitgemäße Weiterent-wicklung von Overhead-Projektor und Lehrbuch bedeuten. Dies wäre ein sehr verkürzter Blick, ja ein falscher auf dieses Thema. Nicht die technische Umsetzung, nicht die Er-gänzung des didaktischen Methodenpools steht im Vordergrund. Es geht um eine ganz grundsätzliche Sicht auf das Lehren und Lernen an Schulen, um die Kompetenzen, die bei den Schülern als output angestrebt werden, um die Anforderungen und Erwartun-gen welche die Gesellschaft – und vor allem die Arbeitswelt - zukünftig an die heran-wachsenden Generationen stellt.
DigitalPakt Schule der Bundesregierung , Industrie 4.0 , Berufsbildung 4.0 sind neue und umfassende Programme, um einen weiteren großen Schritt bei der so genannten digitalen Revolution zu gehen. Digitale Kompetenz, so formuliert das zuständige Minis-terium für Bildung und Forschung zur Begründung des DigitalPakts Schule, ist
„[…] von entscheidender Bedeutung für jeden und jede Einzelne, um digitale Medien selbst-bestimmt und verantwortungsvoll nutzen zu können und um gute Chancen auf dem Ar-beitsmarkt zu haben; und für die Gesellschaft, um Demokratie und Wohlstand im 21. Jahr-hundert zu erhalten.“
Auch innerhalb des Schulsystems wird seit langem geforscht und werden Handlungsempfehlungen herausgearbeitet, wie das System Schule auf die Digitalisierung aller Lebensbereiche reagieren muss. Später wird darauf noch näher eingegangen. Beispielhaft eine Aussage einer vom zuständigen Ministerium in Auftrag gegebenen Studie die festhält: Statt Wissensanhäufung und ‚Lernen auf Vorrat‘ sind andere Kompetenzen gefragt: In praxisbezogenen Problemstellungen soll Wissen angewendet werden. Dazu muss neues Wissen selbständig erarbeitet, neue Informationen recherchiert werden. Lernen und Arbeiten wachsen daher immer stärker zusammen.
Es geht also bei aller Integration der so genannten ‚Neuen Medien‘ in den Unterrichts-alltag an Schulen immer um die Prozess- und Ergebnisqualität des Lernprozesses.
Diese Vorgehensweise bietet auch ein Korrektiv in diesem Tempo der Veränderung, damit nicht jegliche Form der Digitalisierung per se als fortschrittlich und gut bewertet wird, sondern auf den qualitativen Prüfstand gestellt wird. Nicht die technische Mach-barkeit bestimmt den Fortschritt, sondern die Gütekriterien für eine gute Didaktik.
Ein weiterer Aspekt dieses Themenbereichs ist, dass bei der didaktischen Nut-zung von Lernvideos die Schule nicht Vorreiter oder gar Erfinder war. Die JIM-Studie aus dem Jahr 2016 zeigt, dass 87% der Jugendlichen und jungen Erwachsenen durchschnitt-lich 200 Minuten pro Tag im Internet surfen um sich zu informieren sowie zur Unterhal-tung. Weiter sehen sich 81% der Befragten mehrmals wöchentlich Videos im Internet an. Dabei steht die Nutzung des Online Portals YouTube an erster Stelle. Das Medium Film ist zusammenhängend als Leitmedium junger Erwachsener anzusehen und bedarf dementsprechend besonderer Aufmerksamkeit. Um nicht einer naiven Fortschrittsgläu-bigkeit zu verfallen soll daher der Einsatz von Lernvideos an baden-württembergischen Berufsschulen anhand einer qualitativen Forschung untersucht werden. Auch aufgrund der noch geringen Verbreitung dieser Lehr- und Lernform würde bei einer quantitativen Vorgehensweise kein ausreichendes Datenmaterial zur Verfügung stehen. Die vorlie-gende Arbeit fokussiert die Einbeziehung vorgefertigter Lernvideos in den Unterricht wie auch die eigene Herstellung und die damit verbundenen Lernprozesse. Da Lernvi-deos – zumindest von Ihrer Definition - eine sehr umfassende Möglichkeit selbstgesteu-erten Lernens beinhalten sollen, wird der Frage nachgegangen, ob Lernvideos auch im Rahmen von ‚Flipped Classroom‘ Anwendung finden können.
Aufgrund bisheriger Erfahrungen und theoretischen Auseinandersetzungen des Autors mit den Themen Film und digitale Medien wird der Arbeit folgende Hypothese vorweg-gestellt:
Der Einsatz und die Herstellung von Lernvideos im Unterricht an Berufsschu-len steigert die Prozess- wie auch die Ergebnisqualität des Unterrichts.
Die Auswertung wird zeigen, ob diese Lehr- und Lernmethode ein Baustein ist, die di-daktische Qualität des Unterrichts an die Anforderungen der digitalen Revolution anzu-passen.
Konkret soll die medienpädagogische Untersuchung auf Grundlage von 3 Forschungs-fragen durchgeführt werden.
1. Wie beeinflusst der Einsatz und die Herstellung von Lernvideos im Unterricht an beruflichen Schulen die Lehrer/Schüler Interaktion und wie verändert sich die Rolle der Lehrperson?
2. Wie wirken sich der Einsatz und die Herstellung von Lernvideos auf die Qualität des Unterrichts aus und lässt sich ein höherer Lernerfolg bei den Schülerinnen und Schülern feststellen?
3. Welche Rahmenbedingungen müssen an den Berufsschulen vorhanden sein, um diese Lehr- und Lernmethode gut integrieren zu können.
Aufbau und Ablauf dieser medienpädagogischen Untersuchung gliedert sich wie folgt: In Kapitel 2 findet eine Auseinandersetzung mit den mannigfaltigen Begrifflichkeiten statt, die in der Diskussion verwendet werden. Digitale Kompetenz, Medienkompetenz, Medi-enbildung, Medienpädagogik, sind Begriffe, die teilweise synonym verwendet werden, dadurch aber nicht zu Klarheit und Präzision führen. Oftmals entstehen aufgrund dieses Problems Verwirrungen, die für den Bereich beruflicher Praxis wenig hilfreich sind.
In Ableitung daraus soll das Thema in der bildungspolitischen Diskussion veror-tet werden, aber auch untersucht, inwieweit Gütekriterien für guten Unterricht in die Arbeit mit digitalen Medien integriert werden können. Im 3. Kapitel wird genauer auf die theoretischen Erkenntnisse und Forderungen der Lerntheorie eingegangen, mit Hilfe der Aspekte konstruktivistisches, kooperatives und selbstgesteuertes Lernen. Daraus folgernd, wie dieses Verständnis über Lernprozesse bei der Arbeit mit Lernvideos im Unterricht didaktisch umgesetzt werden kann. Im 4. Kapitel wird, ausgehend von einer kurzen theoretischen Begründung der qualitativen Sozialforschung, das Forschungsdes-ign beschrieben und ein Leitfaden für die Experteninterviews entwickeln. Nach Auswer-tung der transkribierten Gespräche werden die gewonnen Erkenntnisse auf die For-schungsfragen und die Erkenntnisse des Theorieteils bezogen.
Wünschenswert wäre, wenn diese Arbeit einen kleinen Baustein in die Diskussion eingebringen kann, wie die Formen heutiger Wissens- und Informationsverarbeitung sowie die prognostizierten Anforderungen der Arbeitswelt, in die Didaktik schulischen Lernens eingehen können.
Die zunehmende Digitalisierung macht den Einsatz von E-Mail-Marketing in Unternehmen fast unumgänglich. Um einen effektiven Kundenkontakt zu gewährleisten müssen Unternehmen auf den Versand von Newslettern setzen, die in regelmäßigen Abständen an den Kundenstamm herausgeschickt werden. Ein Newsletter beinhaltet Informationen, die von Relevanz für die Kundschaft ist. Die Thematik kann ein Überblick über Geschehnisse des Unternehmens sein, aber auch Events und Rabattaktionen sind möglich. In der heutigen Zeit stehen eine Vielzahl an Tools zur Verfügung, um mit Hilfe von Newslettern den Kontakt zum Kunden und zur Kundin zu pflegen. Die Generierung von E-Mail-Adressen, sowie die Kampagnenerstellung sind solche Teilgebiete. Ebenso das Tracking und der automatisierte Versand der E-Mails. Längst nicht alle Unternehmen nutzen die Vorteile des Kommunikationskanals und von denjenigen, die den Kanal nutzen, ist fast jeder Zweite nicht zufrieden mit seiner E-Mail-Marketing Strategie.1 Außerdem gibt es eine Menge Richtlinien, die es zu beachten gilt, wenn das E-Mail-Marketing genutzt wird, ansonsten kann es zu Abmahnungen kommen.
Die vorliegende Bachelorthesis stellt ein Leitfaden für die Umsetzung von Newslettern im B2C-Bereich dar. Dabei bietet die Arbeit einen Rundumblick in das Thema, sodass Unternehmen dadurch in der Lage sind einen Newsletter aufzubauen und somit den Kontakt zu ihren Abonnenten und Abonnentinnen erfolgreich zu halten. Unterthemen, die in dieser Thesis beleuchtet werden, sind zum einen die Planung und Zielsetzung eines Newsletters, anschließend die erfolgreiche Generierung von E-Mail-Adressen. Zum anderen auch die technischen und rechtlichen Anforderungen an die Newsletter. Außerdem werden die Gestaltungselemente und das Controlling behandelt. Größtenteils werden die Fragen innerhalb dieser Thesis mit Hilfe von relevanter Fachliteratur beantwortet. Zusätzlich werden die Ergebnisse durch eine Umfrage, sowie eine Eye-Tracking Untersuchung unterstützt.
A physical unclonable function (PUF) is a hardware circuit that produces a random sequence based on its manufacturing-induced intrinsic characteristics. In the past decade, silicon-based PUFs have been extensively studied as a security primitive for identification and authentication. The emerging field of printed electronics (PE) enables novel application fields in the scope of the Internet of Things (IoT) and smart sensors. In this paper, we design and evaluate a printed differential circuit PUF (DiffC-PUF). The simulation data are verified by Monte Carlo analysis. Our design is highly scalable while consisting of a low number of printed transistors. Furthermore, we investigate the best operating point by varying the PUF challenge configuration and analyzing the PUF security metrics in order to achieve high robustness. At the best operating point, the results show areliability of 98.37% and a uniqueness of 50.02%, respectively. This analysis also provides useful and comprehensive insights into the design of hybrid or fully printed PUF circuits. In addition, the proposed printed DiffC-PUF core has been fabricated with electrolyte-gated field-effect transistor technology to verify our design in hardware.
Hot working tools are subjected to complex thermal and mechanical loads during service. Locally, the stresses can exceed the material’s yield strength in highly loaded areas. During production, this causes cyclic plastic deformation and thus thermomechanical fatigue, which can significantly shorten the lifetime of hot working tools. To sustain this high loads, the hot working tools are typically made of tempered martensitic hot work tool steels. While the annealing temperatures of the tool steels usually lie in the range of 400 to 600 °C, the steels may experience even higher temperatures during hot working, resulting in softening of the material due to changes in microstructure. Therefore, the temperature-dependent cyclic mechanical properties of the frequently used hot work tool steel 1.2367 (X38CrMoV5-3) after tempering are investigated in this work. To this end, hardness measurements are performed. Furthermore, the Institute of Forming Technology and Machines (IFUM) provides test results from cyclic tests at temperatures ranging from 20 °C (room temperature) to 650 °C. To describe the observed time- and temperature-dependent softening during tempering, a kinetic model for the evolution of the mean size of secondary carbides based on Ostwald ripening is developed. In addition, both mechanism-based and phenomenological relationships for the cyclic mechanical properties of the Ramberg- Osgood model depending on carbide size and temperature are proposed. The stress-strain hysteresis loops measured at different temperatures and after different heat treatments can be well described with the proposed kinetic and mechanical model. Furthermore, the model is suitable for integration in advanced mechanism-based lifetime models. However, since the Ramberg-Osgood model is not suitable for finite element implementation, a temperature-dependent incremental cyclic plasticity model is presented as well. Thus, softening due to particle coarsening can be applied in the finite element method (FEM). Therefore, a kinetic model is coupled with a cyclic plasticity model including kinematic hardening. The plasticity model is implemented via subroutines in the finite element program ABAQUS for implicit integration (subroutine called UMAT) and explicit integration (subroutine called VUMAT). The implemented model is used for the simulation of an exemplary hot working process to assess the effects of softening due to particle coarsening. It shows that the thermal softening at high temperatures, which occur over a long time at a mechanically highly loaded area, has a great influence. If this influence is not considered in tool design, an unexpected tool failure might occur bringing the production to a standstill.
Dissertation D. Dongol
In this article we outline the model development planned within the joint projectModel-based city planningand application in climate change (MOSAIK). The MOSAIK project is funded by the German FederalMinistry of Education and Research (BMBF) within the frameworkUrban Climate Under Change ([UC]2)since 2016. The aim of MOSAIK is to develop a highly-efficient, modern, and high-resolution urban climatemodel that allows to be applied for building-resolving simulations of large cities such as Berlin (Germany).The new urban climate model will be based on the well-established large-eddy simulation code PALM, whichalready has numerous features related to this goal, such as an option for prescribing Cartesian obstacles. Inthis article we will outline those components that will be added or modified in the framework of MOSAIK.Moreover, we will discuss the everlasting issue of acquisition of suitable geographical information as inputdata and the underlying requirements from the model's perspective.
The ability to change aerodynamic parameters of airfoils during flying can potentially save energy as well as reducing the noise made by the unmanned aerial vehicles (UAV) because of sharp edges of the airfoil and its rudders. In this paper, an approach for the design of an adaptive wing using a multi-material 3D printer is shown. In multi-material 3D printing, up to six different materials can be combined in one component. Thus, the user can determine the mixture and the spatial arrangement of this “digital material” in advance in the pre-processing software. First, the theoretical benefits of adaptive wings are shown, and already existing adaptive wings and concepts are explicated within a literature review. Then the additive manufacturing process using photopolymer jetting and its capabilities to print multiple materials in one part are demonstrated. Within the scope of a case study, an adaptive wing is developed and the necessary steps for the product development and their implementation in CAD are presented. This contribution covers the requirements for different components and sections of an adaptive wing designed for additive manufacturing using multiple materials as well as the single steps of development with its different approaches until the final design of the adaptive wing. The developed wing section is simulated, and qualitative tests in a wind tunnel are carried out with the wing segment. Finally, the additively manufactured wing segment is evaluated under technical and economic aspects.
Development of Fully Printed Oxide Field-Effect Transistors using Graphene Passive Structures
(2019)
During the past decade to the present time, the topic of printed electronics has gained a lot of attention for their potential use in a number of practical applications, including biosensors, photovoltaic devices, RFIDs, flexible displays, large-area circuits, and so on. To fully realize printed electronic components and devices, effective techniques for the printing of passive structures and electrically and chemically compatible materials in the printed devices need to be developed first. The opportunity of using electrically conducting graphene inks will enable the integration of passive structures into active devices, as for example, printed electrolyte-gated transistors (EGTs). Accordingly, in this study, we present the parametric results obtained on fully printed electrolyte-gated transistors having graphene as the passive electrodes, an inorganic oxide semiconductor as the active channel, and a composite solid polymer electrolyte (CSPE) as the gate insulating material. This configuration offers high chemical and electrical stability while at the same time allowing EGT operation at low potentials, implying the distinct advantage of operation at low input voltages. The printed in-plane EGTs we developed exhibit excellent performance with device mobility up to 16 cm2 V–1 s–1, an ION/IOFF ratio of 105, and a subthreshold slope of 120 mV dec–1.
Emotionen sind im heutigen Konsumgütermarketing weit verbreitet. Egal, ob es EDEKA mit seinem „Wir lieben Lebensmittel“-Slogan und emotionalen Werbeclips, die den Rezipienten rühren sollen, Coca-Cola mit der suggeriert puren Lebensfreude oder Mercedes-Benz mit einem einzigartigen Fahrgefühl ist – Emotionen lassen sich überall ausmachen.
Doch wie sieht es damit im B2B-Marketing aus?
Wo oftmals noch die Überzeugung herrscht, dass Fakten und Zahlen die wichtigsten Faktoren für Beschaffungen sind. Dieser Eindruck scheint sich zu bestätigen, wirft man einen Blick auf den durchschnittlichen Messestand von Industrieanbietern auf der EMO, BAUMA oder Hannover Messe. Dort wird - im Vergleich zu Konsumgütermessen - schnell bewusst, dass viele Unternehmen das Potenzial emotionaler Werbung noch nicht oder nicht konsequent ausschöpfen. Dies erweist sich insofern als problematisch, weil durch eine allgemein steigende Produkthomogenität die Austauschbarkeit einzelner Marken sowie Produkte und mit ihr logischerweise auch der Wettbewerbsdruck bzw. Preisdruck auf die Anbieter wächst, da viele Anbieter vermeintlich das gleiche Produkte anbieten.
Daher wird im Rahmen dieser Arbeit aufgezeigt, wie Marken und Produkte auch im B2B-Bereich emotional inszeniert werden können, um - im Sinne einer Differenzierung vom Wettbewerb - einen positiven Einfluss auf Kaufentscheidungen potenzieller Nachfrager nehmen zu können. Dazu wird herausgearbeitet, mit welchen konkreten Marketinginstrumenten und Emotionen unter Beachtung der Besonderheiten des B2B-Marketings sowie der Markenführung im Industriegütermarketing gearbeitet werden kann.
Die Kultur der Macht: Politische Kommunikation zwischen Artefakten, Manipulation und Repräsentation
(2019)
Macht ist eine entscheidende Größe, um innerhalb von sozialen Systemen Veränderungen durchzusetzen und Entwicklungen voranzutreiben oder gar erst zu ermöglichen. In der politischen Kommunikation ist der bewusste und konstruktive Umgang mit Macht oft einer der Erfolgsfaktoren für politische Akteure wie Politiker, Bürger und Parteien. Macht kann dabei nur durch die Menschen ausgeübt werden, denen sie durch andere zugesprochen oder auch zugebilligt wird, weshalb der Kultur der Macht als Ergebnis und Mittel der Kommunikation eine entscheidende Bedeutung zukommt. Dies ist aktuell durch die veränderten Informations- und Mediennutzungsgewohnheiten der Bürger*innen und der veränderten Kommunikationsszenarien in Zeiten postfaktischer und populistischer Tendenzen eine besondere Herausforderung. Ausgehend von der Wechselwirkung zwischen Artefakten der Macht und dem Aufgabenfeld der politischen Kommunikation werden in der knapp gefassten Analyse die praktischen Handlungsfelder aufgezeigt. Die kommunikativen Anforderungen aus dem Prinzip der Repräsentation, die Ausgestaltung politsicher Informationen und die Festlegung des passenden Sprachniveaus, die Auswahl der passenden Kommunikationskanäle und -anlässe sowie die Entwicklung kompletter Kampagnen oder die Festlegung inhaltlicher Wahlkampfstrategien erweisen sich als große Herausforderung für alle politischen Akteure.
Die Wörz´sche Heuristik
(2019)
Die vorliegende Master-Thesis befasst sich mit dem Thema Handel. In der Arbeit wird der Bereich des Multi-Channel-Handels genauer durchleuchtet. Es wird aufgezeigt, wie der Zukunft des Handels weltweit und in Deutschland aussehen wird.
Der Handel wird besonders heute sehr vom Konsumierendenverhalten beeinflusst. Unternehmen passen sich mehr als je zuvor an Wünsche und Anforderungen der Zielgruppe an. Dies ist wichtig für Handelsunternehmen um wettbewerbsfähig und profitabel zu bleiben, vor allem in einem immer aggressiver werdenden Wettbewerbskampf um Konsumierende. In dieser Arbeit wird dargestellt, wie sich die Customer Journey und der Kaufprozess der Konsumierenden verändert hat und flexibler geworden ist. Es gibt nicht mehr nur einen Weg, wie potentielle Verkaufsinteressierende zu Kundschaft wird. Die Kundschaft lässt sich nicht mehr von Unternehmen leiten, sondern möchte eigenständig und selbstbestimmt zwischen verschiedenen Absatzkanälen und Endgeräten wechseln. Daher ist ein verknüpftes Multi-Channel-System für Handelsunternehmen wichtig. In dieser Arbeit soll zudem gezeigt werden, dass die Omni-Channel-Strategie die Strategie der Zukunft ist und wie der Begriff des New Retail sowohl den Online-Handel, als auch den stationären Handel prägen wird.
Online-Handelsunternehmen wie Amazon, Alibaba und Bonprix haben bereits verstanden, dass der stationäre Handel nicht „ausstirbt“, sondern durch eine intelligente Verknüpfung mit dem Online-Handel sehr zukunftsweisend gemacht werden kann. Daher wird in dieser Arbeit auch gezeigt, wie sich pure E-Commerce-Unternehmen in den Innenstädten und Einkaufszentren in den USA, China und Deutschland ausbreiten und damit eine Omni-Channel-Strategie schaffen.
Die Auswirkungen der digitalen Transformation werden meist im Kontext von Wirtschaftsunternehmen diskutiert und auf die Blickwinkel Wirtschaft und Technologie fokussiert. Der digitale Wandel hat jedoch auch die Führungsaufgaben in vielen gesellschaftlichen Bereichen verändert, wie am Beispiel Schule und Kommunalverwaltung aufgezeigt wird.
Das vorliegende Buch richtet sich vorwiegend an Webentwickler und Webinteressierte. Zunächst wird ein Überblick über Digital Storytelling, seine Geschichte und die verschiedenen heutigen Ausprägungen gegeben. Dabei liegt der Fokus auf Digital Storytelling im Web auf Basis von Animation.
Besonders die Idee der scroll-activated animation als zeitgemäßes Konzept für das Storytelling wird in diesem Buch in den Mittelpunkt gestellt.
Als technische Möglichkeiten zur Umsetzung von Webanimationen werden CSS3, SVG und HTML5-Canvas vorgestellt und diese in der Folge detailliert beschrieben.
Im Rahmen eines umfangreich dokumentierten Demoprojekts wird intensiv auf die Konzeption einer scroll-actived animation basierten Website und deren technische Umsetzung mittels HTML5, CSS3, JavaScript/jQuery und ScrollMagic sowie die damit verbundenen Herausforderungen eingegangen. Dies erlaubt dem Leser das detaillierte Nachvollziehen der Erstellung und die davon abgeleitete Entwicklung eigener Projekte.
Der Inhalt des Buches
- Definition, Entwicklung und psychologische Wirkungsweisen
- Medienformen
- Digital Storytelling
- Animationen im Web
- Technische Umsetzung
Die Zielgruppen des Buches
- Konzepter
- Webentwickler
- Mediengestalter
- Studenten, Azubis
- Webinteressierte
Über Chancen und Risiken von Computern an Schulen wird seit deren Einführung im Jahr 1984 kontrovers diskutiert. Neben Laptops und Tablets geht es heute um die Nutzung von Schulclouds und privaten Smartphones im Unterricht. Das Akronym dafür ist BYOD – »Bring Your Own Device«.
Dabei stellen sich grundsätzliche pädagogische und politische Fragen: Welcher Unterrichts- und Medienkonzepte bedarf es, um den Risiken der Digitalisierung vorzubeugen, die Schüler_innen aber zugleich an deren Chancen teilhaben zu lassen? Bei Netzanwendungen ist zudem der Datenschutz zu beachten, vor allem, wenn eigene Geräte genutzt werden sollen. So fördert das BMBF eine Schulcloud, in der Lehrkräfte und Schüler_innen wie bei Facebook Gruppen bilden, Dokumente austauschen und online darüber diskutieren können.
Das Buch greift die aktuelle Kontroverse auf und fragt nach den Zielen und Nebenwirkungen von »Bildung 4.0«. Was davon ist für die Unterrichtspraxis relevant? Und wessen Interessen werden bei welchen Konzepten vertreten?
Die öffentliche Diskussion über den Einsatz digitaler Medien in Schule und Unterricht verkennt die zugrundeliegenden Interessen. Seit über 30 Jahren wird jede neue Generation von Digitaltechnik in die Schulen gedrückt. 1984 waren es Personal Computer (PC), in den 1990er Jahren Laptops, aktuell sind es WLAN, Tablets und Smartphones. Die Argumente sind identisch: Angeblich sorgen die Geräte für moderneren, innovativeren Unterricht, höhere Motivation der Schüler/innen, bessere Lernergebnisse. Wissenschaftlich valide Studien belegen das Gegenteil. Der pädagogische Nutzen war und ist bis heute negativ. PISA-Koordinator Andreas Schleicher: „Wir müssen es als Realität betrachten, dass Technologie in unseren Schulen mehr schadet als nützt.“ (Schleicher, 2016) Der Aktionsrat Bildung bestätigt in einer Studie für die Vereinigung der Bayerischer Wirtschaft (vbw) „statistisch signifikant niedrigere Kompetenzen in den Domänen Mathematik und Naturwissenschaften“, wenn Grundschülerinnen und Grundschüler im Unterricht mindestens einmal wöchentlich Computer einsetzen im Vergleich zu Grundschulkindern, die seltener als einmal pro Woche Computer im Unterricht nutzten - und fordert trotzdem, die Schulen müssten schneller digitalisiert werden.
Es geht offensichtlich um Anderes. Es sind wirtschaftliche Interessen der IT-Wirtschaft und der Global Education Industries (GEI), die die Bildungsmärkte nach angelsächsischem Vorbild privatisieren und kommerzialisieren wollen. Es sind zugleich die Geschäftsmodelle der Daten-Ökonomie, die alle Lebensbereiche verdaten und Menschen per Algorithmus und kybernetischen Modellen steuern wollen – wie in den 1950er Jahren (Behaviorismus, programmiertes Lernen). Die Digitalisierung ist „nur“ die technische Infrastruktur zur Datenerhebung, die empirische Bildungsforschung das Instrumentarium zur Quantifizierung auch des Sozialen (Mau, 2018). Nach Arbeitsmarkt und Kommunikation stehen derzeit Bildung und Gesundheit auf der Agenda der Digitalisten. Das Problem: Werden soziale Systeme nach der binären Logik der IT umgebaut, verlieren sie alles Soziale. Daher ist die vordringliche Aufgabe der Pädagogik, die derzeit dominierenden Denkstrukturen von BWL und IT, Empirie, Kennzahlenfixierung und behavioristischen Lerntheorien als dysfunktionalen und a-sozialen Irrweg zu kennzeichnen und stattdessen Schule und Unterricht wieder vom Menschen und seinen Lernprozessen her zu denken.
Die Digitalisierung aller Lebensbereiche ist kein Technik-, sondern ein Systemwechsel. Alles, was wir im Netz tun, wird verdatet; idealiter prenatal bis postmortal. Dieser Datenpool wird mit immer ausgefeilteren Algorithmen des Big Data Mining analysiert und mit Methoden der Empirie, Statistik und Mustererkennung ausgewertet. Der Mensch wird zum Datensatz. Je früher Menschen psychometrisch vermessen werden können, desto exaktere Persönlichkeits-, Lern- und Leistungsprofile entstehen – und umso leichter ist die Einflussnahme. Das ist der Grund für die Forderung nach Digitaltechnik in KiTas und Grundschulen. Menschen werden daran gewöhnt zu tun, was Maschinen ihnen sagen. Das ist Gegenaufklärung aus dem Silicon Valley per App und Web. Wie Alternativen aussehen können, zeigt dieser Beitrag.
Direct Digital Manufacturing of Architectural Models using Binder Jetting and Polyjet Modeling
(2019)
Today, architectural models are an important tool for illustrating drawn-on plansor computer-generated virtual models and making them understandable. Inaddition to the conventional methods for the manufacturing of physical models, awide range of processes for Direct Digital Manufacturing (DDM) has spreadrapidly in recent years. In order to facilitate the application of these new methodsfor architects, this contribution examines which technical and economic resultsare possible using 3D printed architectural models. Within a case study, it will beshown on the basis of a multi-storey detached house, which kind of datapreparation is necessary. The DDM of architectural models will be demonstratedusing two widespread techniques and the resulting costs will be compared.
Economic growth and ecological problems motivate industries to apply eco-friendly technologies and equipment. However, environmental impact, followed by energy and material consumption still remain the main negative implications of the technological progress in process engineering. Based on extensive patent analysis, this paper assigns more than 250 identified eco-innovation problems and requirements to 14 general eco-categories with energy consumption and losses, air pollution, and acidification as top issues. It defines primary eco-engineering contradictions, in case eco-problems appear as negative side effects of the new technologies, and secondary eco-engineering contradictions, if eco-friendly solutions have new environmental drawbacks. The study conceptualizes a correlation matrix between the eco-requirements for prediction of typical eco-contradictions on example of processes involving solids handling. Finally, it summarizes major eco-innovation approaches including Process Intensification in process engineering, and chronologically reviews 66 papers on eco-innovation adapting TRIZ methodology. Based on analysis of 100 eco-patents, 58 process intensification technologies, and literature, the study identifies 20 universal TRIZ inventive principles and sub-principles that have a higher value for environmental innovation.
Process engineering industries are now facing growing economic pressure and societies' demands to improve their production technologies and equipment, making them more efficient and environmentally friendly. However unexpected additional technical and ecological drawbacks may appear as negative side effects of the new environmentally-friendly technologies. Thus, in their efforts to intensify upstream and downstream processes, industrial companies require a systematic aid to avoid compromising of ecological impact. The paper conceptualises a comprehensive approach for eco-innovation and eco- design in process engineering. The approach combines the advantages of Process Intensification as Knowledge-Based Engineering (KBE), inventive tools of Knowledge-Based Innovation (KBI), and main principles and best-practices of Eco-Design and Sustainable Manufacturing. It includes a correlation matrix for identification of eco-engineering contradictions and a process mapping technique for problem definition, database of Process Intensification methods and equipment, as well as a set of strongest inventive operators for eco-ideation.
As engineering graduates and specialists frequently lack the advanced skills and knowledge required to run eco-innovation systematically, the paper proposes a new teaching method and appropriate learning materials in the field of eco-innovation and evaluates the learning experience and outcomes. This programme is aimed at strengthening student’s skills and motivation to identify and creatively overcome secondary eco-contradictions in case if additional environmental problems appears as negative side effects of eco-friendly solutions.
Based on a literature analysis and own investigations, authors propose to introduce a manageable number of eco-innovation tools into a standard one-semester design course in process engineering with particular focus on the identification of eco-problems in existing technologies, selection of the appropriate new process intensification technologies (knowledge-based engineering), and systematic ideation and problem solving (knowledge-based innovation and invention).
The proposed educational approach equips students with the advanced knowledge, skills and competences in the field of eco-innovation. Analysis of the student’s work allows one to recommend simple-to-use tools for a fast application in process engineering, such as process mapping, database of eco-friendly process intensification technologies, and up to 20 strongest inventive operators for solving of environmental problems. For the majority of students in the survey, even the small workload has strengthened their self-confidence and skills in eco-innovation
Eine etwas andere Einleitung
(2019)
Eine funktionelle Beschreibung des tibialis anterior in Abhängigkeit der unteren Sprunggelenksachse
(2019)
Das Ziel in dieser Bachelorarbeit war es, die Achse des unteren Sprunggelenks mit zwei Methoden zu ermitteln und mit Angaben der Literatur zu vergleichen. Des Weiteren sollte der Musculus tibialis anterior stimuliert und die Ergebnisse in Abhängigkeit der Methoden gestellt werden.
Zur Ermittlung der Achse wurde, aus Gründen der Ökonomie, eine modifizierte Methode nach Kirby und eine Methode mit Sensoren angewandt, bei Letzteren handelt es sich um sogenannte IMUs. Bei der modifizierten Kirby-Methode wurde gegen eine Plexiglasplatte gedrückt, die an der Fußsohle angebracht war, um Punkte zu finden, an denen der Fuß nicht rotiert. Anschließend wurden diese Punkte digitalisiert und ausgewertet. Bei der IMU-Methode wurden zwei IMUs an der Plexiglasplatte und der Tibia-Kante angebracht. Beim Bewegen des Fußes, in maximaler Dorsalflexion, in Richtung Pro- und Supination wurden die Daten der Sensoren aufgezeichnet und anschließend ausgewertet. Dabei stieg die Stimulationsstärke bis zum Erreichen von neunzig Prozent des max. Dorsalflexionswinkels, der zuvor willkürlich erreicht wurde. Die Stimulationen wurden aufgezeichnet und in Pronation und Dorsalflexion kategorisiert.
Es wurden 44 Sprunggelenke mit der modifizierten Kirby-Methode und 18 Sprunggelenke mit der IMU-Methode gemessen und stimuliert. Wie auch in der Literatur bestätigt wird, konnte mit keiner der beiden Methoden ein Zusammenhang zwischen rechter und linker Achse gemessen werden. Es zeigte sich bei der modifizierten Kirby-Methode keine Abhängigkeit zur Stimulation. Jedoch konnte mit der IMU-Methode eine untere Sprunggelenksachse ermittelt werden, unter der es bei der Stimulation zur Supination kam bzw. über der eine Pronation auftrat. Der Bland-Altman-Plot hat gezeigt, dass die modifizierte Kirby-Methode im Vergleich zur IMU-Methode unterbestimmt und es mit steigender Achse zu höheren Differenzen der beiden Methoden kommt. Die Stimulation des Musculus tibialis anterior hat gezeigt, dass bei den Probanden sowohl Pronation als auch reine Dorsalflexion festgestellt wurde.
Die Ergebnisse der Modifizierten Kirby-Methode sind aus vielerlei Hinsicht nicht plausibel und stimmen nicht mit den gemessenen Achsen in der Literatur überein. Die Ergebnisse der IMU-Methode haben in Abhängigkeit zur Stimulation gezeigt, dass eine Ausrichtung der USG-Achse einen Einfluss auf die Bewegung des Musculus tibialis anterior hat. Dieser Sachverhalt und auch die unterschiedlichen Funktionen des Musculus tibialis anterior wurden in der Literatur bisher nicht beschrieben.
Die Bachelorarbeit soll sich im Kern mit Möglichkeiten beschäftigen, wie der Faktor Mensch für die Bedrohung durch Social Engineering reduziert werden kann. Um diese Thematik aufzugreifen und zielführend zu bearbeiten, müssen zunächst einige Grundlagen geklärt werden. Deshalb wird im ersten Teil der Arbeit der Begriff Social Engineering definiert und es werden Unterschiede und Abstufungen erklärt. Weiterführend wird das Vorgehen bei Social Engineering Angriffen bzw. Penetrantionstests und Red Teaming Aufträgen in diesem Bereich erläutert. Dies findet in Zusammenarbeit mit der Firma cirosec statt. Hier findet auch direkt ein Vergleich mit dem Vorgehen „nach Lehrbuch“ vom wohl bekanntesten Social Engineer Kevin Mitnick statt und die bekanntesten Angriffs-Möglichkeiten werden genannt und beschrieben. Abschließend soll eine Abgrenzung zwischen gezielten und gestreuten Angriffen getroffen werden, da diese beiden Szenarien essenzielle Unterschiede in der Effektivität von Gegenmaßnahmen aufweisen.
Im folgenden Teil werden ehemalige Projekte der Firma cirosec GmbH nach einer Anonymisierung, mit dem Ziel analysiert, neben dem Vorgehen auch die Angriffsvektoren, das menschliche Fehlverhalten und, vor allem, die technischen Probleme in den vorliegenden Beispielen zu finden. Anschließend wird aufgezeigt, warum groß angelegte Awareness-Kampagnen eventuell auch zu Problemen für ein Unternehmen führen können.
Ein großer Teil der Arbeiten über das Thema Social Engineering stellen den Menschen als Risikofaktor in das Zentrum der Aufmerksamkeit. In dieser Thesis soll aber genau das nicht passieren. Betrüger gibt es seit es Menschen gibt, denn die Naivität und Gutgläubigkeit von
selbigen wurde schon immer ausgenutzt.
Doch anstatt diese Charaktereigenschaften, die sich über Jahrhunderte im Zusammenleben etabliert haben und auch dafür notwendig sind, mit Awareness Kampagnen oder Schulungen zu unterbinden, soll hier ein anderer Ansatz verfolgt werden. Das Augenmerk soll mehr auf technische Probleme gelegt werden. Eine IT Landschaft muss in der Zukunft nicht so gebaut sein, dass Menschen Schulungen brauchen, um sicher damit umzugehen.
Stattdessen soll eine Optimierung dahingehend passieren, dass der Mensch überhaupt keine schwerwiegenden und sicherheitskritischen Fehler begehen kann.
Es wird sich die Frage gestellt, wo man als Gegenmaßnahme ansetzen muss und dazu werden die vorher analysierten Projektbeispiele erneut aufgegriffen.
Auf Basis dieser Informationen, und den genannten Social Engineering Angriffsarten, werden Maßnahmen, die größtenteils technischer Natur sind, vorgestellt, erklärt und es wird beschrieben, gegen welche Arten von Angriffen sie effektiv helfen könnten. Dies soll im Idealfall, in einer sinnvollen Kombination, eine vernünftige Verteidigung gegen Social Engineering-Angriffe bieten.
Schlussendlich soll sich in einer perfekten IT-Landschaft jeder Mitarbeiter, ob mit fundiertem oder verschwindend geringem Sicherheitsverständnis, problemlos bewegen können und nicht vor jedem Klick oder dem offen halten einer Tür hinterfragen müssen, ob er damit das gesamte Unternehmen gefährden könnte.
Die Eigenschaften von Fluiden sind zur Beschreibung von Strömungsvorgängen mit den Erhaltungssätzen für Masse, Impuls und Energie notwendig. Für inkompressible Fluide wird die Grenze der Dichteänderung in Abhängigkeit der Machzahl angegeben. Die Rheologie behandelt die Fließeigenschaften der Fluide bei Deformationen in Strömungen. Die Viskosität tritt beim newtonschen Schubspannungsansatz auf. Das Verhalten von Druck und Dichte in der Hydro- und Aerostatik wird beschrieben.
Einleitung
(2019)
Background: Pulmonary vein isolation (PVI) using cryoballoon catheters are a recognized method for the treatment of atrial fibrillation (AF). This method offers shorter treatment duration in contrast to the classical therapy with high-frequency (HF) ablation.
Purpose: The aim of this study was to integrate different cryoballoon catheters and a HF catheter into a heart rhythm model and to compare them by means of static and dynamic electromagnetic and thermal simulation in use under AF.
Methods: The cryoballoon catheters from Medtronic and the HF ablation catheter from Osypka were modelled virtually with the aid of manufacturer specifications and the CST (Computer Simulation Technology, Darmstadt) simulation program. The cryoballoon catheter was located in the lower left pulmonary vein of the virtual heart rhythm model for the realization of pulmonary vein isolation (PVI) by cryoenergy. The simulated temperature at the balloon surface was -50°C during the simulation.
Results: During a simulated 20 second application of a cryoballoon catheter at -50°C, a temperature of -24°C was measured at a depth of 0.5 mm in the myocardium. At a depth of 1 mm the temperature was -3°C, at 2 mm depth 18°C and at 3 mm depth 29°C. Under the 15 second application of a RF catheter with a 8 mm electrode and a power of 5 W at 420 kHz, the temperature at the tip of the electrode was 110°C. At a depth of 0.5 mm in the myocardium, the temperature was 75°C, at a depth of 1 mm 58°C, at 2 mm depth 45°C and at 3 mm depth 38°C.
Conclusions: The simulation of temperature profiles during the virtual application of several catheter models in the heart rhythm model allows the static and dynamic simulation of PVI by cryoballoon ablation and RF ablation. The three-dimensional simulation can be used to improve ablation applications by creating a model in personalized cardiac rhythm therapy from MRI or CT data of a heart and finding a favourable position for ablation of AF.
Background: The application of high-frequency ablation is used for the treatment of tachycardia arrhythmias and is a respected method. Ablation with high frequency current leads to the targeted heat destruction of myocardial tissue at specific sites and thus prevents the pathological propagation of excitation through these structures.
Purpose: The aim of this study was to simulate heat propagation during RF ablation with modeled electrodes in different sizes and materials. The simulation was performed on atrioventricular node re-entry tachycardia (AVNRT), atrioventricular re-entry tachycardia (AVRT) and atrial flutter (AFL).
Methods: Using the modeling and simulation software CST, ablation catheters with 4 mm and 8 mm tip electrodes were modeled from gold and platinum for each. The designed catheters correspond to the manufacturer"s specifications of Medtronic, Biotronik and Osypka. The catheters were integrated into the Offenburg heart rhythm model to simulate and compare the heat propagation during an ablation application, which also takes into account the blood flow in the four heart chambers. A power of 5 W - 40 W was simulated for the 4 mm electrodes and a power of 50 W - 80 W for the 8 mm electrodes.
Results: During the simulated HF ablation application, the temperature at the ablation electrode was measured at different powers. This is 40.67°C at 5 W, 44.34°C at 10 W, 51.76°C at 20 W, 59.0°C at 30 W, and 66.33°C at 40 W. The measured temperature during 40 W application is 39.5°C at 0,5 mm depth in the myocardium and 37.5°C at 2 mm depth.
In the simulation, the 8 mm platinum electrode reached an ablation temperature of 72.85°C at its tip during an applied power of 60 W. In contrast, the 8 mm platinum electrode reached a depth of 5 mm at 39.5 C° and at a depth of 2 mm at 37.5 °C. In contrast, the 8 mm gold electrode reached a temperature of 64.66°C with the same performance. This is due to the thermal properties of gold, which has a better thermal conductivity than platinum.
Conclusions: CST offers the possibility to carry out a static and dynamic simulation of a heart model and the ablation electrodes integrated in it during an HF ablation. In variation with different electrode sizes and materials, therapy methods for the treatment of AVNRT, AVRT and AFL can be optimized
Kommentar zum Artikel "Arthur Willis Goodspeed" von Otto Glasser, veröffentlicht in Science Vol. 98, Issue 2540, Seite 219 (doi.org/10.1126/science.98.2536.125).
Im Zentrum des Gesamtprojektes stand die nutzerzentrierte Entwicklung einer praxisorientierten Lern- und Anleitungsumgebung, in der kontextbezogene Informationen direkt in den Arbeitsbereich projiziert werden – das Lernen also sowohl am Arbeitsplatz als auch situiert erfolgen kann. Durch die Projektion in Verbindung mit Interaktivität werden Lerninhalte im wahrsten Sinne des Wortes „begreifbar“. So wurde ein kontextbewusstes System geschaffen, das Lernende interaktiv wie ein Coach begleitet und motiviert.
Smart Home-/Smart-Building-Anwendungen sind ein stetig wachsender Markt. Smart Gardening ist ein Beispiel dafür, Nutzern mehr Komfort und eine bessere Lebensqualität zu Hause oder in Bürogebäuden zu ermöglichen. Im Rahmen dieses Beitrags wird die Entwicklung eines Indoor-Smart-Gardening-Systems mit dem Fokus auf energieautarkes Arbeiten vorgestellt. Herzstück des Systems ist ein 3D-gedruckter Blumentopf für einzelne Pflanzen mit integrierter Elektronik zum Monitoring der wichtigsten Pflanzenparameter und einem integrierten Wasserreservoir mit Tauchpumpe für das automatisierte Bewässern der Pflanze. Energy Harvesting per Solarzellen ermöglicht ein energieautarkes Arbeiten des Blumentopfes. Eine selbstentwickelte Low-Power-Funkschnittstelle im Blumentopf und ein externes Gateway ermöglichen die drahtlose Vernetzung mehrerer Pflanzen. Das Gateway dient zur Auswertung der Pflanzenparameter, der Ansteuerung der im Netzwerk vorhandenen Blumentöpfe und als Benutzerinterface.