Refine
Year of publication
Document Type
- Master's Thesis (208) (remove)
Has Fulltext
- yes (208)
Is part of the Bibliography
- no (208)
Keywords
- IT-Sicherheit (10)
- E-Learning (7)
- Maschinelles Lernen (7)
- Deep learning (6)
- Internet der Dinge (5)
- Künstliche Intelligenz (5)
- Marketing (5)
- Social Media (5)
- Computersicherheit (4)
- Internet of Things (4)
- JavaScript (4)
- Automatisierung (3)
- Cloud Computing (3)
- Digitaler Zwilling (3)
- Digitalisierung (3)
- Effizienz (3)
- Electronic Commerce (3)
- HTML 5.0 (3)
- Schluckspecht (3)
- Simulation (3)
- Social Media Marketing (3)
- security (3)
- App <Programm> (2)
- Bildverarbeitung (2)
- Change Management (2)
- Content Management (2)
- Convolutional Neural Network (2)
- Data Science (2)
- Datenverarbeitung (2)
- Didaktik (2)
- Digital Twin (2)
- Digitale Medien (2)
- E-Commerce (2)
- Empfehlungssysteme (2)
- Energiemanagement (2)
- Energiewende (2)
- HTML (2)
- Homomorphic Encryption (2)
- Identitätsverwaltung (2)
- Instagram (2)
- Kommunikation (2)
- LES (2)
- Landwirtschaft (2)
- MPC (2)
- Machine Learning (2)
- Messsystem (2)
- Neuronales Netz (2)
- Organischer Abfall (2)
- Ottomotor (2)
- Pflanzenkohle (2)
- Risikoanalyse (2)
- Risk Analysis (2)
- Security (2)
- Sensor (2)
- Sicherheit (2)
- Unternehmen (2)
- Unternehmenskommunikation (2)
- Visualisierung (2)
- Web Site (2)
- Web-Seite (2)
- biowaste (2)
- optimization (2)
- 10Gbit/s (1)
- 3D (1)
- 3D printing (1)
- 3D-Druck (1)
- 4-Oxocrotonic acid (1)
- 40Gbit/s (1)
- 5G (1)
- 6LoWPAN (1)
- AI (1)
- AR SDK (1)
- ARTE (1)
- ARTE GEIE (1)
- Access Management (1)
- Accounting (1)
- Adversarial Attacks (1)
- Agent <Künstliche Intelligenz> (1)
- Agent Fitness (1)
- Agrophotovoltaics (1)
- Akustik (1)
- Algorithmus (1)
- Aluminiumguss (1)
- Amazon Echo (1)
- Analytical Chemistry (1)
- Analytische Chemie (1)
- Android (1)
- Angriff (1)
- Anomalieerkennung (1)
- Anomaly Detection (1)
- Anwendungsschicht-Protokolle (1)
- Apache Spark (1)
- Applikation (1)
- Archiv (1)
- Archivierung (1)
- Artificial Intelligence (1)
- Attention-basiert (1)
- Aufmerksamkeit (1)
- Augmented Reality (1)
- Augmented Reality, Telepräsenz, Telerobotik, Google Cardboard, Head Mounted Device (1)
- Ausstellung (1)
- AutoML (1)
- Autoencoder (1)
- Automation (1)
- Automatisiertes Fahren (1)
- Autonomes Fahrzeug (1)
- Autonomie (1)
- B2C (1)
- Bautagesbericht (1)
- Bellman Ford algorithm (1)
- Benutzeroberfläche (1)
- Berichterstattung (1)
- Berufliche Schulen (1)
- Betriebsoptimierung (1)
- Bevölkerungsschutz (1)
- Biochar (1)
- Biogas (1)
- Biologika (1)
- Biomasse (1)
- Biosimilars (1)
- Black Forest Formula (1)
- Blended Learning (1)
- Blickaufzeichnung (1)
- Blockchain (1)
- Bluetooth-Applikation (1)
- Bodenradar (1)
- Bot Classification (1)
- Buchführung (1)
- Business Intelligence (1)
- Business-to-Consumer (1)
- CANopen (1)
- CCS (1)
- CFD (1)
- CNN (1)
- CO2-Bilanz (1)
- COVID-19 (1)
- Carbon Footprint (1)
- Carbon nanotube membran (1)
- Cellulasen (1)
- Cement Industry (1)
- ChatGPT (1)
- Chatbot (1)
- Chiffrierung (1)
- China (1)
- Client-side (1)
- Cloud (1)
- Cloud Security (1)
- Comic (1)
- Composable Commerce (1)
- Computertomografie (1)
- Computerunterstützte Kommunikation (1)
- Content Management System (1)
- Content Marketing (1)
- Conversational Commerce (1)
- Convolutional neural networks (1)
- Corona-Pandemie (1)
- Corporate Social Responsibility (1)
- Customer Centricity (1)
- Cyber Maturity Assessment Model (1)
- CyberDeception (1)
- Cybersecurity (1)
- Cytochrome (1)
- DAM (1)
- DIN 2304-1 (1)
- DTLS (1)
- DVRIP (1)
- Data analysis (1)
- Datenanalyse (1)
- Datenbanksystem (1)
- Datenstrategie (1)
- Decarbonization (1)
- Decentralized applications (1)
- Deep Learning Verfahren (1)
- Defekt Mapping (1)
- Dekarbonisierung (1)
- Development (1)
- Digital Asset Management (1)
- Digital Leadership (1)
- Digital Twins (1)
- Digitale Produkte (1)
- Digitale Teamführung (1)
- Direct Aeroacoustic Simulation (1)
- Distributed Sensor Network (1)
- Distributed computing (1)
- Drupal (1)
- Duale Ausbildung (1)
- Durchflussmessung von Gasen (1)
- E-Book (1)
- E-Commerce System (1)
- E-Magazin (1)
- E-Publishing (1)
- EAP-Protokoll (1)
- ETL Data Pipeline (1)
- EU 933/2019 (1)
- Edge Computing (1)
- Eingebettete Systeme (1)
- Eingruppierung (1)
- Einzelhandel (1)
- Eisen- und Stahlindustrie (1)
- Electric Tractors (1)
- Electrochemical membrane (1)
- Electrochemical membrane reactor (1)
- Elektrizitätsnetz (1)
- Elektrofahrzeug (1)
- Elektromagnetische Reflexionsmethode (1)
- Elektromotor (1)
- Elektronische Musik (1)
- Eltern (1)
- Embedded Rust (1)
- Empfehlung (1)
- Empfehlungssystem (1)
- Energie (1)
- Energiespeicherung (1)
- Energieversorgung (1)
- Energy (1)
- Energy System Analysis (1)
- Energy System Model (1)
- Energy System Modelling (1)
- Energy Transition (1)
- Energy management (1)
- Engineering (1)
- Enterprise 2.0 (1)
- Entwicklung (1)
- Entwicklungsprozess (1)
- Enzym (1)
- Enzyme assay (1)
- Erfolgsfaktoren (1)
- Erlösmodell (1)
- Ermüdungsfestigkeit (1)
- Ermüdungsriss (1)
- Erweiterte Realität <Informatik> (1)
- Erweiterte Realität <Informatik> , Telepräsenz , Robotik (1)
- Ethanolkraftstoff (1)
- Ethernet (1)
- Ethernet-Stack (1)
- Express.js (1)
- Extensible Authentication Protocol (1)
- Eyetracking (1)
- FEM (1)
- Facebook Check-In Deals (1)
- Fahrassistenzsysteme (1)
- Fahrerablenkung (1)
- Fahrzeugtechnik (1)
- Fehlerrechnung (1)
- Fermentation (1)
- Fertigungsoptimierung (1)
- Filmproduktion (1)
- Finite Elemente (1)
- Finite-Elemente-Methode (1)
- Flash CS3 (1)
- Flash CS4 (1)
- Flash CS5 (1)
- FlowNet (1)
- Foreign Direct Investment (1)
- Fotografie (1)
- Fotovoltaik (1)
- Framework (1)
- Friedländer-Bakterium (1)
- Future Energy System (1)
- GPR (1)
- Gallenschütz (1)
- Gaming (1)
- Gasdynamik (1)
- Gasmotor (1)
- Gebäudeleittechnik (1)
- Gebäudetechnik (1)
- Generationen (1)
- Generics (1)
- German Electrical Grid (1)
- Geschäftsmodell (1)
- Gesundheitskommunikation (1)
- Glasfaser (1)
- Glaubwürdigkeit (1)
- Global Payroll (1)
- Go (1)
- Godot (1)
- Grain boundary (1)
- Grain growth (1)
- Green House effect (1)
- Green Production (1)
- Ground penetrating radar (1)
- HPTLC (1)
- HTTP Live Streaming (1)
- Handel (1)
- High Performance Computing (HPC) (1)
- High content measurement (1)
- Hochleistungsrechnen , Informatik (1)
- Hochschule (1)
- Hohlprobe (1)
- Homomorphe Kryptosysteme (1)
- Homomorphe Verschlüsselung (1)
- Homomorphic Encryption Schemes (1)
- Hot-Spot (1)
- Human Firewewall (1)
- Humorvolle Kommunikation (1)
- Hybrid approach (1)
- Hydroakustik (1)
- Hydrodynamik (1)
- Hydrokultur (1)
- Hydroponic Farming (1)
- Hydroxylierung (1)
- Höhenvermessung (1)
- IPv6 (1)
- ISMS (1)
- Identity Management (1)
- Incentivization (1)
- Induktive Wärmebehandlung (1)
- Industrial Sector (1)
- Industrie 4.0 (1)
- Inertial measurement unit (1)
- Influencer (1)
- Influencer Marketing (1)
- Information Security (1)
- Informationsbeschaffung (1)
- Informationssicherheit (1)
- Infotainment (1)
- Inhaltsanalyse (1)
- Instagram Marketing (1)
- Integration (1)
- Integriertes Lernen (1)
- Interaktive Medien (1)
- Interessentengewinnung (1)
- International Business Consulting (1)
- Intranet (1)
- Intrexx (1)
- IoT (1)
- Java (1)
- JavaScript 1.5 (1)
- Javascript (1)
- Jugendliche (1)
- Kaba (1)
- Kapazitätserweiterung (1)
- Kapazitätsmanagement (1)
- Kerben (1)
- Klassifikation (1)
- Klebsiella pneumoniae (1)
- Klebverbindungen (1)
- Kollaboration (1)
- Komfortaktuatoren (1)
- Kommunikationskonzept (1)
- Kommunikationsstrategie (1)
- Kompaktantrieb (1)
- Konfigurationen (1)
- Konzeption (1)
- Kooperativer Unterricht (1)
- Kornwachstum (1)
- Kosten (1)
- Kostenrechnung (1)
- Kostensenkung (1)
- Kraftfahrzeugtechnik (1)
- Krisenmanagement (1)
- Kryptologie (1)
- LINUX (1)
- LPD <Funktechnik> (1)
- LSTM (1)
- Label (1)
- Laborkonzept (1)
- Lamellenpaket (1)
- Lattice Boltzmann Method (1)
- Leadgenerierung (1)
- Lean Accounting (1)
- Lean Accounting Transformation (1)
- Lean Management (1)
- Learning Experience Plattform (1)
- Lebensgeschichte (1)
- Lehrkonzept (1)
- Leichtbau (1)
- Leistungsbedarf (1)
- Leistungselektronik (1)
- Lernfeldkonzept (1)
- Lernkonzept (1)
- Lernprogramm (1)
- Lernvideo (1)
- Lernvideos (1)
- Lichtschranke (1)
- Lichtsetzung (1)
- Livestreaming (1)
- LoRaWAN (1)
- Location Based Services (1)
- Lohnbuchführung (1)
- Low Carbon network (1)
- Low-Power (1)
- Luftschadstoffprognose (1)
- Luftverunreinigender Stoff (1)
- Machine Firewall (1)
- Machine learning (1)
- MarTech (1)
- Markenimage (1)
- Markenkommunikation (1)
- Marketing Automation (1)
- Marokko (1)
- Mass spectrometry (1)
- Massenspektrometrie (1)
- Materialermüdung (1)
- Maturity Model (1)
- Maßstab (1)
- Mediengestalterin / Mediengestalter (1)
- Medieninformatik (1)
- Mediennutzung (1)
- Medienwissenschaft (1)
- Mensch-Computer-Interaktion (1)
- Messsystemanalyse (1)
- Methan (1)
- Mikrofon (1)
- Mikroklima (1)
- Mikroklimamessung (1)
- MinION-sequencing (1)
- Mitarbeitendenbeteiligung (1)
- Mitarbeiterschulung (1)
- Mobile Marketing (1)
- Mobiles Endgerät (1)
- Mobilfunk (1)
- Modellprädiktive Regelung (1)
- Moodle 2.0 (1)
- Morocco (1)
- Motorenprüfstand (1)
- Multi-Channel-Handel (1)
- Multi-task learning (1)
- Multichannel-Publishing (1)
- Multicrystalline silicon (mc-Si) (1)
- Multidrug-Resistenz (1)
- Multimedia (1)
- Musikproduktion (1)
- Musikvideo (1)
- Musikwirtschaft (1)
- NADPH (1)
- Nachhaltigkeit (1)
- Navigation (1)
- Negative Emission Technology (1)
- Netzdienlichkeit (1)
- Netzintegration (1)
- Netzwerk (1)
- Neuro-Evolution (1)
- New Media (1)
- New Retail (1)
- Nichtwohngebäude (1)
- NoSQL-Datenbanksystem (1)
- Node.js (1)
- Node.js security (1)
- Non-Reflecting Boundary Conditions (1)
- Nudge (1)
- Nudging (1)
- Numerik (1)
- Nusselt-Zahl (1)
- OSINT (1)
- Omni-Channel-Handel (1)
- Online Marketing (1)
- Online Medien (1)
- Online Speicher (1)
- Online Storage (1)
- Online-Handel (1)
- Online-Journalismus (1)
- Online-Marketing (1)
- Open Source (1)
- Open Source Intelligence (1)
- Operante Konditionierung (1)
- Optical Fiber Network (1)
- Optical Network (1)
- Optimierung (1)
- Optischer Fluss (1)
- Optischer Sensor (1)
- Organisationsentwicklung (1)
- Outsourcing (1)
- Oxford Nanopore Technology (1)
- Oxyfuel (1)
- P450 Cytochrome (1)
- PQC (1)
- PROFINET (1)
- PV-Module (1)
- PandaPower (1)
- Peer-to-peer trading (1)
- Penetration Testing (1)
- Penetrationstest (1)
- Personal Assistent (1)
- Phagetherapy (1)
- Phising detection (1)
- PhoneGap (1)
- Platform as a Service (1)
- Platformer (1)
- Porosität (1)
- Positionsschätzung (1)
- Post-Quanten Kryptographie (1)
- Power Consumption (1)
- Power Quality (1)
- Preissteigerung (1)
- Privacy and Security (1)
- Product-Placement (1)
- Produktentstehungsprozess (1)
- Produktentwicklung (1)
- Produktkonfigurationssystem (1)
- Prognose (1)
- Programmablauf (1)
- Programmiersprache (1)
- Programmierung (1)
- Proteine (1)
- Prothetik (1)
- Public-Key-Verschlüsselung (1)
- Purpose (1)
- Python Programming (1)
- QCM-D Array (1)
- Quantencomputer (1)
- RANS (1)
- RFID-/NFC-Ausleseschnittstelle (1)
- RTMP (1)
- Ransomware (1)
- Rechnungswesen (1)
- Recommendations (1)
- Redakteur (1)
- Regression (1)
- Reibkontakte (1)
- Reinforcement (1)
- Reinforcement Learning (1)
- Rektifizierung (1)
- Responsive Web Design (1)
- Responsive Web Design Workflow (1)
- Rest-API (1)
- Risikomanagement (1)
- Risk Management (1)
- Roboterfinger (1)
- Rotorwelle (1)
- Rust (1)
- Rückverfolgbarkeit (1)
- Rührreibschweißen (1)
- SEO (1)
- SOC (1)
- SPC waiver (1)
- Schallfeld (1)
- Schalllokalisation (1)
- Schlagfertige Kommunikation (1)
- Schluckspecht V (1)
- Schreiben (1)
- Schulung (1)
- Schulungskonzept (1)
- Schweißverfahren (1)
- Scientific workflow (1)
- Scrum (1)
- Security Operation Center (1)
- Security Operation Centers (1)
- Security Operations Center (1)
- Sensomotorisch (1)
- Sequenzanalyse (1)
- SharePoint 2010 (1)
- Shell Eco-marathon (1)
- Shopper Marketing (1)
- Smart City (1)
- Smart Home (1)
- Smart Load Management (1)
- Smartphone (1)
- Social Web (1)
- Social Workplace 2020 (1)
- Social-Media-Marketing (1)
- Software (1)
- Software Integration (1)
- Softwareeinführung (1)
- Sound (1)
- Soziale Software (1)
- Staatlich-geprüfter Grafikdesignerin / Staatlich-geprüfter Grafikdesigner (1)
- Stadtklima (1)
- Stadtklimasimulation (1)
- Stand Alone (1)
- Start-up Companies (1)
- Static Code Analysis (1)
- Stationärer Handel (1)
- Statistische Versuchsplanung (1)
- Steroid hormone micropollutant (1)
- Steroidhormon (1)
- Steuerungsalgorithmen (1)
- Strategie (1)
- Strategisches Management (1)
- Streaming (1)
- Streit (1)
- Stress (1)
- Strom (1)
- Strömung (1)
- Substrate and product specificity (1)
- Suchmaschinenoptimierung (1)
- Supervised Learning (1)
- Supply Chain Risk Management (1)
- Supraschmierung (1)
- Surveillance (1)
- Sustainability (1)
- Synthetischer Datensatz (1)
- TCO (1)
- TLV (1)
- TQM (1)
- Teambildung (1)
- Teamentwicklung (1)
- Technische Akustik (1)
- Temperature control (1)
- Temperaturregelung (1)
- Terminal (1)
- Test-driven development (1)
- Testablauf (1)
- Text (1)
- Thermoaktive Bauteilsysteme (1)
- Thread (1)
- Threat Modeling (1)
- TikTok (1)
- Timing Attacks (1)
- Tiny House (1)
- Topologieoptimierung (1)
- Tor (1)
- Total Cost of Ownership (1)
- Total Quality Management (1)
- Transfer learning (1)
- Transformer (1)
- Tribologie (1)
- Trichoderma reesei (1)
- Twitch.tv (1)
- Ultrafiltration (1)
- Unity3d (1)
- Unsupervised Learning (1)
- Unternehmensgründung (1)
- Unüberwachtes Lernen (1)
- Usability (1)
- User Experience (1)
- VHDL (1)
- Verbrennungsmotor (1)
- Verfahren (1)
- Verfahrenstechnik (1)
- Verfikation (1)
- Vergüten (1)
- Verhaltensökonomie (1)
- Verlag (1)
- Verschlüsselung (1)
- Versuchsplanung (1)
- Verteilter Speicher (1)
- Videogames (1)
- Videoproduktion (1)
- Videospiel (1)
- Videostreaming (1)
- Vierquadrantensteller (1)
- Virtual Reality (1)
- Virtuelle Teamentwicklung (1)
- Virtuelle Teams (1)
- Visuelle Notizen (1)
- Vitalparametern bei Kleinstlebewesen (1)
- Volkshochschule (1)
- Volkswirtschaft (1)
- Vollzeitschulische Ausbildung (1)
- Vorkammerzündsystem (1)
- Vuforia (1)
- Vulnerabilities (1)
- Vulnerability Management (1)
- Vulnerability Tracking (1)
- Vulnerability identification (1)
- WEITER.mit.BILDUNG@BW (1)
- Wahrnehmung (1)
- Wars (1)
- Wasseraufbereitung (1)
- Wassermangel (1)
- Wasserstoff (1)
- Water treatment (1)
- Web development (1)
- Web-Applications (1)
- Webassembly (1)
- Webdesign (1)
- Webentwicklung (1)
- Website (1)
- Werbefilmproduktion (1)
- Werbung (1)
- Wireless (1)
- Wireless Technology (1)
- Wirtschaftlichkeit (1)
- Wirtschaftskrise (1)
- Wissensmanagement (1)
- Workbook (1)
- Workflow (1)
- World Wide Web (1)
- Wärmepumpe (1)
- YouTube (1)
- Zement (1)
- Zentrale Sauerstoffversorgung (1)
- Zugriffskontrolle (1)
- Zugriffsverwaltung (1)
- Zwei-Faktor-Authentifizierung (1)
- Zykloidgetriebe (1)
- access management (1)
- analysis (1)
- android-security (1)
- artificial neural networks (1)
- audio (1)
- binary (1)
- biochar (1)
- biogas (1)
- cellulase (1)
- censhare (1)
- certificate management (1)
- classification (1)
- climate-neutral (1)
- cloud business impacts (1)
- community (1)
- confidentiality (1)
- cross-platform (1)
- cyber attack (1)
- dahua (1)
- determinats of FDI (1)
- e-learning (1)
- economic (1)
- electronic music (1)
- enzymatic pretreatment (1)
- fermentation (1)
- film (1)
- filmproduktion (1)
- financial impacts (1)
- fingerprinting (1)
- flash (1)
- html5 (1)
- iPad (1)
- identity management (1)
- industrial communication (1)
- interactivity (1)
- interne Kommunikation (1)
- lignocellulosic material (1)
- machine learning (1)
- microphone (1)
- mitigations (1)
- moving to cloud (1)
- multimedia (1)
- music production (1)
- network layer (1)
- nicht-invasives Messsystem (1)
- ns-3 (1)
- permissions (1)
- pharmaceuticals (1)
- privacy (1)
- protocol (1)
- routing (1)
- routing locator (1)
- single-sign-on (1)
- sound (1)
- steel industry (1)
- thickness estimation (1)
- virtual reality (1)
- vr (1)
- water treatment (1)
- web application security (1)
- Überlebensstrategien (1)
- Übersetzungsstrategie (1)
- Überwachtes Lernen (1)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (57)
- Fakultät Medien (M) (ab 22.04.2021) (55)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (40)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (34)
- Fakultät Wirtschaft (W) (15)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (13)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (5)
- INES - Institut für nachhaltige Energiesysteme (4)
- IDEeP - Institute for Digital Engineering and Production (ab 12.10.2022) (1)
- IUAS - Institute for Unmanned Aerial Systems (1)
Open Access
- Closed Access (101)
- Closed (75)
- Open Access (32)
- Diamond (6)
Unabhängige Musikunternehmen, auch Independent-Label oder Indie-Label genannt, verfolgen unterschiedlichste Strategien, um im Musikgeschäft zu überleben. Die Strategien beziehen sich auf die Ausrichtung der Unternehmen in den jeweiligen Geschäftsbereichen. Ziel dieser Arbeit ist das Aufstellen von allgemeinen Hypothesen für jeden Geschäftsbereich eines unabhängigen Musikunternehmens. Zusammengefasst bilden alle Hypothesen einen Leitfaden für solche Unternehmen, um aktuell im Musikgeschäft überleben zu können. Das Bilden der Hypothesen ist die letzte Stufe einer qualitativen Inhaltsanalyse, der fünf Interviews mit Labelbetreibern und Labelangestellten zu Grunde liegen. Die Aussagen der Labelbetreiber und -angestellten werden in Bezug auf den aktuellen wissenschaftlichen Stand und die Lage der deutschen Musikindustrie analysiert und erörtert.
Globale Ereignisse politischen, wirtschaftlichen oder kulturellen Ursprungs führen dazu, dass Unternehmen sich gezwungen sehen zu handeln, um wettbewerbsfähig zu bleiben. In vielen Fällen wird dabei so vorgegangen, dass versteckte Preiserhöhungen vollzogen werden. Auch Unternehmen, die mit ihrem Angebot einen gesellschaftlichen Zusatznutzen erbringen, erhöhen die Preise, da nur so der verfolgte ökologische oder soziale Purpose erhalten werden kann, kommunizieren dies jedoch offen und erhöhen dadurch ihre Kundenloyalität. Dieses Vorgehen ist bislang jedoch überwiegend in den USA zu beobachten. Da das Thema Purpose auch in Deutschland immer höhere Relevanz erfährt, stellt sich die Frage der Übertragbarkeit. Die Forschungsfrage lautet deshalb: Inwiefern beeinflusst die Kommunikation von purpose-getriebenen Preissteigerungen das Markenimage von B2C-Unternehmen in Deutschland? Um der Forschungsfrage nachzugehen, wurde ein empirischer Forschungsansatz gewählt, der in Form einer quantitativen Studie umgesetzt wurde, die die Meinung der Studierendenschaft der Gen Z und Y der Hochschule Offenburg abbildet. Die Ergebnisse der Umfrage zeigten, dass die Glaubwürdigkeit und Akzeptanz von purpose-getriebenen Preiserhöhungen vom gegenwärtigen Markenimage bzw. dem übergeordneten Image einer Branche abhängen. Purpose wird eine hohe Bedeutung zugesprochen, die sich jedoch aufgrund der Preissensibilität der Zielgruppe nicht immer in der Markenwahl widerspiegelt. Dies verdeutlicht, dass Purpose das Potenzial besitzt, das Markenimage nachhaltig zu beeinflussen und zu prägen und die Zielgruppe der Gen Z und Y zukünftig an sich zu binden. Ferner wurde deutlich, dass bei der Umsetzung von Purpose bestimmte Kriterien verfolgt werden sollten, die bei der Kommunikation zu berücksichtigen sind, um eine authentische Wirkung zu erzielen.
Windows Registry Forensik - Analyse von Shellbags im Rahmen digitalforensischer Untersuchungen
(2019)
Digitalforensische Untersuchungen sind heute ebenso wichtig wie herkömmliche forensische Untersuchungen. Neben leicht sichtbaren Spuren wie Internethistorie oder Suchmaschinenanfragen befinden sich auch in der Windows Registry verwertbare Spuren. Zu diesen Spuren zählen auch die Shellbags. Sie werden vom System genutzt, um Ordnereinstellungen zu speichern.
Diese Arbeit beleuchtet neben den Grundlagen digitaler Forensik und der Windows Registry diese Shellbags. Es wird untersucht, welche Aktionen am System unter Windows 7 und Windows 10 Shellbags erzeugen oder diese verändert. Um dieses Ziel zu erreichen, wird ein Katalog an Experimenten durchgeführt. Dieser beinhaltet unterschiedliche Aktionen am System, vom Erstellen bis zum Löschen eines Ordners. Dabei wird der Zustand der Shellbags in Registry-Abbildern vor und nach der Aktion verglichen und somit untersucht, welche Veränderungen zu erkennen sind. Die Ergebnisse werden dokumentiert und interpretiert. Somit wird eine Übersicht über die Auswirkungen dieser Aktionen auf die Shellbags erstellt, an dem sich orientiert werden kann.
Abschließend wird in einer prototypischen Implementierung ein eigenes Tool in Python entwickelt, das Shellbags aus der Registry auslesen und ausgeben kann.
Die Corona-Pandemie hat nicht nur tiefgreifende Auswirkungen auf das gesellschaftliche Leben, auch in der Wirtschaft sind die Folgen zu spüren. Dabei können diese Folgen in den einzelnen Branchen sehr unterschiedlich sein. Wo der E-Commerce eine steigende Nachfrage verzeichnen konnte, ist die Nachfrage im Kultur- und Freizeitsektor nahezu komplett eingebrochen. Aber nicht in allen Branchen sind die Auswirkungen so eindeutig. Diese Arbeit befasst sich deshalb mit den Auswirkungen der Corona-Pandemie auf die Werbefilmproduktionen in Deutschland. Dabei werden die folgenden beiden Forschungsfragen untersucht:
„Welche Gefahren birgt die wirtschaftliche Krise in Folge der Corona-Pandemie für die Werbefilmproduktionsbranche und wie kann diesen entgegengewirkt werden?“
„Welche Chancen ergeben sich aus der aktuellen Wirtschaftskrise und wie können diese für die Zukunft genutzt werden?“
Um diese Fragen zu beantworten, wurden zunächst die Begrifflichkeiten rund um das Thema genau definiert. Aufbauend auf der Literaturrecherche wurde zudem ein Leitfaden für Interviews mit drei Experten aus der Branche erstellt und diese anschließend durchgeführt. Dabei konnten neben einem detaillierteren Einblick in die Branche die Grundlagen für die ebenfalls durchgeführte quantitative Umfrage, die an eine repräsentative Stichprobe aus Unternehmen der Branche gestellt wurde, geschaffen werden.
Es zeigt sich, dass die Werbefilmproduktionen nach einem im ersten Lockdown nahezu kompletten Stillstand, durch schnelles Handeln, effektive Anpassungen in den Arbeitsabläufen vornehmen und dadurch zügig die Arbeit wieder aufnehmen konnten. Auch wenn die Unternehmen weiterhin Schwierigkeiten im Bereich der Planung und Produktion hatten und haben, konnten viele der Unternehmen durch die Verlagerung von Prozessen in die digitale Welt neue Geschäftsfelder erschließen und einen steigenden Umsatz verzeichnen. Schnelles Handeln und Innovationsbereitschaft zeigen sich dabei als zentrale Eigenschaften für eine positive Geschäftsentwicklung in der Krise.
Weiterführende Forschung kann sich mit dem Themenbereich effizientes Arbeiten im Home-Office beschäftigen. Auch im Bereich der Werbefilmproduktion für Social Media und Unternehmenshomepages und im Speziellen, welche Unternehmen diese in Zukunft vermehrt nachfragen, besteht noch Forschungsbedarf. Wie sich die fehlende praktische Erfahrung auf die Qualität der Lehre auswirkt, ist ebenfalls eine noch offene Fragestellung.
Aluminiumgussbauteile spielen heutzutage in vielen Branchen, wie der Automobilindustrie und der Luft- und Raumfahrtindustrie eine wichtige Rolle. Sie zeichnen sich durch hohe Festigkeit und Steifigkeit bei vergleichsweise geringem Gewicht aus. Bei der Herstellung von Aluminiumgussbauteilen, kommt es prozessbedingt immer zu Defekten im Werkstoff. Mit Computer Tomographie Aufnahmen können diese Defekte zerstörungsfrei detektiert werden. Anschließend sollen die Defekte in Finite-Elemente-Methode Berechnungen berücksichtigt werden. Dies bietet einen entscheidenden Vorteil bei der Schadensvorhersage dieser Bauteile.
In dieser Masterarbeit wurde zwei Programme entwickelt, welche das Mapping von Defekten aus CT-Aufnahmen eines Aluminiumgussbauteils auf ein LS-Dyna Netz ermöglichen. Dadurch können die Defekte und damit die Porosität eines Gussbauteils in der Festigkeitsberechnung berücksichtigt und die Schadensvorhersage verbessert werden. Die Programmierung erfolgte in Python.
Das weiterentwickelte Mapping-Programm benötigt zwei Input Dateien. Zum einen wird die Defektdatei aus den CT-Aufnahmen benötigt und zum anderen ein LS-Dyna Netz. Die komplexen Defektgeometrien werden in dem Mapping-Programm vereinfacht als umschließende Kugeln um den Defekt beschrieben. Diese Vereinfachung ist aufgrund der benötigten Rechenleistung notwendig. Anschließend prüft das Mapping-Programm alle Kollisionen zwischen Elementen des FE-Netzes und den Defekten und ermittelt für jedes Element ein Schnittvolumen. Aus dem Schnittvolumen und dem Elementvolumen wird die Porosität berechnet. Die Rechenzeit für ein Bauteil mit 107379 Elementen beträgt 480 Minuten.
Ein zweites, neu entwickeltes Programm ermöglicht das Mapping der wahren Porengeometrie auf FE-Netze. Durch die optimierte Porenbeschreibung wird eine höhere Genauigkeit beim Mapping der Defekte erreicht. Die Rechenzeit beträgt bei einem Bauteil mit 107379 Elementen lediglich 15 Minuten.
Ziel dieser Masterarbeit ist es, das Mapping-Programm zu optimieren, damit es neben Hexaedern weitere Elementtypen verarbeiten kann. Darüber hinaus sollte die Porenbeschreibung verbessert werden, um genauere Ergebnisse zu erhalten. Dafür wurde ein zweites Programm mit einer verbesserter Porenbeschreibung entwickelt, dass zudem deutlich geringere Rechenzeiten benötigt.
Webassembly is a new technology to create application in a new way. Webassembly is being developed since 2017 by the worldwide web consortium (w3c). The primary task of webassembly is to improve web applications.
Today, more and more applications are being created as web applications. Web applications have some advantages - they are platform independent and even mobile platforms can run them, and no installation is needed apart from a modern web browser.
Currently, web applications are being developed in JavaScript (JS), hypertext mark-up language 5 (HTML 5), and cascading style sheets (CSS).
These technologies are not made for huge web applications, but they should not be replaced by webassembly; rather, webassembly is an extension to the currently existing technology.
The purpose of webassembly is to fix or improve the problems in web application development.
This master’s thesis reviews all of the aspects and checks whether the promises of webassembly are kept and where problems still exist.
Wassermangel in Deutschland
(2023)
Die Arbeit beschäftigt sich mit der medialen Berichterstattung von vier deutschen Leitmedien in Bezug auf das Thema Wassermangel in Deutschland. Ziel ist es, das in der Gesellschaft vorhandene Bewusstsein für die Umwelt zu stärken und ein besonderes Augenmerk auf die Problematik des sich verschärfenden Wassermangels zu lenken.
Zunächst wird hierfür die Vorgehensweise einer Medieninhaltsanalyse dargelegt und mit dem konkreten Beispiel in jedem Schritt verknüpft. Dabei werden die relevantesten Schwerpunkte der Berichterstattung zwischen April und Oktober 2022 herausgearbeitet. Es wird angenommen, dass die Berichterstattung vor allem im Sommer besonders hoch ist und es sowohl thematische als auch regionale Unterschiede zwischen den vier Verlagen gibt. Die gewonnenen Beobachtungen werden sowohl im Gesamtzusammenhang der untersuchten Artikel als auch in einer Einzelbetrachtung der vier Medien, Süddeutsche Zeitung, Frankfurter Allgemeine Zeitung, Focus und Spiegel, grafisch aufbereitet und interpretiert. Die Ergebnisse zeigen, dass die Kategorien Hitze und Dürre besonders häufig codiert werden. Damit stehen vor allem die Ursachen und Auswirkungen, aber nicht der Wassermangel selbst, im Fokus der Berichterstattung.
Diese Erkenntnisse werden anschließend in eine Online-Kampagne überführt, mit dem Ziel, das Bewusstsein einer jungen, medienaffinen Zielgruppe auf den steigenden Wassermangel in Deutschland zu lenken.
Die vorliegende Arbeit beschäftigt sich mit der Wahrnehmung von Websites im One-Page-Design und der Verbesserung der User Experience mit Hilfe von Blickaufzeichnung und weiteren Methoden.
Für ein Unternehmen ist eine Website mittlerweile ein zentrales Marketinginstrument. Eine gute Umsetzung der Website ist maßgeblich am Unternehmenserfolg beteiligt.
Eine bedeutende Rolle für eine Website spielt das Webdesign. Dies beeinflusst entscheidend, ob das Interesse des Nutzers geweckt wird und er auf der Website verweilt oder diese direkt wieder verlässt. Doch das Webdesign verändert sich laufend. Ein neuer Trend ist die Website im One-Page-Design. Diese bietet neue Möglichkeiten der Gestaltung, stellt Webdesigner jedoch auch bei der Umsetzung vor neue Herausforderungen. Mit der vorliegenden Arbeit sollen deshalb Websites im One-Page-Design hinsichtlich ihrer Wirkung auf den Nutzer analysiert werden. Zu diesem Zweck werden mit ausgewählten Probanden User Experience Tests durchgeführt, die Aufschluss darüber geben sollen, wie die Zielgruppe mit der Website interagiert. Durch die Analyse der gewonnenen Daten und die daraus abgeleiteten Handlungsempfehlungen kann die User Experience von Websites im One-Page-Design gesteigert werden. Neben der Eyetracking-Methode (Blickaufzeichnung) wird die Think Aloud-Methode, der Interview-Leitfragen sowie die Mimikmessung eingesetzt.
Im Buch "Visualisiere deine Welt! Ein Workbook für visuelle Notizen" erlernt der Leser in den ersten drei Teilen Schritt für Schritt, was visuelle Notizen sind und welchen Vorteil sie gegenüber rein textbasierten Notizen haben sowie aus welchen Elementen sie sich zusammensetzen. Anwendung finden visuelle Notizen beim Kommunizieren mit anderen, um sich visuell verständlich zu machen. Sie helfen aber auch dabei, Lösungen für Probleme zu finden, Ideen zu entwickeln und letztendlich bedeutsame Inhalte visuell zu dokumentieren. Im letzten Teil des Workbooks hat der Leser die Möglichkeit, sein erlerntes Wissen in zahlreichen Übungen anzuwenden.
Virtual Reality ist auf dem Vormarsch. Die Technik wird immer besser, das Erlebnis als solches intensiver und glaubwürdiger. Auch abseits der interaktiven Unterhaltung wie dem Gaming-Bereich findet VR zunehmend Anwendung, wie etwa in der Inneneinrichtung von Wohnflächen, Autos oder Büros oder virtuellen Touren durch kulturelle Einrichtungen oder Touristenattraktionen.
Diese Arbeit widmet sich dem Filmbereich. Anhand eines funktionalen Prototyps, aufgebaut auf der Unreal Engine 4, wird eine Umgebung geschaffen, in welcher Studenten in einem virtuellen Filmstudio die Möglichkeit gegeben wird, Filmsets zu planen, gestalten und auszuprobieren. Dies geschieht in Anlehnung an das real-existierende Filmstudio der Hochschule Offenburg.
Des Weiteren wird ausführlich eine mögliche finale Anwendung beschrieben, welche das ganze Potential eines solchen Ansatzes beschreibt.
Viralität auf TikTok
(2023)
Die Social Media Plattform TikTok erfreut sich spätestens seit der Corona-Pandemie einer immer größer werdenden Gemeinschaft. Mittlerweile verfügt die App über mehr als 20 Millionen Nutzer:innen - alleine in Deutschland. Virale Videos sprießen förmlich aus dem Boden. Diese Masterarbeit beschäftig sich mit der Frage, welche Faktoren der Viralität zu Grunde liegen und ob man die Viralität maßgeblich beeinflussen kann. Dies erfolgt mittels theoretischer Grundlagen, einer quantitativen Nutzerumfrage und Experteninterivews mit erfolgreichen deutschen Creatorn. Abschließend werden Videos für TikTok konzipiert und analysiert.
In dieser Arbeit werden Untersuchungen an einem neuartigen Sensorkonzept zur Erfassung von Winkelbeschleunigungen durchgeführt. Ziel dieser Arbeit war es, die Möglichkeit, eine Miniaturisierung des Prototyps zu untersuchen. Hierfür wurde eine analytische und experimentelle Untersuchung durchgeführt. Für die analytische Betrachtung erfolgte eine Fehlerfortpflanzung nach Gauß, welche die Fertigungstoleranzen, Dimensionsfehler des Accelerometers, Rauschen und Messabweichungen von Accelerometer und Gyroskop berücksichtigt. Die Ergebnisse zeigen, dass bei Verwendung der hochwertigen Inertial Measurment Units (IMUs) eine theoretische Verkleinerung bis auf 21mm eine höhere Genauigkeit bietet als die numerischen Differentiationen der Winkelgeschwindigkeit.
Für die Verifizierung unter realen Bedingungen wurden verschiedene Prüfkonzepte verglichen.
Dabei erwies sich ein Pendelprüfstand als vielversprechender Ansatz. Durch die Verwendung von Kugellagern kann ein breites Spektrum an Winkelbeschleunigungen abgebildet werden. Die kontinuierliche Erfassung reflektierender Marker auf der Pendelstange ermöglicht die Ermittlung der Winkel, die als Grundlage für ein Modell dienen, wodurch sich reale Winkelbeschleunigungen mit den Messdaten des Sensors vergleichen lassen. Dabei stellt die Modellierung der Verlustterme eine zukünftige Herausforderung dar.
Die Ergebnisse zeigen, dass eine Miniaturisierung des Sensorprototyps möglich ist und das der Pendelprüfstand eine Methode zur Verifizierung darstellt. Dies trägt dazu bei, die Anwendungsmöglichkeiten des Sensorkonzepts in der Praxis zu erweitern.
Vergleichende Untersuchung von „Platform as a Service“-Angeboten für das „Internet of Things“
(2016)
Im Rahmen der Master Thesis werden eine Auswahl von Platform as a Service-Angeboten für das Internet of Things untersucht und miteinander verglichen. Auf Grundlage der Untersuchung erfolgt die Implementierung einer IoT-Anwendung für drei der Plattformen. Durch die theoretische Einleitung in die Themen Platform as a Service und Internet of Things, sowie die für das IoT typischen Verbindungsprotokolle HTTP und MQTT wird ein grundlegendes Verständnis für das Sachgebiet vermittelt.
Nach den erklärenden Definitionen folgt die Untersuchung der PaaS-Angebote. Hier werden zunächst die Untersuchungskriterien vorgestellt und erklärt, nach denen die einzelnen Plattformen untersucht werden. Diese umfassen die quantitativen Kriterien Verbreitung, Preis, Verbindungsrate, Datenmenge und Schnittstellen, sowie die qualitativen Kriterien API, Visualisierung, Weiterverarbeitung, Dokumentation, Usability und Sicherheit. Danach erfolgt die detailierte Untersuchung der Plattformen nach den festgelegten Kriterien. Untersucht wurden hierbei die Plattformen ThingSpeak, data.sparkfun.com, RunAbove IoT Lab, flowthings.io, Carriots, Ubidots, GroveStreams, Exosite, Beebotte, MODE, Initial State, Temboo, Oracle Cloud, IBM Watson Internet of Things, Azure IoT Hub, AWS IoT und Google Pub/Sub.
Im Anschluss an die Untersuchung werden die Ergebnisse gegliedert nach den Untersuchungskriterien miteinander verglichen und abschließend ausgewertet. Das Ergebnis der Plattformuntersuchung bietet die Grundlage für die Implementierung einer Internet of Things Anwendung.
Für die Anwendung werden zunächst die Anforderungen beschrieben, welche die eines realitätsnahen Nutzungsfall nachbilden sollen. Das Konzept und die Funktionsweise stellt das Zusammenspiel der einzelnen Komponenten dar. Die Anwendung soll hierbei die Funktionalität eines Infoterminals nachstellen, welches über NFC Informationen an mobile Endgeräte bereitstellt. Dieses sendet die Anzahl der Zugriffe an das PaaS-Angebot, welches wiederum als Schnittstelle zu Twitter und einer externen Webanwendung dient. Über die Webanwendung kann die Nachricht des Infoterminals aktualisiert werden. Im Folgenden werden die zum Einsatz kommende Hardware und Software beschrieben. Es handelt sich hierbei um einem Arduino Uno Rev3, welcher über ein Adafruit CC3000 Wifi Shield und ein Seeed Studio NFC Shield V2.0 die benötigten Schnittstellen zur Verfügung stellt.
Anschließend erfolgt die Auswahl der drei für die Implementierung verwendeten Plattformen anhand der zuvor durchgeführten Untersuchung. Hierbei wurden als Vertreter verschiedener Benutzergruppen ThingSpeak, Flowthings.io und IBM Watson Internet of Things gewählt.
Im Anschluss an die Plattformauswahl wird die konkrete Umsetzung beschrieben. Zuerst erfolgt der Aufbau und die Programmierung der Grundfunktionalitäten zur Datenübertragung des Arduinos. Danach wird im Detail auf den allgemeinen Teil der Webanwendung eingegangen, welche mit HTML, CSS und jQuery realisiert wurde. Danach erfolgt die Beschreibung der plattformspezifischen Umsetzung der jeweiligen Kommunikation zwischen Arduino und Plattform, sowie der Webanwendung. Hierbei belaufen sich die Unterschiede hauptsächlich auf die verschiedene Implementierung der Authentifizierung, sowie den verwendeten Übertragungsprotokollen HTTP und MQTT.
Nach der Implementierung wird diese ausgewertet um die konkreten Herausforderungen, sowie Vor- und Nachteile der Plattformen, der verwendeten Hardware und Protokolle herauszustellen.
Im letzten Kapitel wird die Arbeit zusammengefasst und abschließend anhand aller gesammelten Erkenntnisse bewertet.
Die Belastungen und Anforderungen in der heutigen Arbeitswelt sind teilweise sehr gross. Faktoren wie Zeitdruck, Kostendruck, persönliche und externe Qualitätsan-sprüche, Schadensrisiko, Menge und Vielseitigkeit der Aufgaben, Führungsmängel etc. sowie eigene Einstellungen und Denkmuster erhöhen das Stresslevel bei vielen Angestellten unterschiedlichster Positionen. Ein aktueller Burn-Out Fall bei der TK CONSULT AG unterstreicht diese These. Gemäss aktueller Studien in der Schweiz liegt der volkswirtschaftliche Schaden (ohne Berufsunfälle, Berufskrankheiten, Inva-lidität und frühzeitiger Tod) bei ca. 4.2 Milliarden CHF, was ca. 1.2% des Bruttoin-landsprodukts der Schweiz entspricht (vgl. [2] S. ii). Des Weiteren zeigen verschie-dene Stressstudien, dass eine Zunahme der Stressbelastung stattfindet [1] [2]. Aufgrund dessen ist es sinnvoll, etwas gegen diesen Trend und die damit verbun-denen Kosten zu unternehmen.
Ziel dieser Thesis ist es, Massnahmen auf der persönlichen als auch der betriebli-chen Ebene zu erarbeiten. Diese sollen leicht verständlich und leicht umsetzbar sein.
Bei den persönlichen Massnahmen steht vor allem die Verbesserung des Selbst-managements durch eigene Zielsetzungen, Anpassung von eigenen Einstellungen und Denkmustern, Erholungsstrategien, Erweiterung der eigenen Kompetenzen und Verbesserung des Zeitmanagements im Vordergrund.
Bei den betrieblichen Massnahmen soll durch Mitarbeiterschulungen, Coaching, aktiver Gesundheitsförderung und Verbesserung der allgemeinen Arbeitsbedingun-gen eine Verbesserung der Stressbelastung erzielt werden.
An organized strategy to ensure the security of an organization is an information security management system. During various security crises, hazards, and breaches, this strategy aids an organization in maintaining the confidentiality, integrity, and accessibility of information. Organizations are getting ready to comply with information security management system criteria. Despite this, security concerns continue to plague ineffective controls, have poor connectivity, or cause a silo effect, which is a common cause. One of the causes is a low maturity model that is not synchronized with the organization’s business processes. For a higher level of maturity, it is best to evaluate the practices.
Different maturity models on information security and cyber security capacity, management processes, security controls, implementation level, and many more have already been developed by numerous international organizations, experts, and scholars. The present models, however, do not assess a particular organization's particular practices. The evaluation of the business process is frequently neglected because measurement requirements for models are typically more concentrated on examining specific elements. For this reason, it caused the maturity assessment to not be executed explicitly and broadly.
We developed an organizational information security maturity model, a combination of work of different maturity models currently existing. While making this model, we considered that any size or type of organization could use this model. The model considers the success elements of the information security management system when assessing the implementation's effectiveness. We employed a mixed-method strategy that included both qualitative and quantitative research. With the help of a questionnaire survey, we evaluated the previous research using a qualitative methodology. In the quantitative method, we'll figure out how mature the information security management system is now. The proposed model could be used to reduce security incidents by improving implementation gaps.
Im Bereich des Bevölkerungsschutzes versteht man unter Krisensituationen, unerwartet auftretende Katastrophen, die ernste Folgen für Mensch und Natur haben. Einsatzkräfte stehen in Krisensituationen unter einer erhöhten physischen und psychischen Belastung. Im Ernstfall bleibt nicht viel Zeit und verschiedene Vorgehensweisen können über Leben und Tod entscheiden. Schnelle Entscheidungen sind in diesem zeitkritischen Nutzungskontext unumgänglich. Interaktive Systeme können die Einsatzkräfte in ihrer täglichen Arbeit unterstützen, vorausgesetzt, die Systeme sind intuitiv und einfach zu bedienen.
Um diese Systeme auf deren intuitive Bedienung einschätzen zu können, wird im Rahmen dieser Masterarbeit eine Bewertungsmethodik erarbeitet und angewandt. Zunächst wird hierfür ein Reifegradmodell erarbeitet, das Aufschluss darüber gibt, inwiefern ausgewählte Software-entwicklungsunternehmen im Bereich des Bevölkerungsschutzes Usability-Praktiken einsetzen. Dieses wird auf drei unterschiedliche Unternehmen im Bereich des Bevölkerungsschutzes angewandt. Im Anschluss daran werden drei Anwendungen der Unternehmen durch Usability Tests mit Endanwendern auf deren tatsächlich wahrgenommene Usability geprüft. So kann erforscht werden, inwiefern der Usability-Reifegrad eines Softwareentwicklungsunter-nehmens auch Aussagen auf die Gebrauchstauglichkeit seiner Software zulässt.
Diese Forschungsarbeit stellt fest, dass eine Messung des Usability-Reifegrades Aufschluss darüber gibt, wie gebrauchstauglich die untersuchten Anwendungen sind. Daher ist eine Messung des Usability-Reifegrades im Bevölkerungsschutz grundsätzlich als sinnvoll einzustufen.
Diese Arbeit beschäftigt sich mit der simulativen Untersuchung von Strömung und Wärmeübergang im Kontext von Vorkammerzündsystemen. Dies geschieht im Rahmen der Entwicklung eines Gasmotors mit gasgespülter Vorkammer. Entscheidene Größen für die Strömung und Arbeitsweise in einer Vorkammerzündkerze sind die Geometrie und Anordnung der Überströmbohrungen, das Vorkammervolumen und die Form der Vorkammer. Die Betrachtung wird dafür aufgeteilt in die Themen Spaltströmungen, Wärmeübergang und drallbehaftete Strömungen. Diese werden zunächst isoliert betrachtet und letztendlich in einem Anwendungsfall zusammengeführt. Für die Betrachtung von Spaltströmungen werden unterschiedliche Platten mit Bohrlöchern zu verschiedenen Drücken, Durchmessern und Plattenstärken durchströmt und der Wärmeübergang und der Drall werden mithilfe einer durch Leitbleche gelenkte Strömung in einem beheizten Rohr untersucht. Die Zusammenführung der Themen wird anhand einer Anströmvorrichtung für Brenngase auf Motorzylinder durchgeführt. Dabei erreichen die Gase hohe Temperaturen und aufgrund von hohen Drücken und Spaltströmungen große Geschwindigkeiten.
Für die Simulation werden die Programme Ansys Fluent und Ansys Forte verwendet. Während ersteres primär für die Simulation von Strömungen verwendet wird, ist Forte speziell aufgebaut, um in Verbrennungsmotoren neben der Berechnung der Strömung auch die Einspritzung von Kraftstoff, die Verbrennung dessen und die resultierenden Schadstoffe zu berechnen. Da die Ergebnisse aus Forte eine große Gewichtung in der Beurteilung der Entwicklungsarbeit des Gasmotors hat, muss Forte selbst validiert werden. Dies wird durchgeführt anhand der angesprochenen Teilthemen und verglichen mit Messungen aus der Literatur und Simulationsergebnissen in Fluent.
Strong security measures are required to protect sensitive data and provide ongoing service as a result of the rising reliance on online applications for a range of purposes, including e-commerce, social networking, and commercial activities. This has brought to light the necessity of strengthening security measures. There have been multiple incidents of attackers acquiring access to information, holding providers hostage with distributed denial of service attacks, or accessing the company’s network by compromising the application.
The Bundesamt für Sicherheit in der Informationstechnik (BSI) has published a comprehensive set of information security principles and standards that can be utilized as a solid basis for the development of a web application that is secure.
The purpose of this thesis is to build and construct a secure web application that adheres to the requirements established in the BSI guideline. This will be done in order to answer the growing concerns regarding the security of web applications. We will also evaluate the efficacy of the recommendations by conducting security tests on the prototype application and determining whether or not the vulnerabilities that are connected with a web application that is not secure have been mitigated.
The rapid pace of innovation and technological advancements has led to the emergence of start-up companies in various sectors. To remain competitive and sustainable, start-ups need to make informed business decisions that can enhance their operations and profitability. Business Intelligence (BI) has become an essential tool for businesses of all sizes in managing their operations and gaining a competitive edge.
This master thesis explores the role of Business Intelligence in start-up companies. The study aims to investigate the use of BI in start-up companies, the drivers and the inhibitors for its adoption and their relationship with price. The research conducted for this thesis involves a review of relevant literature on Business Intelligence, start-up companies, and related topics. The study also includes structured survey with entrepreneurs, start-up company executives, and BI experts to gain data for a quantitative analysis of the topic.
The thesis aims to contribute to the existing body of knowledge on Business Intelligence and its role in start-up companies. The research conducted for this thesis can be of value to start-up entrepreneurs, investors, and other stakeholders who seek to improve their understanding of the benefits and challenges of implementing BI in start-up companies.
The primary objective of this thesis is to examine the lean accounting transformation, which involves applying lean management principles to the accounting domain. In recent years, various sectors, including manufacturing, healthcare, and services, have experienced success with lean management practices. Nevertheless, the implementation of lean accounting within financial management has not been as extensively explored. This research aims to bridge that gap by scrutinizing the benefits and potential drawbacks of adopting lean accounting practices in business operations.
This research uses a combination of qualitative techniques and an extensive literature review to better understand the present subject matter. By describing the ideas of lean management and standard accounting and highlighting the fundamental distinctions between the two systems, the literature study lays a theoretical framework. The case studies illustrate the benefits of adopting lean accounting processes with real-world examples of firms that have made the transition effectively.
In the quantitative analysis of lean accounting's impact, both financial and operational factors are examined extensively. The results indicate that companies embracing lean accounting practices experience significant improvements in productivity, cost reduction, and decisionmaking quality. By highlighting the potential gains to be made by incorporating lean techniques into accounting procedures, this study adds to the current body of information on lean management. The findings offer practical implications for accounting professionals, business leaders, and policymakers interested in leveraging lean accounting to drive organizational performance improvement. The thesis finishes with suggestions for further study in this area, lean accounting.
Study of impact of change in market economics of Biosimilars due to SPC waiver on EU 469/2009
(2023)
This research was conducted to understand and investigate the impact of SPC waiver EU 933/2019 made as an amendment to EU 469/2019. The research was conducted for analysis and extraction of the data to compile the exact number of biological products impacted with the SPC waiver. The highest sale top-5 products were identified according to the expert’s opinion. The sales revenue opportunity valuable to the top-5 products in the top-5 non-EU markets for early exports is investigated. Additionally, a survey was conducted to assess the readiness of the industry for these changes. The information from this study will be very useful to students of the biopharmaceutical market research and to the stakeholders from the biopharmaceutical industry.
Ein Sachcomic von Schlogger:
- Warum streiten wir?
- Welche gesellschaftlichen und psychologischen Probleme erschweren moderne Beziehungen?
- Wie streiten wir?
- Warum lohnt es sich Streiten zu lernen?
- Was ist Kommunikation und was kann dabei schief laufen?
- Wie streiten wir konstruktiver?
Diese Fragen versucht "STREIT[SAM]"anhand vieler grafischer Beispiele und Theorien wie z.B."Das Vier-Seiten-Modell" von Schulz von Thun, den "Axiomen zur Kommunikationspsychologie"
von Paul Watzlawick oder der Gewaltfreien Kommunikation nach Rosenberg zu beantworten.
Im Berufsbereich Medien existieren innerhalb einer Berufsuntergruppe die duale Ausbildung zur/zum Mediengestalter/-in Digital und Print sowie die vollzeitschulische Ausbildung zur/zum staatlich-geprüften Grafikdesigner/-in. In der vorliegenden Arbeit werden anhand dieser beiden Ausbildungsberufe die Ausbildungsformen verglichen, deren Stellenwert beleuchtet sowie die Vor- und Nachteile analysiert. Hierfür werden zunächst die theoretischen Hintergründe erarbeitet und die verschiedenen Perspektiven untersucht. Dieser Teil der Arbeit bildet dann die Basis zur Erstellung konkreter Fragen, anhand derer mit einer geeigneten Forschungsmethode empirische Daten erhoben werden sollen. Diese sollen im Anschluss ausgewertet, analysiert und interpretiert werden um möglichst präzise die Forschungsfrage beantworten zu können.
Laut einer Studie der AZT Automotive GmbH sind etwa 75% aller Verkehrsteilnehmer im deutschsprachigen Raum durch fahrzeugseitige Technik abgelenkt. Dies stellt eine der größten Unfallgefahren dar: Bei ca. 11% der Verkehrsunfälle 2002-2012 in Deutschland ist die Ursache auf die Ablenkung des Fahrers zurückzuführen. Mittels Sperrkonzepten, welche den Zugriff auf Bereiche und Funktionen des Infotainmentsystems während der Fahrt limitieren, soll die Fahrerablenkung bei den immer größer werdenden Displays, komplexeren Einstellungsmöglichkeiten und längeren Interaktionspfaden minimiert und die Sicherheit im Straßenverkehr gewährleistet werden.
Diese Masterarbeit befasst sich mit dem Thema Fahrerablenkung im Kontext von automatisierten Fahrfunktionen. Durch die zunehmende Automatisierung des Fahrzeugs können wichtige Fahraufgaben und -funktionen durch Fahrassistenzsysteme übernommen und somit der Fahrer bei der Fahraufgabe und der Überwachung des Verkehrsgeschehens unterstützt bzw. entlastet werden. Dadurch ergeben sich für den Fahrer neue Freiheiten, die es ihm erlauben, seine Aufmerksamkeit (teilweise) von der Fahraufgabe abzuwenden und für andere, fahrfremde Tätigkeiten, wie der Interaktion mit dem Infotainmentsystem, zu nutzen. Ziel der Arbeit ist die Spezifikation und prototypische Umsetzung eines dynamischen Sperrkonzeptes für Infotainmentsysteme in Abhängigkeit des Automatisierungsgrades des Fahrzeugs. Risiken durch Fahrerablenkung sollen mittels Sperrungen von Infotainment-Bereichen und -Funktionen minimiert werden, zeitgleich soll der Zugriff auf Informationen und Unterhaltung für den Fahrer möglichst uneingeschränkt gewährleistet werden. Dabei wird der Fokus auf die Automatisierungsgrade Level eins bis drei (nach SAE) gelegt, wo es immer noch zu einem Wechsel zwischen automatisierten und manuellen Fahrabschnitten kommt.
Als Basis für das dynamische Sperrkonzept dient der Stand der Technik bisheriger wissenschaftlicher Erkenntnisse sowie Studien zu automatisierten Fahrfunktionen, Fahrerablenkung, Arbeitsbelastung, Reaktionszeit und Situationsbewusstsein. Außerdem soll ein Überblick über aktuelle Gesetzes- und Normenlagen sowie Gestaltungsrichtlinien in Bezug auf automatisierte Fahrzeuge bzw. Fahrfunktionen geschaffen werden, welche bei der Entwicklung von Sperrkonzepten eine essenzielle Rolle spielen.
Durch den stark wachsenden Klinikcampus des Universitätsklinikums Freiburg ist die zentrale Versorgung mit medizinischem Sauerstoff an ihrer Kapazitätsgrenze angelangt. Es handelt sich um ein großflächiges, teilweise über viele Jahrzehnte altes Ringleitungssystem, an das immer wieder neue Kliniken und Institute angeschlossen wurden.
Das Ziel der vorliegenden Masterarbeit ist eine umfangreiche Untersuchung und Beurteilung von Sicherheits- und Kapazitätsparametern der zentralen medizinischen Gasversorgung. Hierzu erfolgte zunächst eine Literaturrecherche zum aktuellen Stand der Technik. Danach wurde eine Umfrage an insgesamt 14 deutschen Universitätskliniken mit ähnlicher Ringleitungstopologie durchgeführt. Es zeigte sich, dass in den meisten Fällen bisher noch keine detaillierte Analyse des eigenen Ringleitungssystems für medizinische Zwecke durchgeführt wurde.
An der Universitätsklinik Freiburg erfolgte die Analyse des Ringleitungssystems mit Hilfe der nicht-invasiven Clamp-On Messmethode für Gase. Dabei wurde als erstes festgestellt, dass die Strömungsgeschwindigkeiten innerhalb des Ringleitungssystems im Mittel so niedrig sind, dass keine Brandgefährdung vom z.B. durch die Selbstentzündung von Sauerstoff für die Klinik zu erwarten ist. Es stellte sich weiter heraus, dass für die Notversorgung der einzelnen Kliniken und Institute die Dimensionierung der Flaschenbatterien in lokalen Gasunterzentralen deutlich zu gering ist und dort nachgebessert werden sollte. Im Hinblick auf die o.g. Umfrage ist diese Masterarbeit sicher auch für andere Universitätskliniken bzw. Kliniken mit Campusinfrastruktur mit ähnlicher Ringleitungstopologie interessant.
Die Suchmaschinenoptimierung (SEO) ist von zunehmender Bedeutung für ContentErsteller:innen. Ziel dieser Forschung ist das Erstellen eines strukturierten und übersichtlichen SEO-Leitfadens für Redakteur:innen. Dazu wird die folgende Forschungsfrage gestellt: ‚Welche Elemente der Suchmaschinenoptimierung spielen im redaktionellen Prozess eine wesentliche Rolle, um erfolgreiche SEO-Texte zu erstellen?’
Um die Forschungsfrage zu beantworten wurde eine qualitative Studie zu SEO in Bezug auf Redaktuer:innen durchgeführt. Daran nahmen sieben Auskunftspersonen teil, mitunter: erfahrene Redakteur:innen, Informatiker:innen, Online Marketing Expert:innen und SEOs. Konkret beschäftigt sich die Studie mit dem Erstellen von Texten und Artikeln für WebMagazine und Blogs. In der qualitativen Studie wurden offene Fragen durch die Interviewtechnik des problemzentrierten Interviews gestellt. Das erhobene Material wurde dann durch eine qualitative Inhaltsanalyse ausgewertet.
Die Analyse des Materials erlaubte die Schritte Keyword-Recherche, Themensuche, Keyword-Analyse, SEO-Briefing und Text-Schreiben zu definieren, um sie danach in eine sinnvolle Reihenfolge zu ordnen. Der Leitfaden soll Redakteur:innen dabei helfen, einen besseren Überblick zum SEO-Prozess zu erlangen und das selbständige Durcharbeiten der Schritte vor dem Schreiben eines SEO-Artikels oder -Texts ermöglichen.
Verschiedenste Hersteller von Prothesen treiben die Entwicklungen in der Neuroprothetik immer weiter voran. Jedoch steigen dadurch nicht nur die Komplexität und die Funktionen einer solchen Prothese, sondern auch die Kosten. Oft wird vernachlässigt, dass ein einfaches Greifen meist schon ausreicht und damit oftmals viel mehr Personen geholfen werden kann als mit einer teuren Highend-Prothese.
Die vorliegende Masterthesis soll zeigen, dass es möglich ist, mit einfachen Mitteln einen funktionsfähigen bionischen Prototyp zu entwickeln. Die Steuerung funktioniert per Knopfdruck, Bewegungen werden automatisch ausgeführt.
Hierfür wurde auf der Rekonstruktion der ersten eisernen Hand des Götz von Berlichin-gen aufgebaut. Diese wurde mit günstiger und einfach beschaffbarer Elektronik verändert, damit die Prothese durch elektrische Motoren aktiv ansteuerbar ist. Das Modell wurde mit SolidWorks 2018 verändert. Die elektronischen Bauteile wurden über ein Arduino Board UNO R3 angesteuert, welcher die Schnittstelle zum Computer bildet.
As cyber threats continue to evolve, it is becoming increasingly important for organizations to have a Security Operations Center (SOC) in place to effectively defend against them. However, building and maintaining a SOC can be a daunting task without clear guidelines, policies, and procedures in place. Additionally, most current SOC solutions used by organizations are outdated, lack key features and integrations, and are expensive to maintain and upgrade. Moreover, proprietary solutions can lead to vendor lock-in, making it difficult to switch to a different solution in the future.
To address these challenges, this thesis proposes a comprehensive SOC framework and an open-source SOC solution that provides organizations with a flexible and cost-effective way to defend against modern cyber threats. The research methodology involved conducting a thorough literature review of existing literature and research on building and maintaining a SOC, including using SOC as a service. The data collected from the literature review was analyzed to identify common themes, challenges, and best practices for building and maintaining a SOC.
Based on the data collected, a comprehensive framework for building and maintaining a SOC was developed. The framework addresses essential areas such as the scope and purpose of the SOC, governance and leadership, staffing and skills, technologies and tools, processes and procedures, service level agreements (SLAs), and evaluation and measurement. This framework provides organizations with the necessary guidance and resources to establish and effectively operate a SOC, as well as a reference for evaluating the service provided by SOC service providers.
In addition to the SOC framework, a modern open-source SOC solution was developed, which emphasizes several key measures to help organizations defend against modern cyber threats. These measures include real-time, actionable threat intelligence, rapid and effective incident response, continuous security monitoring and alerting, automation, integration, and customization. The use of open-source technologies and a modular architecture makes the solution cost-effective, allowing organizations to scale it up or down as needed.
Overall, the proposed SOC framework and open-source SOC solution provide organizations with a comprehensive and systematic approach for building and maintaining a SOC that is aligned with the needs and objectives of the organization. The open-source SOC solution provides a flexible and cost-effective way to defend against modern cyber threats, helping organizations to effectively operate their SOC and reduce their risk of security incidents and breaches.
Risk-based Cybermaturity Assessment Model - Protecting the company against ransomware attacks
(2023)
Ransomware has become one of the most catastrophic attacks in the previous decade, hurting businesses of all sorts worldwide. So, no organization is safe, and most companies are reviewing their ransomware defensive solutions to avoid business and operational hazards. IT departments are using cybersecurity maturity assessment frameworks like CMMC, C2M2, CMMI, NIST, CIS, CPP, and others to analyze organization security capabilities. In addition to maturity assessment models for the process layer and human pillar, there are much research on the analysis, identification, and defense of cyber threats in product/software layers that propose state-of-the-art approaches.
This motivates a comprehensive ransomware cyber security solution. Then, a crucial question arises: “How companies can measure the security maturity of controls in a specific danger for example for Ransomware attack?” Several studies and frameworks addressed this subject.
Complexity of understanding the ransomware attack, Lack of comprehensive ransomware defense solutions and Lack of cybermaturity assessment model for ransomware defense solutions are different aspects of problem statement in this study. By considering the most important limitations to developing a ransomware defense cybermaturity assessment method, this study developed a cybermaturity assessment methodology and implemented a Toolkit to conduct cyber security self-assessment specifically for ransomware attack to provide a clearer vision for enterprises to analyze the security maturity of controls regardless of industry or size.
The current thesis conducts the study on the integration of digitalization techniques aimed at improving energy supply efficiency in off-grid energy systems. The primary objective is to fortify the security of energy supply in remote areas, particularly in instances of adverse weather conditions, unanticipated changes in load and fluctuations in the performance of renewable energy systems. This objective is to be achieved through the implementation of a smart load management strategy in stand-alone photovoltaic systems (SAPVS). This strategy involves deployment of forecasting algorithms on an edge device that operates with limited processing resources in an environment characterized for the lack of internet connection. The edge device is designed to interact with a smart home gateway that prioritizes, and schedules smart appliances based on the forecasted state of charge (SOC) in the 36-hours ahead of the SAPVS operation (the implementation of the loads schedule deployed on the Home Assistant device is out of the scope of the tasks implemented for this project).
The edge device, developed using a Raspberry Pi 3B+, was specifically intended for being implemented along with a SAPVS, in remote areas such as health stations in Africa and tropical islands, providing communities with a reliable source of electrical energy. The deployment of the strategy was carried out in four phases. The first phase involved the implementation of an Extraction-Transformation-Load (ETL) pipeline, where data was gathered from various heterogeneous hardware sources of an implemented test system that served as the enabler and testbench of this research, this test stand is composed of power electronics components such as an inverter, a MPPT solar charge controller, a smart meter, and a BOS LiFePo4 battery prototype. In the transformation stage, a data model was developed to identify the most critical parameters of the energy system, and to eliminate outliers and null values. In the load stage, a local SQL database was established for saving and structuring the data gathered and to ensure high-quality data with defined units and casting.
The second phase involved data analysis to identify the relevant features and potential exogenous variables for the forecasting model to implement. In the third phase, an Auto Regressive Moving Average (ARMA) model with two selected exogenous variables was implemented to forecast the AC load consumption profile for the 36- hours ahead of the off-grid system operation. The final phase involved the information exchange with the Home Assistant device, by transferring to it from the edge device the battery SOC present value and the predicted 36-hour ahead AC load profile information for prioritization and scheduling of loads; this through an MQTT interface.
The outcome of the experiment was a successful deployment of a data engineering and data forecasting approach that enabled data quality strategy implementation, local database storage, and forecasting algorithms on a processing and internet-constrained edge device. The interface with a home assistant implementation resulted in the successful execution of smart load management endeavors in an off-grid system, thereby enhancing the energy security of supply and contributing to the advancement of data-driven strategies in the rural electrification sector.
This thesis emphasizes the significance of digitalization strategies in smart SAPVS and highlights the potential of edge computing solutions in achieving seamless energy management in smart homes.
Die vorliegende Arbeit beschäftigt sich mit der Nutzung von Reinforcement Learning in der Informationsbeschaffungs-Phase eines Penetration Tests. Es werden Kernprobleme in den bisherigen Ansätzen anderer das Thema betreffender wissenschaftlicher Arbeiten analysiert und praktische Lösungsansätze für diese bisherigen Hindernisse vorgestellt und implementiert. Die Arbeit zeigt damit eine beispielhafte Implementierung eines Reinforcement Learning Agenten zur Automatisierung der Informationsbeschaffungs-Phase eines Penetration Tests und stellt Lösungen für existierende Probleme in diesem Bereich dar.
Eingebettet wird diese wissenschaftliche Arbeit in die Anforderungen der Herrenknecht AG hinsichtlich der Absicherung des Tunnelbohrmaschinen-Netzwerks. Dabei werden praktische Ergebnisse des eigen entwickelten Reinforcement Learning Modells im Tunnelbohrmaschinen-Test-Netzwerk der Herrenknecht AG vorgestellt.
Self-sufficient enzymes belong to the cytochrome P450 (CYP) group and are known for their superior hydroxylation catalytic activity. In the pursuit of identifying new pesticides to combat antimicrobial-resistant pathogens, we employed BM3 wild type (BM3-WT), the fastest monohydroxylating CYP, along with its seven homologs, to investigate the production of potential hydroxylated derivatives from the established pesticide, 4-oxocrotonic acid using high-pressure liquid chromatography (HPLC) method. Following the recombinant production of BM3-WT and three other homologs in E. coli, and their subsequent purification using Immobilized Metal Affinity Chromatography (IMAC), a novel enzyme assay approach was developed as a substitute for the carbon monoxide (CO) assay. This new method relied on the measurement of NADPH consumption at 340 nm by BM3-WT for palmitic acid. Leveraging this established technique, we explored the substrate specificity of BM3-WT and its homologs not only on palmitic acid but also on other structurally similar compounds, including 4-oxocrotonic acid. The results obtained from the established NADPH assay indicate that all tested enzymes displayed greater catalytic activity on 4-oxocrotonic acid in comparison to other substrates with similar structures. However, the impact of BM3-WT and its homologs on 4-oxocrotonic acid varied in terms of product specificity. Enzymes such as Poh, Trr and Bas-CYP D exhibited specificity in producing solely monohydroxylated products, while others tended to yield dehydroxylated and ketol metabolites.
Inhalt und Ziel dieser Masterarbeit ist zum einen, die Identifikation derjenigen Faktoren, die den Erfolg eines Intranets entscheidend beeinflussen können. Zum anderen wird auf Basis dieser Erfolgsfaktoren und der Analyse des Intranets der Flughafen Stuttgart GmbH ein umfassendes und realisierbares Konzept für ein weiterentwickeltes Intranet erstellt . Dabei wird auch untersucht, in welcher Form das Intranet als neues Medium die interne Kommunikation im Unternehmen verändert hat und welche Voraussetzungen gegeben sein müssen, um ein Intranet erfolgreich als gemeinsame Wissensbasis zu etablieren.
Diese Thesis befasst sich mit der Konzeption, Kommunikation und Umsetzung eines eigens ins Leben gerufenen Non-Profit Projekts namens green&easy. Der Name verdeutlicht den Ursprungsgedanken, aus dessen Überzeugung die Idee entstand: „green“ steht für einen nachhaltigen Lifestyle und „easy“ für den Gedanken, dass Umweltschutz nicht kompliziert oder belastend sein muss. Das Projekt ist der Versuch Umweltschutz mal anders anzugehen. Statt sich auf die Politik und wissenschaftliche Durchbrüche zu verlassen, setzt green&easy mit einem Buttom-Up-Ansatz bei den kleinen alltäglichen Handlungen an. Umweltschutz einfach und attraktiv zu machen, um den Einzelnen zum Handeln zu ermuti-gen – das ist das Ziel von green&easy.
Die verstärkte Nachfrage des Marktes nach regelbaren EC-Antrieben mit erhöhten Leistungsdichten fordert das Einsetzen von höherwertigen Elektroblechsorten. Diese weisen durch ihren höheren Siliziumgehalt höhere Härten auf, was zu neue Herausforderungen bei der Montage führt. Das Fügen sogenannter gekerbter Wellen in das Rotorlamellenpaket kann zu Partikelbildung führen, wenn die Härtedifferenz zwischen den beiden Fügepartnern zu gering ausfällt. Dieser Umstand ist zur Einhaltung der steigenden Anforderungen bezüglich technischer Sauberkeit zu vermeiden, da ansonsten kostspielige Reinigungskonzepte in der Montagelinie installiert werden müssen. Für die Montage von Lagern werden die Rotorwellen selektiv induktiv randschichtgehärtet. Hierbei müssen bspw. Lagerstellen eine Mindesthärte erreichen und Kerbzonen unbehandelt bleiben, damit eine entsprechende Umformbarkeit beim Kerben erhalten bleibt sowie der Verschleiß der Kerbwerkzeuge möglichst geringgehalten wird.
Im Rahmen dieser Masterthesis wird die induktive Wärmebehandlung untersucht. Insbesondere wird hier das induktive Hochgeschwindigkeitsvergüten zur Weiterentwicklung der Welle-Nabe-Verbindung im Kerbbereich betrachtet, um bei gleichbleibender Taktzeit die erforderte Härtedifferenz zum Rotorlamellenwerkstoff zu ermöglichen. Hierbei wird der Kerbbereich wie für die Lagermontage induktiv randschichtgehärtet und anschließend bei höheren Temperaturen angelassen (vergütet).
Die Auswertung der Versuchsergebnisse zeigt, dass mit dem vorhandenen Maschinenfuhrpark nur das Anlassen mit Selbstabschreckung die geforderten Härtetoleranzen als Kompromiss zwischen Spanfreiheit beim Fügen und Werkzeugverschleiß ermöglicht. Diese wiederum zeigen aufgrund der ununterbrochene Wärmeleitung eine in Axialrichtung ausgeweiteten Wärmeeinflusszone, die zu unscharfen Härteübergängen im Vergleich zu nach dem Anlassen aktiv gekühlter Rotorwellen führt. Eine höhere Härte in der Kerbzone führt zu einem kleineren Kerbaufwurf unter gleichbleibenden Kerbbedingungen. Der Nachweis einer Prozessfähigkeit für die Härte ist nicht üblich und kann auch aufgrund der hohen Unsicherheit des Härteprüfverfahrens nicht erbracht werden. Das Anlassen verschlechtert nur geringfügig den Rundlauf. Die Einpresskräfte von Rotorlamellenpaketen hängt von der Höhe des Kerbaufwurfs ab und steigt entsprechend mit deren Zunahme. Für eine serientaugliche Umsetzung ist in Abhängigkeit des Anforderungsprofils eine Rücksprache mit der Designabteilung bezüglich axiale Härteübergang und Kerbeindringtiefe notwendig. Für eine dauerhafte Lösung wird die Verwendung eines Mittelfrequenzgenerators für den Anlassprozess empfohlen.
Communication protocols enable information exchange between different information systems. If protocol descriptions for these systems are not available, they can be reverse-engineered for interoperability or security reasons. This master thesis describes the analysis of such a proprietary binary protocol, named the DVRIP or Dahua private protocol from Dahua Technology. The analysis contains the identification of the DVRIP protocol header format, security mechanisms and vulnerabilities inside the protocol implementation. With the revealing insights of the protocol, an increase of the overall security is achieved. This thesis builds the foundation for further targeted security analyses.
In der Dokumentation dieser Masterthesis wird die Produktion eines zweidimensionalen Platformer-Spiels beschrieben, in dem mit mehreren Fähigkeiten und dem Lösen von diversen Rätseln verschiedene Level durchquert werden können. Zudem wird in dieser Dokumentation anhand einer Tabelle alle möglichen Eingaben zur Tastatur- und Controller-Steuerung gezeigt. Des weiteren wird das gestalterische Konzept dargestellt. Dazu gehört die Beschreibung der Synopsis der in dem Spiel erzählten Geschichte, das Darstellen des Designs der vorkommenden Charaktere und das Beschreiben des Aufbaus und der gestalterischen Intention der verschiedenen Level. Der Fokus in dieser Dokumentation liegt im detaillierten Beschreiben der in dem Spiel vorkommenden Elemente und wie diese in der gewählten Spiele-Engine Godot implementiert wurden. Dazu zählen wie der Spieler-Charakter aufgebaut ist und wie dieser mit den einzelnen Objekten oder anderen Charakteren im Spiel interagieren kann. Zudem wird die Implementierung eines umfangreichen Dialog-Systems mit seinen Bausteinen beschrieben. Des weiteren werden alle weiteren wichtigen Elemente, die das Spiel spielbar machen, erklärt.
Die vorliegende Arbeit setzt sich mit dem Thema Product-Placement auf YouTube auseinander. Dabei wird der Frage nachgegangen, inwieweit sich Produktplatzierungen in YouTube-Videos auf das Kaufverhalten von Jugendlichen auswirken. Im Zuge dessen sollen außerdem Einblicke darüber gewonnen werden, ob und wie Jugendliche Product-Placement wahrnehmen. Die Fragestellungen werden auf Basis der Auswertung aktueller Fachliteratur und vor dem Hintergrund der Erkenntnisse einer quantitativen Onlinebefragung diskutiert.
Die Ergebnisse der Arbeit zeigen, dass YouTuber einen hohen Stellenwert im Leben vieler Jugendlicher einnehmen. Werbetreibende sehen in den YouTubern Influencer, die Werbebotschaften subtil und authentisch an eine junge Zielgruppe vermitteln können. Vor diesem Hintergrund wird diskutiert, inwieweit Produktplatzierungen in YouTube-Videos kenntlich gemacht werden müssen. Es kann vorweggenommen werden, dass eine eindeutige Kennzeichnung sowohl aus rechtlicher und medienethischer Sicht notwendig ist. Darüber hinaus zeigen auch die Umfrageergebnisse den Bedarf einer eindeutigen Kennzeichnung auf. Obwohl die Mehrheit annimmt, Werbung in YouTube-Videos zu erkennen, kann nur ein geringer Teil auch das platzierte Produkt richtig identifizieren.
Der Einfluss von Product-Placement in YouTube-Videos auf das bewusste Kaufverhalten von Jugendlichen ist geringer, als angenommen. Jugendliche, die eine erhöhte Kaufwahrscheinlichkeit angaben, sehen sich tendenziell häufiger die Videos des YouTubers an, folgen ihm auf mehreren Social Media Kanälen und empfinden ihn als glaubwürdig.
In recent years, the demand for reliable power, driven by sensitive electronic equipment, has surged. Even minor deviations from the nominal supply can lead to malfunctions or failure. Despite technological advancements, power quality issues persist due to various factors like short circuits, overloads, voltage fluctuations, unbalanced loads, and non-linear loads.
This thesis extensively explores power quality anomalies in industrial and commercial sectors, using power system data as the primary analytical resource. It addresses the critical need for power supply reliability in today's evolving power grid industry, affected by non-linear loads, renewable energy integration, and electric vehicles. This field of study is paramount for ensuring power supply reliability and stability in the evolving power grid industry.
The core of this thesis involves a comprehensive investigation of power quality, with a focus on frequency, power, and harmonics in voltage and current signals. The research employs Python programming for advanced data analysis, utilizing techniques such as advanced Fast Fourier Transformation (FFT) analysis. The primary objective is to provide valuable insights aimed at elevating power supply quality and enhancing reliability in both industrial and commercial environments.
Digitales Engineering wird zunehmend wichtiger in unserer digitalen Welt. Auch die Hochschule und im speziellen der Bildungscampus Gengenbach hat den Anspruch, sich stets weiterzuentwickeln und den Studierenden die fortschreitende Technik greifbar und praxisnah zu vermitteln. Das digitale Engineering bietet dazu Möglichkeiten, neue studentische Lehrkonzepte zu entwickeln und umzusetzen, die beispielsweise aus neuartiger Software besteht. Durch den demografischen Wandel und den zunehmenden Kostendruck sind immer mehr Industrieunternehmen gezwungen, ihre Prozesse zu digitalisieren und neuste Software im Bereich Engineering einzusetzen. Deswegen müssen die zukünftigen Studierenden auf die neue Rolle optimal vorbereitet werden.
Die Herausforderung ist dabei, eine geeignete Software zu finden und zu analysieren. Vor diesem Hintergrund beschäftigt sich diese Arbeit zuerst mit einer Softwareanalyse. Zunächst gilt es, nach einer Einarbeitungsphase in die verschiedensten Engineering Softwaretools One Pager mit den wichtigsten Informationen zu erstellen. Danach wird eine Nutzwertanalyse durchgeführt, um zu definieren, welche Software den Ansprüchen gerecht wird.
Danach wird eine Planung und Auslegung eines Kollaborativen Engineering Laborkonzeptes durchgeführt. Dabei wird unterschieden in eine Planung auf einer grünen Wiese, das bedeutet es gibt keine Flächenbegrenzung und als weitere Variante mit der Planung auf der Fläche des derzeitigen Virtual Engineering Labors im Bildungscampus Gengenbach.
Anschließend wird ein Lehrkonzept für das neue Labor und entsprechenden Engineering Tools erarbeitet. Dabei geht es hauptsächlich um die Machbarkeit und der Definition der möglichen Potenziale und Umsetzung der Kollaboration.
Even though the internet has only been there for a short period, it has grown tremendously. To- day, a significant portion of commerce is conducted entirely online because of increased inter- net users and technological advancements in web construction. Additionally, cyberattacks and threats have expanded significantly, leading to financial losses, privacy breaches, identity theft, a decrease in customers’ confidence in online banking and e-commerce, and a decrease in brand reputation and trust. When an attacker pretends to be a genuine and trustworthy institution, they can steal private and confidential information from a victim. Aside from that, phishing has been an ongoing issue for a long time. Billions of dollars have been shed on the global economy. In recent years, there has been significant progress in the development of phishing detection and identification systems to protect against phishing attacks. Phishing detection technologies frequently produce binary results, i.e., whether a phishing attempt was made or not, with no explanation. On the other hand, phishing identification methodologies identify phishing web- pages by visually comparing webpages with predetermined authentic references and reporting phishing together with its target brand, resulting in findings that are understandable. However, technical difficulties in the field of visual analysis limit the applicability of currently available solutions, preventing them from being both effective (with high accuracy) and efficient (with little runtime overhead). Here, we evaluate existed framework called Phishpedia. This hybrid deep learning system can recognize identity logos from webpage screenshots and match logo variants of the same brand with high precision. Phishpedia provides high accuracy with low run- time. Lastly, unlike other methods, Phishpedia does not require training on any phishing sam- ples whatsoever. Phishpedia exceeds baseline identification techniques (EMD, PhishZoo, and LogoSENSE), inaccurately detecting phishing pages in lengthy testing using accurate phishing data. The effectiveness of Phishpedia was tested and compared against other standard machine learning algorithms and some state-of-the-art algorithms. The given solutions performed better than different algorithms in the given dataset, which is impressive.
Im Rahmen dieser Arbeit wurde die Performanz grundlegender Bildverarbeitungsalgorithmen wie einem Gaußfilter und Farbraumkonvertierung, aber auch der Feature Detection-Algorithmen Scale Invariant Feature Transform (SIFT) und Speeded-Up Robust Features (SURF) auf einem Raspberry Pi 4 unter Verwendung von openCV unter Variation der Parameter untersucht. Ein Algorithmus zur Farberkennung der Würfelsteine des Rubik's Cube wurde entwickelt, implementiert und evaluiert. Die Laufzeiten der Algorithmen wurden mit dem Raspberry Pi 4 und einem Lenovo P12.Gen Notebook mit Intel-i9 Prozessor gemessen. Die Ergebnisse wurden verglichen und diskutiert.
Die Masterarbeit untersucht verschiedene Möglichkeiten der digitalen Umsetzung von gedruckten Zeitschriften. Aktuelle Darstellungsformen von Magazinen als Blätter-PDF, E-Magazin oder App werden hinsichtlich der gelungenen Übertragung vom Papier- zum Digitalmedium untersucht. Auf Basis dieser Erkenntnisse wurde prototypisch ein eigenes Magazin mit dem Titel "Up and away" als Print- und E-Magazin entwickelt.
As the Industry 4.0 is evolving, the previously separated Operational Technology (OT) and Information Technology (IT) is converging. Connecting devices in the industrial setting to the Internet exposes these systems to a broader spectrum of cyber-attacks. The reason is that since OT does not have much security measures as much as IT, it is more vulnerable from the attacker's perspective. Another factor contributing to the vulnerability of OT is that, when it comes to cybersecurity, industries have focused on protecting information technology and less prioritizing the control systems. The consequences of a security breach in an OT system can be more adverse as it can lead to physical damage, industrial accidents and physical harm to human beings. Hence, for the OT networks, certificate-based authentication is implemented. This involves stages of managing credentials in their communication endpoints. In the previous works of ivESK, a solution was developed for managing credentials. This involves a CANopen-based physical demonstrator where the certificate management processes were developed. The extended feature set involving certificate management will be based on the existing solution. The thesis aims to significantly improve such a solution by addressing two key areas that is enhancing functionality and optimizing real-time performance. Regarding the first goal, firstly, an analysis of the existing feature set shall be carried out, where the correct functionality shall be guaranteed. The limitations from the previously implemented system will be addressed and to make sure it can be applied to real world scenarios, it will be implemented and tested in the physical demonstrator. This will lay a concrete foundation that these certificate management processes can be used in the industries in large-scale networks. Implementation of features like revocation mechanism for certificates, automated renewal of the credentials and authorization attribute checks for the certificate management will be implemented. Regarding the second goal, the impact of credential management processes on the ongoing CANopen real-time traffic shall be a studied. Since in real life scenarios, mission-critical applications like Industrial control systems, medical devices, and transportation networks rely on real-time communication for reliable operation, delays or disruptions caused by credential management processes can have severe consequences. Optimizing these processes is crucial for maintaining system integrity and safety. The effect to minimize the disturbance of the credential management processes on the normal operation of the CANopen network shall be characterized. This shall comprise testing real-time parameters in the network such as CPU load, network load and average delay. Results obtained from each of these tests will be studied.
Die rasante Digitalisierung verändert die Hochschule Offenburg nachhaltig. Jedes Semester entstehen zahlreiche akademische Arbeiten und Prüfungsdaten, die von hoher Bedeutung für die Qualitätssicherung und den Bildungsprozess sind. Bisher fehlte jedoch eine effiziente Lösung zur Archivierung dieser Daten. Meine Masterarbeit präsentiert ein neues Archivierungskonzept, das eine zentrale, digitale Plattform schafft. Diese ermöglicht es Lehrenden und Studierenden, leicht auf ihre Daten zuzugreifen, sei es für Projektarbeiten, Seminarleistungen oder Prüfungen. Ich stelle nicht nur das Konzept vor, sondern auch die Umsetzung eines Prototyps auf Intrexx, einer Low-Code-Entwicklungsplattform. Mein Ziel ist es, ein Handbuch für zukünftige Entwickler zu hinterlassen, um zur digitalen Transformation der Hochschule beizutragen und die Bildungsprozesse zu optimieren.
"The web’s greatest strength, I believe, is often seen as a limitation, as a defect. It is the nature of the web to be flexible, and it should be our role as designers and developers to embrace this flexibility, and produce pages which, by being flexible, are accessible to all. The journey begins by letting go of control, and becoming flexible."
Mit diesem Satz schloss Allsopp sein im Jahre 2000 auf alistapart.com publiziertes Essay 'A Dao of Webdesign'. Obwohl die Veröffentlichung nun über ein Jahrzehnt zurückliegt, hat der diesem Zitat zugrundeliegende Gedanke der Flexibilität, Anpassungsfähigkeit und Zugänglichkeit des Web, nichts an seiner Aktualität verloren. Vielmehr hat er in außerordentlichem Maße an Relevanz hinzugewonnen, denn nie in seiner noch jungen Geschichte war das Web unbeständiger, die verwendeten Technologien kurzlebiger und die internetfähigen Geräte vielfältiger als heute.
Im Jahr 2007 stellte Apple mit dem iPhone erstmals ein mobiles Endgerät vor, welches in der Lage war, dem Nutzer ein akzeptables Surferlebnis zu bieten. Seitdem ist der Siegeszug mobiler, internetfähiger Devices ungebrochen. Dabei sind Smartphones nicht die einzigen Geräte, die für Aufruhr sorgen. Tablets und Netbooks besetzen die Nische zwischen Smartphone und Laptop und auch E-Book Reader und Handheld- Konsolen sind in der Lage, auf das Web zuzugreifen. Gleichermaßen steigt die Vielfalt internetfähiger Geräte im stationären Sektor. Klassische Spielkonsolen werden ebenso mit Browser ausgeliefert wie Blu-ray-Player, Receiver und Smart-TVs. Smartwatches, Fuelbands, Kühlschränke oder Autos mit internetfähigen Komponenten bilden die nächste Stufe dieser Entwicklung.
Das Web ist damit jenseits des Desktops angekommen. Es hat sich von einem Computermedium zu einem universellen Medium entwickelt, das überall und auf einer unüberschaubaren Vielzahl von Geräten stattfindet. Die Geräte unterscheiden sich dabei nicht nur in ihrer Bildschirmgröße. Auch das Leistungsvermögen ihrer Hardware, die Fähigkeiten ihrer Betriebssysteme und Browser, das Ausmaß der Unterstützung von Standards und die Interaktionsmethoden variieren. Immer unklarer wird auch der Kontext, in dem ein internetfähiges Gerät verwendet wird. Neben der Anzahl und Vielfalt internetfähiger Geräte jenseits des Desktops, wächst auch der Umfang der Internetnutzung mit diesen Geräten. Im Jahr 2013 nutzten in Deutschland 70 Prozent der Internetuser das Web über Smartphones . Im ersten Quartal 2014 wurden bereits 31,2 Prozent des weltweiten Traffics durch mobile Geräte generiert. In den USA, Großbritannien und Italien verbringen die Nutzer bereits heute über mobile Geräte mehr Zeit im Internet als über Desktop-PCs.
Die bislang üblichen statischen und für die Spezifikationen eines Desktop-Computers optimierten Websites, sind nicht in der Lage auf die mannigfachen Anforderungen der verschiedenen Devices angemessen zu reagieren. Konzepte, die darauf beruhen für verschiedene Gerätetypen separate Websites zu entwickeln, sind angesichts der Vielzahl und der Heterogenität der vorhandenen Geräte ebenfalls nicht mehr oder nur noch in Ausnahmefällen praktikabel.
Vielmehr geht es darum einen flexiblen geräteagnostischen Designansatz für das Web zu verfolgen, um geräteübergreifend eine bestmögliche User Experience gewährleisten zu können. Dieser muss neben Anpassungen an die Bildschirmgröße auch darüber hinausgehende Faktoren wie Performance, Interaktionsmethoden und die individuellen Leistungsmerkmale der Geräte berücksichtigen. Responsive Web Design beschreibt solch ein Konzept. Dieser Ansatz erfordert die Anwendung einiger neuer Techniken und ein konzeptionelles Umdenken beim Entwickeln von Websites. Gleichermaßen bedarf es einer Abkehr vom bisherigen linearen Workflow hin zu einem iterativen, kollaborativen Prozess zwischen den Disziplinen, der es ermöglicht, den neuen Herausforderungen responsiven Webdesigns gerecht zu werden.
Im Rahmen dieser Arbeit wurde das elektrisch / elektronische System des Hocheffizienzfahrzeugs „Schluckspecht 6“ hinsichtlich seiner Übersichtlichkeit und Modularität optimiert. Essenziell war die Vernetzung der durch verschiedene Projektgruppen erstellten Teilsysteme mittels des neu integrierten CAN-Bus. Im Zuge der Überarbeitung des E/E-Systems wurde auch ein neuer Gesamtfahrzeugschaltplan angefertigt.
Im Rahmen der Optimierung des E-Antriebsstrangs wurde eine neue Motorsteuerung entwickelt, die aufgrund des verbauten Vierquadrantenstellers neben einem zuverlässigen Antrieb des Schluckspecht 6 zukünftig auch die Steuerung und Regelung von Lastmaschinen in – für den Schluckspecht 6 neu entwickelten – Testständen erlaubt. Für die Messdatenerfassung, während Test- und Rennläufen sowie in den Testständen, wurden diverse Messsysteme realisiert. Dazu gehören die Messung des Motorstroms, der Zwischenkreisspannung und der Motordrehzahl. Basierend auf der Motorstrommessung und Zwischenkreisspannungsmessung wurde eine Stromregelung implementiert, um die Bedienfreundlichkeit und Effizienz des S6 im Rennbetrieb zu erhöhen.
Das Konzept der Thermoaktiven Bauteilsysteme (TABS) zur Heizung und Kühlung von Gebäuden gewinnt aufgrund seiner Kompatibilität mit erneuerbaren Energiequellen an Popularität. Die Steuerung von TABS und somit auch die Gewährleistung eines behaglichen Raumklimas erweist sich allerdings aufgrund der hohen Systemträgheit als komplex. Kurzfristige Witterungsänderungen sorgen für unerwünschte Raumtemperaturänderungen, die nur langsam korrigiert werden können. Bei Nichtwohngebäuden wie dem Regionalen Innovationszentrum für Energie (RIZ Energie) in Offenburg wird dieser Umstand durch die unregelmäßige Gebäudenutzung zusätzlich erschwert, da innere Wärmelasten stark variieren und nicht vorhersehbar sind.
Konventionelle TABS-Steuerungen können Störgrößen im TABS-Betrieb nur bedingt und zeitverzögert berücksichtigen, weswegen eine dauerhafte Gewährleistung des thermischen Komforts im Gebäude oft nicht erreichbar ist – dies ist auch am RIZ Energie der Fall. Als Lösung dient der Einsatz prädiktiver Steuerungsalgorithmen, die Störgrößen prognostizieren und den TABS-Betrieb dementsprechend anpassen können.
Diese Arbeit überprüft das Potenzial von intelligenten TABS-Steuerungsalgorithmen für den Einsatz am RIZ Energie anhand der Umsetzung mit einem digitalen Zwilling des Gebäudes. Dabei konnte unter Verwendung der Algorithmen und Berücksichtigung von inneren und äußeren Störgrößen im TABS-Betrieb ein verbessertes Raumklima simuliert werden. Infolgedessen konnte zudem der digitale Zwilling optimiert werden.
Reibung und Verschleiß in tribologischen Kontakten verursachen knapp ein Viertel des weltweiten Primärenergiebedarfs. Dies stellt ein enormes Potential zur Minderung von Treibhausgasemissionen und Absenkung von Kosten dar. Aufgrund dessen ist die Optimierung von Reibkontakten ein Kernthema der Tribologie. Hierfür ist der Supraschmierzustand, bei welchem die Reibung aufgrund spezieller Schmiermechanismen annähernd vollständig verschwindet (Reibungszahl 𝜇 ⩽ 0,01), von besonderem Interesse. Die jährlich steigende Anzahl an Veröffentlichungen belegt das hohe wissenschaftliche Interesse an dem Thema. Bisher konnte Supraschmierung jedoch nur für Modellsysteme nachgewiesen werden, das Übertragen auf technische Systeme ist noch nicht gelungen.
Ziele dieser Arbeit waren der Nachweis von Supraschmierung in einem punktförmigen Modellkontakt und die Überführung in den Flächenkontakt eines realen Gleitlagers durch Verwendung von technischer Keramik und/oder DLC-Beschichtungen.
Hierfür wurde zunächst das Schmierverhalten einiger Modellschmierstoffe in einem Stahl/a-C:H:Si- Kontakt untersucht. Die niedrigsten Reibwerte wurden bei Verwendung von Glycerol erzielt. Daher wurde Glycerol als Modellschmierstoff für weitere tribologische Untersuchungen an unterschiedlichen Oberflächen (a-C:H, ta-C, Keramik) verwendet.
Die besten Ergebnisse hinsichtlich Reibung und Verschleiß wurden mit technischer Keramik erzielt. Mit einer Stahl/Si3N4-Paarung wird bei 80 °C Supraschmierung für Gleitgeschwindigkeiten von 0,007 𝑚/𝑠 bis 0,965 𝑚/𝑠 nachgewiesen. Als kleinste Reibungszahl wird 𝜇 = 0,0015 gemessen.
Die geringste Reibung in einem Stahl/DLC-Kontakt wird mit einer a-C:H:Si-Schicht erreicht. Hierbei konnte Supraschmierung bei 80 °C für Gleitgeschwindigkeiten von 0,029𝑚/𝑠 bis 0,484𝑚/𝑠 nachgewiesen werden. Die kleinste Reibungszahl für das System beträgt 𝜇 = 0,0063.
Der Nachweis von Supraschmierung gelingt für anwendungsnahe Betriebsparameter, dies stellt einen Fortschritt gegenüber den meisten Literaturdaten dar. Um die Übertragbarkeit auf technische Systeme zu demonstrieren,werden die besten identifizierten Oberflächen und Schmierstoffe auf einem anwendungsnahen Gleitlagerprüfstand untersucht. Durch Verwendung von a-C:H:Si-beschichteten Wellen und Glycerol als Schmierstoff kann der Reibwert bei Raumtemperatur von 𝜇 = 0,965 im Referenzsystem auf 𝜇 = 0,038 gesenkt werden.
Um die Arbeit fortzusetzen, werden die identifizierten Systeme in axiallagerähnlicher Anordnung (Gleitring/Gleitpad) untersucht.
Um gezielt DLC-Schichten zu entwickeln, sind Reibungssimulationen notwendig. Im nächsten Schritt sollen umfassende Oberflächenanalysen durchgeführt werden, um die nötige Datenbasis für die Simulation zu erstellen.
Elektronische Musik wird heute häufig mit erschwinglichen, digitalen Mitteln produziert. Die vorliegende Arbeit geht der Frage nach, welche Lernpotenziale das Internet im Hinblick auf die digitale Produktion elektronischer Musik bietet. Auf Basis einer umfassenden Literatur- und Medienrecherche, insbesondere in den Bereichen ELearning und Musikpädagogik, sowie eigenen Überlegungen werden zum einen Online-Lernvorgänge charakterisiert, zum anderen wird beleuchtet, welche Besonderheiten und Herausforderungen die digitale elektronische Musikproduktion als spezielles Lerngebiet mit sich bringt. Verschiedene Formen von Online-Lernmöglichkeiten werden dabei jeweils anhand diverser Praxisbeispiele dargestellt und deren Lernpotenziale untersucht.
Die Hohlprobentechnik soll als Alternative zur Autoklavtechnik eingesetzt werden,
um Werkstoffe unter Druckwasserstoffeinfluss charakterisieren zu können. Daher
wird in dieser Arbeit die Hohlprobengeometrie unter LCF-Belastung mit Hilfe
der Finite-Elemente-Methode untersucht. Dabei wird besonders auf den Einfluss
des Innendrucks, der Belastung und der Temperatur eingegangen. Die Ergebnisse
werden mit der Vollprobengeometrie verglichen, um die Eignung der Hohlprobe als
Alternative zur Vollprobe zu untersuchen. Ohne Innendruck ist kein Unterschied
im Verformungsverhalten zwischen Voll- und Hohlprobe zu erkennen. Bei hohen
Innendrücken kann die Hohlprobe ihre Formstabilität verlieren. Daher können in
Experimenten nicht alle Kombinationen aus Temperatur und Innendruck untersucht
werden.
Im zweiten Teil der Arbeit wird die belastungsabhängige Wasserstoffdiffusion an einer
angerissenen Hohlprobe numerisch untersucht. Durch die Spannungsgradienten an der
Rissspitze wird die Wasserstoffkonzentration beeinflusst. Um einen Zusammenhang
zwischen der Plastizität und der Diffusion zu untersuchen, wird eine plastische und
eine Diffusionszone ausgewertet. Hier zeigt sich, dass die Diffusionszone hauptsächlich
von der Risslänge und weniger von der Belastung abhängt.
Ziel der vorliegenden Arbeit ist die Durchführung einer Stadtklimasimulation vom Campus Offenburg. Um die Simulation auf Plausibilität überprüfen zu können, werden zudem Mikroklimamessungen vom Offenburger Campus durchgeführt. Die Ergebnisse der Simulation sollten im Anschluss mit den Messergebnissen verglichen werden.
Für die Durchführung der Stadtklimasimulation sowie der Mikroklimamessung werden zunächst verschiedene Vorbereitungen getroffen. Für die Stadtklimasimulation müssen im wesentlichen zwei Dateien vorbereitet werden. Eine Datei enthält Informationen zur Topologie, während die andere Datei Informationen zur Initialisierung der Simulation beinhaltet. Um den Rechenaufwand der Simulation gering halten zu können, müssen verschiedene Vereinfachungen getroffen werden. Für die Mikroklimamessung muss ein Messsystem entwickelt werden, welches sich aus stationären sowie mobilen Temperaturmessungen zusammensetzt. Für die stationäre Temperaturmessung werden Sensoren, verteilt über den ganzen Campus, platziert. Bei der mobilen Messung kommt eine Messvorrichtung mit GPS System, welches auf einem Fahrrad aufgebaut wird, zum Einsatz. Für Innenraum-temperaturen stehen fest installierte Sensoren zur Verfügung.
Der Vergleich zwischen Simulation und Messung zeigt auf, dass die Außentemperaturen der Simulation zu hoch sind. Die simulierten Temperaturdifferenzen können unter Berücksichtigung der getroffenen Vereinfachungen plausibilisiert werden. Die simulierten Innenraumtemperaturen weisen große Unterschiede im Vergleich zu den Messungen auf. Dies kann auf die getroffenen Vereinfachungen bei der Simulation zurückgeführt werden. Der Vergleich der Ergebnisse zeigt, dass Anpassungen in der Simulation erforderlich sind.
Das Konzept Nudging bezieht sich auf die gezielte Anwendung von verhaltensökonomischen Prinzipien. Menschen sollen dazu angestoßen werden, Entscheidungen zu treffen, welche ihnen zugutekommen. Dabei werden Reize, sogenannte Nudges, gesetzt. Ein Ziel der vorliegenden Arbeit ist es zu beantworten, ob und wie effektiv das Konzept in der Gesundheitskommunikation genutzt wird. Ein weiteres Ziel ist die Identifikation von Risiken und Chancen des Ansatzes. Dazu wurden zunächst die Grundlagen der Verhaltensökonomik erläutert. So werden zwei kognitive Systeme unterschieden: Das automatische bzw. intuitive System sowie das rationale bzw. reflexive System. Menschen nutzen häufig das automatische System, um aufgrund von Erfahrungen und Emotionen Entscheidungen zu treffen. Dieses System ermöglicht eine schnelle Reaktion, ist aber anfällig für kognitive Verzerrungen und Urteilsheuristiken. Während kognitive Verzerrungen systematische Abweichungen von rationalen Entscheidungen bezeichnen, werden unter Urteilsheuristiken Faustregeln verstanden, welche auf vereinfachten Denkvorgängen beruhen. Nudges werden hinsichtlich dieser Erkenntnisse eingesetzt, indem die Denkmuster gezielt angesprochen werden. Im Bereich der Gesundheitskommunikation spielt die psychologische Reaktanz eine Rolle. Diese bezieht sich auf die menschliche Eigenschaft, die eigene Freiheit und Autonomie zu verteidigen, sobald diese eingeschränkt scheint. Demnach können Gesundheitsbotschaften nicht den gewünschten Effekt erzielen, sobald Menschen sich genötigt oder bevormundet fühlen. Forschungen zur Akzeptanz und Effektivität von Nudge-Instrumenten zeigen, dass die Maßnahmen eine moderate Wirkung haben, von der Zielgruppe akzeptiert werden und somit Vorteile gegenüber anderen Ansätzen wie Verboten und Vorschriften aufweisen. Innerhalb einer qualitativen Inhaltsanalyse von vier Gesundheitskampagnen wurden unterschiedliche Kampagnenbestandteile auf den Einsatz von vorher festgelegten Instrumenten, welche auf der Literatur beruhen, analysiert. Alle Instrumente der Überkategorien Ansprache, Einfachheit sowie Incentivierung konnten identifiziert werden, deren Instrumente somit zu den meist genutzten zählen. Ungenutztes Potenzial lässt sich bei der Anwendung der Instrumente Kurzfristige Vorteile, Verbindlichkeit und Standardoption ausmachen. Ein Risiko bei der Verwendung von Nudges in der Praxis stellt die teilweise ungenaue Definition des Ansatzes in der Forschung und damit eine fehlerhafte Implementierung der Maßnahmen dar. Das Nudging kann bei unsachgemäßer Anwendung den Vorwurf der Manipulation nach sich ziehen oder den gewünschten Effekt verfehlen. Abschließend wurde eine Gesundheitskampagne mit dem Titel Lebensgefühl konzipiert, die sich mit dem Thema Diabetes Typ 2 auseinandersetzt. Anhand dieses praktischen Teils wird die Umsetzung von Nudging in der Gesundheitskommunikation veranschaulicht.
Ziel der vorliegenden Arbeit ist das netzdienliche Betreiben einer Wärmepumpe. Um diese Netzdienlichkeit zu erreichen, wird ein modellprädiktiver Regler entwickelt und implementiert, dessen Ziel es ist die Stromkosten einer Wärmepumpe zu senken. Dazu werden die Variablen Stromkosten und ein simulierter Heizbetrieb betrachtet.
Die Entwicklung eines modellprädiktiven Reglers setzt zunächst eine Modellierung der Komponenten des Heizsystems voraus. Ebenfalls muss eine Kostenfunktion formuliert werden, die es zu minimieren gilt. In einem Optimierungsproblem werden die Modelle als Randbedingungen und die Kostenfunktion als Zielfunktion der Optimierung formuliert. Dazu müssen gewisse Vereinfachungen getroffen werden, um das Optimierungsproblem zuverlässig und ohne enormen Rechenaufwand in einer Regelungsschleife lösen zu können.
Nun wird das Optimierungsproblem mit externen Modulen verknüpft, die eine Kommunikation mit der realen Wärmepumpen, Strompreisprognosen und Wettervorhersagen ermöglichen. Der dabei entwickelte Algorithmus wird auf einem Raspberry Pi Einplatinencomputer gespeichert und dort in einem regelmäßigen Zeitintervall von 15 Minuten ausgeführt, um den Betrieb der Wärmepumpe zu regeln.
Schließlich wird der modellprädiktive Regler in Betrieb genommen. Anschließend kann der modellprädiktive Betrieb mit dem konventionellen Betrieb verglichen werden. Aus dem Vergleich wird deutlich, dass eine modellprädiktive Regelung tatsächlich die Netzdienlichkeit einer Wärmepumpe verbessern kann. Andererseits werden auch die Entwicklungspotentiale identifiziert.
Möglichkeiten für die Verbesserung der Sicherheit von Endgeräten und Netzwerkstrukturen in der Cloud
(2021)
Meine Thesis soll sich mit dem Betrieb eines Unternehmens-Netzes mit Microsoft Tools mit und ohne Cloud beschäftigen. Dabei soll herausgearbeitet werden, in welchen Bereichen es Sinn ergibt, eine Cloudstrategie anzustreben und wo Unternehmen vielleicht empfohlen werden sollte, vorerst oder vielleicht auch langfristig bei der on-premise Variante zu bleiben.
Dafür werden Dinge wie rechtliche Aspekte, Datenschutz oder Kostenpunkte eher sekundär behandelt, da das Hauptaugenmerk auf der Sicherheit der Unternehmensdaten, Endgeräte und Server liegen soll.
Tatsächlich verfolgen bereits einige große Namen in Deutschland eine sogenannte "Cloud-first" Strategie, bei welcher versucht wird, alle möglichen Anwendungen in der Cloud unterzubringen. Auf Beweggründe und Motivation dieser Unternehmen wird kurz eingegangen.
Dann werden verschiedenste Bereiche behandelt, die im täglichen Unternehmensumfeld eine Rolle spielen, darunter fallen beispielsweise die Nutzung von Fileservern im Vergleich mit dem Cloud Ansatz OneDrive. Es soll die Frage beantwortet werden, ob eine vollständige Migration in die Cloud für verschiedene Bereiche Sinn ergibt, wie eben zum Beispiel den kompletten FileServer in die Cloud (im speziellen Fall OneDrive) umzuziehen.
Ein weiterer Unterpunkt ist die Nutzung eines Active Directorys bzw. von Domain Controllern in der Cloud über Azure AD. Hier wird insbesondere auch auf die Frage eingegangen, welche Unternehmen immer wieder beschäftigt, ob die, für die Konfiguration von Endgeräten sehr wichtigen, Group Policies in der Cloud erhalten bleiben bzw. ob und durch was sie ersetzt werden, oder ob und wie man sie migrieren kann.
Migration ist an dieser Stelle ein gutes Stichwort, denn ebenfalls soll aufgezeigt werden, wie herausfordernd die Migration verschiedenster on-premise Strukturen in die Cloud ist, und ob überhaupt bei allen Dingen eine Migration möglich ist. Interessant wird es hier möglicherweise bei legacy-Anwendungen.
Neben weiteren Themen wie dem sicherheitskritischen Allow-listing und verschiedenen Security-Ansätzen, denen mit einer Cloud-Strategie bessere Möglichkeiten gegeben werden kann, soll geklärt werden, welche Zusatzherausforderungen, aber auch Chancen die Cloud bieten kann und wird.
17
Zusammengefasst soll am Ende klarer sein, für was sich die Microsoft Cloud Anwendungen momentan schon gut eignen, wo man abwägen muss, und in welchen Aspekten die Cloud sich zunächst noch weiterentwickeln muss, bevor sie sinnvoll und verlässlich nutzbar ist. Außerdem soll aufgeführt werden, in welchen Bereichen man in den nächsten Jahren, und vielleicht auch schon jetzt, kaum noch an der Cloud vorbeikommt, wenn man eine bestimmte Funktionalität, sei es nun eine Anwendung, die die Sicherheit des Unternehmens erhöht, oder eine die die Produktivität steigern soll, nutzen möchte.
Die Thesis soll also eine Möglichkeit für Unternehmen bieten, sich unabhängig über Cloudangebote, hier meist am Beispiel der Microsoft Cloud Services, zu informierten. Und außerdem einzuschätzen, wie komplex und realisierbar verschiedene Dinge sind.
Ziel dieser Arbeit ist die Modellierung und Nutzung eines digitalen Zwillings am Beispiel eines realen Tiny-Houses. Dazu werden für die Komponenten der technischen Gebäudeausrüstung Wärmepumpe, thermische Speicher, thermoaktives Bauteilsystem, PVT-Kollektoren und Batterie als Grey-Box-Modelle modelliert und in der Python-Umgebung umgesetzt. In dieser Arbeit wird auf die physikalischen Hintergründe und mathematischen Formulierungen für jede Komponente eingegangen.
In einem automatisierten Programm werden die digitalen Komponenten mit Messwerten aus dem realen Anlagenbetrieb verknüpft. Dieses Skript wird zu Fehlererkennung verwendet. Dabei konnte ein fehlerhafter Betrieb der PVT-Kollektoren bewiesen werden.
Die Verknüpfung der einzelnen Komponenten zum digitalen Zwilling wird zur Betriebsoptimierung verwendet. Hierzu wird die Simulation des Ausgangszustands mit verschiedenen Optimierungsstrategien verglichen. Dabei konnte der Anlagenbetrieb hinsichtlich Komfortbedingungen und Energieeffizienz deutlich optimiert werden. Die finale Optimierungsstrategie basiert auf einereinfachen Wettervorhersage.
Mit der Modellierung und Nutzung eines digitalen Zwillings trägt diese Arbeit dazu bei, innovative Lösungen für die zukünftige Entwicklung und Gestaltung von Gebäuden sowie die Optimierung bereits bestehender Gebäude mithilfe digitaler Zwillinge voranzutreiben.
Gegenstand der hier vorgestellten Master-Thesis stellt das sogenannte Mobile Location Based Couponing, eine Erweiterung des Mobile Marketing dar. Dabei handelt es sich um ein ortsbasiertes Kommunikationsinstrument, welches Konsumenten, abhängig von ihrer aktuellen Position, Sonderangebote über das mobile Endgerät zur Verfügung stellt. Für lokale Unternehmen eröffnen sich somit neue Geschäftsmöglichkeiten. Im Verlauf der Arbeit soll das Potenzial des Mobile Location Based Couponing hinsichtlich des deutschen Marktes mit Hilfe diverser Studien analysiert werden. Darüber hinaus sollen für ein besseres Verständnis Anwendungsmöglichkeiten am Beispiel des Dienstes „Facebook Check-In Deals“ dargestellt werden.
Der Vertrieb von Produkten über mobile Endgeräte wird für Verlage und Unternehmen immer wichtiger. Für die Erstellung von Medien für unterschiedliche Ausgabekanäle werden technische Produktionssysteme benötigt. Welche und wie viele solcher Systeme existieren und ob diese für das Multichannel-Publishing für Verlage und Unternehmen geeignet sind, wird in dieser Thesis ermittelt. Auch die censhare bietet eine Multichannel-Publishing-Plattform an, die die Erstellung mobiler Anwendungen mit zentral verwalteten Media-Assets ermöglicht. In der Masterthesis wird untersucht, wie eine optimale mobile Anwendung und Produktionsumgebung für Verlage und Unternehmen aufgebaut sein soll. Dabei werden verschiedene Punkte wie die Funktionen und Nutzen der Apps und Werkzeuge, Rollen und Fähigkeiten der Publishing-Software mit einbezogen. In einer Marktanalyse werden verschiedene bereits existierende mobile Anwendungen von Verlagen und Unternehmen und bestehende Produktionssysteme betrachtet. Unter Berücksichtigung der unterschiedlichen mobilen Plattformen werden unter anderem folgende Kriterien analysiert: Funktionen und Nutzen der Apps, Verfügbarkeit auf mobilen Endgeräten, Bezahl- und Geschäftsmodelle, Bewertung und Nutzung der Apps durch die Anwender und Produktionszyklus. Des Weiteren werden die verschiedenen technischen Ansätze zur Erstellung und Veröffentlichung einer App untersucht. Die aus der Marktanalyse gewonnenen Erkenntnisse dienen als Grundlage zur Erstellung einer hybriden App für das mobile Betriebssystem Android. Bei dieser Mischform aus nativer und Webapp dient die Viewer-App als Rahmen für die Inhalte. Die Viewer-App wird in der Programmiersprache Java und mit Hilfe von Webtechnologien (HTML5, CSS und JavaScript) im Hinblick auf die Verwendung im censhare-System prototypisch realisiert.
Bei dem deutsch-französischen Kulturkanal ARTE ist die Corporate Social Responsibility (CSR, dt. gesellschaftliche Verantwortung von Unternehmen) ein wichtiger Aspekt ihrer Unternehmensstrategie. Soziale und ökologische Belange sollen in den Unternehmensstrukturen und -tätigkeiten sowie in der Herstellung ihres Programms verbessert werden. Diese CSR-Strategie verfolgt ARTE in einem inkrementellen Prozess, welcher in dieser Arbeit einem organisatorischen Wandel 1. Ordnung (evolutionär, gradual change) zugeordnet wird. Von den Maßnahmen und Veränderungen, welche in der CSR bei ARTE verfolgt werden, sind auch die ARTE-Mitarbeitenden betroffen. Ein organisatorischer Wandel bedeutet nicht nur eine Veränderung auf der Sachebene, er wirkt sich auch auf die psychologische Ebene der betroffenen Mitarbeitenden aus und verlangt Veränderungen in ihren Gewohnheiten. Daher setzen Unternehmen zunehmend auf die Veränderungsbegleitung (Change Management), welche darauf abzielt, eine Veränderung aktiv zu steuern und zu beeinflussen. Eine spezifische Form des Change Managements, die Organisationsentwicklung, hat zum Ziel, bei der Veränderung die Betroffenen zu Beteiligten zu machen. Ein zentraler Aspekt der Organisationsentwicklung bildet daher die Mitarbeitendenbeteiligung (oder Partizipation).
Die vorliegende Arbeit beschäftigt sich mit der Frage, wie die Mitarbeitendenbeteiligung im CSR-Wandel von ARTE erfolgreich eingesetzt werden kann. Im Rahmen eines Praktikums im CSR-Bereich bei ARTE, konnte der Autor durch Beobachtungen, Mitarbeit und Dokumentenanalysen diesen Fragen nachgehen und die Ergebnisse durch fünf qualitative Expert:inneninterviews mit Personen aus dem Top-Management, dem CSR-Bereich und der Herstellungsleitung bei ARTE ergänzen und bekräftigen. Es zeigt sich, dass verschiedene Voraussetzungen erfüllt werden müssen, um eine Partizipation zielführend einsetzen zu können. Zudem kann die Mitarbeitendenbeteiligung in Form von Lösungserarbeitung und/oder in Form der Kommunikation eingesetzt werden. Die Mitarbeitendenbeteiligung wurde bei ARTE im CSR-Bereich bereits punktuell angewendet und es gibt Bestrebungen, künftig in der CSR noch stärker einen partizipativen Ansatz zu verfolgen. Für künftige Anwendungen der Mitarbeitendenbeteiligung im CSR-Wandel bei ARTE werden eine Reihe an Empfehlungen aufgestellt.
As information technology continues to advance at a rapid speed around the world, new difficulties emerge. The growing number of organizational vulnerabilities is among the most important issues. Finding and mitigating vulnerabilities is critical in order to protect an organization’s environment from multiple attack vectors.
The study investigates and comprehends the complete vulnerability management process from the standpoint of the security officer job role, as well as potential improvements. Few strategies are used to achieve efficient mitigation and the de- velopment of a process for tracking and mitigating vulnerabilities. As a result, a qualitative study is conducted in which the objective is to create a proposed vulner- ability and risk management process, as well as to develop a system for analyzing and tracking vulnerabilities and presenting the vulnerabilities in a graphical dash- board format. This thesis’s data was gathered through an organized literature study as well as through the use of various web resources. We explored numerous ap- proaches to analyze the data, such as categorizing the vulnerabilities every 30, 60, and 90 days to see whether the vulnerabilities were reoccurring or new. According to our findings, tracking vulnerabilities can be advantageous for a security officer.
We come to the conclusion that if an organization has a proper vulnerability tracking system and vulnerability management process, it can aid security officers in having a better understanding of and making plans for reducing vulnerabilities. In terms of system patching and vulnerability remediation, it will also assist the security officer in identifying areas of weakness in the process. As a result, the suggested ways provide an alternate approach to managing and tracking vulnerabilities in an effective manner, although there is still a small area that needs additional analysis and research to make it even better.
Das Verstehen und Extrahieren von Informationen aus Dokumenten stellt eine Herausforderung dar, welche den Einsatz weiterer Technologien bedarf. Vorliegende
Masterarbeit untersucht die Anwendbarkeit von Methoden des maschinellen Lernens im Bereich der Wissensextraktion auf Basis von Angebotsdokumenten. Hierbei gilt die Frage zu klären, inwiefern sich diese Dokumente eignen, um Strukturen
für die Modellierung mit einem Produktkonfigurator zu lernen. Kern der Arbeit stellen die Datenaufbereitung von PDF-Dokumenten sowie das Modeling multimodal
lernender Algorithmen dar. Abgesehen von Texten werden zusätzlich Layoutinformationen für das Lernen der Strukturen genutzt. Zudem werden die Ergebnisse der
erstellten Modelle evaluiert und die Güte in Anbetracht des vorliegenden Problems
bewertet.
Mit der prototypischen Implementierung einer automatisierten Dokumentengenerierung wird demonstriert, wie das extrahierte Wissen in der Software CAS Configurator Merlin genutzt werden kann.
Much of the research in the field of audio-based machine learning has focused on recreating human speech via feature extraction and imitation, known as deepfakes. The current state of affairs has prompted a look into other areas, such as the recognition of recording devices, and potentially speakers, by only analysing sound files. Segregation and feature extraction are at the core of this approach.
This research focuses on determining whether a recorded sound can reveal the recording device with which it was captured. Each specific microphone manufacturer and model, among other characteristics and imperfections, can have subtle but compounding effects on the results, whether it be differences in noise, or the recording tempo and sensitivity of the microphone while recording. By studying these slight perturbations, it was found to be possible to distinguish between microphones based on the sounds they recorded.
After the recording, pre-processing, and feature extraction phases we completed, the prepared data was fed into several different machine learning algorithms, with results ranging from 70% to 100% accuracy, showing Multi-Layer Perceptron and Logistic Regression to be the most effective for this type of task.
This was further extended to be able to tell the difference between two microphones of the same make and model. Achieving the identification of identical models of a microphone suggests that the small deviations in their manufacturing process are enough of a factor to uniquely distinguish them and potentially target individuals using them. This however does not take into account any form of compression applied to the sound files, as that may alter or degrade some or most of the distinguishing features that are necessary for this experiment.
Building on top of prior research in the area, such as by Das et al. in in which different acoustic features were explored and assessed on their ability to be used to uniquely fingerprint smartphones, more concrete results along with the methodology by which they were achieved are published in this project’s publicly accessible code repository.
Linux and Linux-based operating systems have been gaining more popularity among the general users and among developers. Many big enterprises and large companies are using Linux for servers that host their websites, some even require their developers to have knowledge about Linux OS. Even in embedded systems one can find many Linux-based OS that run them. With its increasing popularity, one can deduce the need to secure such a system that many personnel rely on, be it to protect the data that it stores or to protect the integrity of the system itself, or even to protect the availability of the services it offers. Many researchers and Linux enthusiasts have been coming up with various ways to secure Linux OS, however new vulnerabilities and new bugs are always found, by malicious attackers, with every update or change, which calls for the need of more ways to secure these systems.
This Thesis explores the possibility and feasibility of another way to secure Linux OS, specifically securing the terminal of such OS, by altering the commands of the terminal, getting in the way of attackers that have gained terminal access and delaying, giving more time for the response teams and for forensics to stop the attack, minimize the damage, restore operations, and to identify collect and store evidence of the cyber-attack. This research will discuss the advantages and disadvantages of various security measures and compare and contrast with the method suggested in this research.
This research is significant because it paints a better picture of what the state of the art of Linux and Linux-based operating systems security looks like, and it addresses the concerns of security enthusiasts, while exploring new uncharted area of security that have been looked at as a not so significant part of protecting the OSes out of concern of the various limitations and problems it entails. This research will address these concerns while exploring few ways to solve them, as well as addressing the ideal areas and situations in which the proposed method can be used, and when would such method be more of a burden than help if used.
Leadgenerierung durch Marketing Automation im Vorfeld einer Messe am Beispiel der Firma SensoPart
(2023)
This master’s thesis presents a comprehensive report on a research project carried out in collaboration with SensoPart, a prominent manufacturer of sensors for industrial automation processes. The study focuses on the strategic planning, execution and analysis of a targeted lead generation campaign to support SensoParts participation in a major automation themed trade show. The decision-making process and different approaches used throughout the project are explained in a well-founded way, allowing the reader to understand the underlying thoughts and strategies. In addition, the elements of the campaign, including visuals such as images, graphs and key statistics, are presented to enhance understanding.
Das Team "magmaOffenburg" nimmt seit 2009 an der 3D-Simulationsliga des RoboCups teil. Wie gut das Laufen auf zwei Beinen in der verwendeten Simulationsumgebung "SimSpark" funktioniert ist einer der zentralen Faktoren für ein erfolgreiches Abschneiden. Bisher wird für das Laufen ausschließlich eine inverskinematische Walk-Engine verwendet.
In dieser Arbeit wird mit genetischen Algorithmen und einer modellfreien Parametrisierung Laufen komplett "from scratch" gelernt. Derselbe Ansatz wurde zuvor bereits erfolgreich für das Lernen von Kicks eingesetzt. Gegenüber der alten Walk-Engine zeichnet diesen Ansatz besonders aus, dass zum ersten Mal die Zehengelenke genutzt werden, welche eines der verfügbaren Robotermodelle besitzt. Dies ermöglicht einen natürlicheren und schnelleren Gang. Zwar ist die Stabilität des gelernten Laufens noch nicht vergleichbar mit dem bisherigen (der Spieler fällt etwa 26% häufiger hin), aber beispielsweise beim Vorwärtslaufen konnten mit einer Geschwindigkeit von 1.3 m/s statt 1 m/s Steigerungen von 30% erzielt werden.
Darüber hinaus wurde untersucht, wie dem Agenten im Anschluss an das gelernte Laufen wieder ein Übergang zur alten Walk-Engine gelingen kann. Der erfolgreichste Ansatz basiert ebenfalls wieder auf einer mit genetischen Algorithmen trainierten Bewegung. Er ist in etwa der Hälfte der Fälle erfolgreich.
Die Wertschöpfung vorherrschender Datenmengen scheitert, obgleich diese als der Treibstoff der Zukunft gelten, oftmals an den grundlegendsten Dingen. Das Digitalisierungs- und auch Verlagerungsverhalten werden für das Content Management (CM) zunehmend zu einem herausfordernden Fallstrick.
Die Unternehmen sind mit Fragestellungen traktiert, die sich darauf referenzieren, EchtzeitStröme unstrukturierter Daten aus heterogenen Quellen zu analysieren und zu speichern.
Trotz aller Bemühungen, die unaufhaltsam wachsende Menge an Daten- beziehungsweise Content im Rahmen eines effizienten Managements künftig manuell in den Griff zu bekommen, scheint es, als ob die Unternehmen an der kaum zu bewerkstelligenden Herausforderung scheitern werden.
Die vorliegende Arbeit untersucht, inwieweit es einer innovativen Technologie, wie der Künstlichen Intelligenz (KI) gelingen kann, das Content Management nachhaltig zu revolutionieren und damit den Content in seinem Umfang so zu organisieren und zu nutzen, um den Unternehmen eine Perspektive zu bieten, die steigende Welle an Big Data zu bewältigen.
Somit bewegt sich diese Arbeit auf dem Forschungsfeld der KI, als Teilgebiet der Informatik, die enorme Chancen und gleichzeitig Herausforderungen für die Wissenschaft und die Innovationsfähigkeit der Unternehmen mit sich bringt.
Im Rahmen qualitativer Expert*inneninterviews als Lösungsansatz wurde untersucht, inwiefern es KI-gestützten Systemen gelingen kann, Wissensmitarbeiter*innen entlang des Content Life Cycles zu unterstützen und den Nutzer*innen bezüglich der Ausspielung der Inhalte eine optimale Customer Experience zu bieten.
Die fehlende Nachvollziehbarkeit und das Missverständnis des KI-Begriffes sowie die Kluft zwischen der öffentlichen Debatte und der Realität der KI erweisen sich hierbei als die wohl größten Innovationsbremsen des KI-Einsatzes in der Content Management Umgebung.
Die Ergebnisse der Arbeit tragen im Wesentlichen dazu bei, das Verständnis für die KI zu schärfen und gleichzeitig das aufkommende Dilemma des Vertrauensdefizites der Mensch-Maschine-Kommunikation zu entschärfen.
Außerdem wird ein Grundverständnis dafür geschaffen, die KI als geeignetes Tool im Content Management zu erkennen.
Darüber hinaus wird demonstriert, dass sich durch den Einsatz der KI im Content Management ebenfalls immense Vorteile für die Ausspielung user*innenspezifierten Contents ergeben, die im folgenden Verlauf genauer aufgeführt werden.
Kooperativer Unterricht im Kontext des Lernfeldkonzepts an beruflichen Schulen - Chancen und Grenzen
(2021)
Obwohl Lehrkräfte die Kooperation heutzutage als wichtig ansehen und diese durch das Lernfeldkonzept an Berufsschulen impliziert wird, ist es in der praktischen Umsetzung nach Aussagen der Lehrkräfte immer noch eine Ausnahme, mit Kollegen direkt zusammenzuarbeiten. An diesem Punkt setzt die Fragestellung dieser Arbeit an, in welcher geklärt werden soll, welche hemmenden Faktoren bei Lehrkräften an beruflichen Schulen im Rahmen von kooperativer Zusammenarbeit innerhalb des Kollegiums bestehen.
Diese Arbeit befasst sich mit der Redigitalisierung von ausgedruckten Architektur-zeichnungen mit möglichst einfachen Mitteln. So sollen Fotos von herkömmlichen Smartphones die Grundlage für die Extraktion von Maßstab und Raumgeometrien sein.
Der erste der drei Schritte, die das Foto dabei durchläuft, ist die Beseitigung von perspektivischen Verzerrungen (Rektifizierung). Die hierfür benötigten Punkte werden durch ein, in dieser Arbeit trainiertes, Convolutional Neural Network (CNN) detektiert. Die so ermittelten Positionen stellen im zweiten Schritt, der Ermittlung eines Maßstabes, die Grundlage für das Auslesen der Maßzahlen mittels optical character recognition (OCR) dar. Da Räume nicht als solche in Bauzeichnungen eingezeichnet sind, werden im letzten Schritt, zuerst Wände, Türen und Fenster, durch mehrere mathematische Faltungen (convolutions) lokalisiert und innerhalb dieser Elemente, mittels wachsender Regionen, nach Räumen und Fluren gesucht.
Nach dem ein Foto diese Schritte durchlaufen hat, werden die ermittelten Geometrien sowie der Maßstab in einer Liste abgespeichert und im rektifizierten Bild, zusammen mit den berechneten Flächeninhalten, visualisiert. So kann ein Anwender schnell und einfach den Erfolg des Programmoutputs beurteilen.
Eine Versuchsreihe mit einigen Fotos ergab, dass ein Schattenwurf auf dem Papierplan bei Aufnahme des Lichtbildes zu vermeiden ist, da dieser sowohl bei der Auswertung durch das CNN, als auch innerhalb des OCR-Vorgangs zu Problemen führt, die in einigen Fällen eine Rektifizierung oder Maßstabsermittlung verhinderten.
Bei den übrigen fünf Fotos wurden durchschnittlich 31,8 von 32 Räumen detektiert, dabei wurde zwischen zwei und zwölf mal fälschlicherweise die Fensterbank als Fußboden detektiert. Die Standardabweichung der Flächeninhalte aller Räume betrug dabei 0,66 m², werden nur die Räume betrachtet, bei denen die Fensterbank korrekt erkannt wurde, beträgt die Standardabweichung lediglich 0,25 m².
Insgesamt werden die in dieser Arbeit erzielten Ergebnisse als „gut“ eingestuft, es bleiben jedoch auch einige Optimierungsmöglichkeiten an verschiedenen Stellen, besonders bei der Suche nach Räumen, bestehen.
Durch immer erschwinglichere Technik wird der Eintritt in die Videobranche zunehmend einfacher. Gleichzeitig gibt es immer mehr Personen, die am Markt aktiv werden und ihre Leistungen für Kunden anbieten. Was braucht das eigene Unternehmen, um im Bereich der Musikvideoproduktion, speziell innerhalb der Metalszene, erfolgreich zu sein, und welche Kanäle müssen genutzt werden, um Kunden innerhalb dieser Szene zu erreichen? Diese Fragen sollen eingangs durch Experteninterviews mit relevanten Personen innerhalb der Szene beantwortet werden. Anschließend liegt der Fokus der Arbeit darauf, mittels der gewonnenen Erkenntnisse, Literatur und eigenen Erfahrungen einen entsprechenden Unternehmensauftritt grafisch und inhaltlich zu konzipieren und umzusetzen. Dabei beginnt der Prozess bei der Namensfindung und führt über Logodesign, Farb- und Schriftwahl bis hin zur Erstellung der konzipierten Kanäle und Materialien, um die visuellen Arbeiten des Unternehmens bestmöglich zu präsentieren. Neben einer Webseite werden Social-Media-Kanäle, Printprodukte und ein Styleguide erstellt. Die gewonnenen Erkenntnisse und Rückschlüsse werden schließlich bei einer Musikvideoproduktion in der Praxis angewendet und anschließend reflektiert.
Die vorliegende Arbeit beschäftigt sich mit ausgewählten Aspekten der Konzeption, Umsetzung und Implementierung eines E-Learning-Lernangebots für die NGO CartONG. Das E-Learning-Angebot soll abschließend vier Themen beinhalten, die sich unter dem Begriff REDD+ zusammenfassen lassen. „Forest Inventory“ ist eines der vier Themen und wurde von mir bearbeitet. Für die Aufbereitung und Umsetzung der anderen drei Themen erstellte ich Anleitungen und Richtlinien. Die anderen drei Themen werden auf Grundlage dieser Anleitungen in ähnlicher Weise von CartONG-Mitarbeitern aufbereitet. Die Grundlage dieser Arbeit bilden die Lerntheorien sowie die Auswertung des Fragebogens für die potentiellen zukünftigen Lerner, durch die ich meine Konzeption und Umsetzung begründe. Diese beiden Grundlagen behandle ich in den ersten zwei Kapiteln. Darauf folgt die Beschreibung der Entwicklung des Corporate Designs für das gesamte Lernangebot. Es bildet neben der zuvor genannten didaktischen Grundlage nun die visuelle Grundlage für die Konzeption der Inhalte, die sich diesem Kapitel anschließt. Der Konzeption folgt die Aufbereitung der Inhalte. Das abschließende Kapitel beschreibt die anschließende Umsetzung des Lernangebots auf der Lernplattform Moodle.
In dieser Arbeit soll untersucht werden, wie lernförderlich eine Digital Storytelling Website im Unterrichtskontext für Schülerinnen und Schüler sein kann.
Hierfür wird das Thema Bioenergiedorf verwendet, wobei die Funktionsweise anhand des real existierenden Bioenergiedorfs Untermaßholderbach mittels der zu erstellenden Digital Storytelling Website anschaulich erklärt werden soll.
Ziel der hierzu zugehörigen Ausführungen ist es, die Konzeption sowie die Umsetzung dieser Thematik innerhalb einer Digital Storytelling Website, unter Berücksichtigung entsprechender Anforderungen und Aspekte für den Unterrichtskontext, nachvollziehbar darzulegen. Hierbei sollen besonders die Gedanken zu den verschiedenen mediendidaktischen und kognitionspsychologischen Modellen hervorgehoben werden, welche der entwickelten Website zugrunde liegen.
Ziel dieser Masterthesis ist die Konzeption und die Implementierung einer fortschrittlichen Social Business Plattform in einem IT-Dienstleistungsunternehmen unter Verwendung von MS SharePoint Server 2010. Im Vordergrund stehen dabei die Analyse aktueller und zukünftiger Anwendungsszenarien und Lösungen von Enterprise 2.0 Systemen. Desweiteren sollen Methoden zur Adaption der spezifischen Anforderungen des Unternehmens mittels SharePoint entwickelt werden. Eventuell auftretende Probleme sollen frühzeitig ausgelotet und die vielfältigen technischen Fähigkeiten von MS Share Point Server 2010 aufgezeigt werden. Langfristig gesehen sollen die im Rahmen dieser Arbeit gesammelten Ergebnisse Awareness und Know-How für SharePoint und Enterprise 2.0 im Unternehmen schaffen. Gegebenenfalls könnten sie die Basis für eine Umstrukturierung der vorhandenen Systemlandschaft bilden.
Der Bedarf an fortschrittlichen Bildungstechnologien wächst: Learning Experience Plattformen (LXP) erlangen angesichts der rasanten technologischen Entwicklungen und der daraus resultierenden Veränderungen des Lernverhaltens immer größere Relevanz. Diese Masterarbeit befasst sich mit der Konzeption und Konfiguration eines User-Interfaces für eine Learning Experience Plattform, speziell für die Moodle-Plattform der Hochschule Offenburg. Rahmengebend ist das KompiLe-Projekt, das durch das Bund-Länder- Programm Künstliche Intelligenz in der Hochschulbildung gefördert wird.
Als zentrales Ergebnis wurde ein spezifisches User-Interface für eine Learning Experience Plattform entworfen. Hierbei lag der Fokus insbesondere auf den Bereichen Dashboard, Meine Kurse und einen exemplarischen Kurs, die die wesentlichen Eigenschaften einer LXP repräsentieren sollten.
In einer Umfrage äußerten 55 Studierende und Lehrende ihre Vorstellungen und Präferenzen hinsichtlich der Elemente für das User-Interface. Unter Berücksichtigung dieser Erkenntnisse, kombiniert mit vorherigen Recherchen und einem Prototyp, wurde die finale Konfiguration entwickelt.
Im Vergleich zum vorherigen Design, das lediglich eine Zeitleiste zeigte, bietet das aktualisierte Dashboard erweiterte Möglichkeiten: Eine integrierte Kursübersicht ermöglicht es den Lernenden, direkt vom Dashboard aus auf Kurse zuzugreifen. Nutzer*innen haben die Möglichkeit, in der Kursübersicht zu filtern und durch die Auswahl von Favoriten ihre bevorzugten Kurse zu markieren. In einer Umfrage befürworteten fast 90% diese Funktion. Es wurde ein Interessen-Tag auf dem Dashboard hinzugefügt, der später zu dem Profil verlinken soll. Das Dashboard und die Kursseite wurden durch die Einführung einer linken Spalte aufgewertet, was zu einer erhöhten Symmetrie führte. Zudem wurden auf der Kursseite die ersten personalisierten Elemente wie Top bewertete Aktivitäten und Am häufigsten abgeschlossene Objekte hinzugefügt. Gamification- Elemente erfreuten sich großer Beliebtheit mit einer Zustimmung von 80%. Das Einbinden eines neuen modernen Gamification-Elements in Moodle erschien im Vergleich zu bereits verwendeten Elementen recht aufwändig und deshalb wurde sich zunächst dagegen entschieden. Im Kontext des sozialen Austauschs und der Interaktion war es auffällig, dass die Mehrheit der Studierenden es vorzog, ihre Online-Präsenz zu verbergen und das Moodle-Forum gegenüber anderen Interaktionsmöglichkeiten bevorzugte. Weniger signifikante Veränderungen fanden im Bereich Meine Kurse statt.
Spätestens mit der Markteinführung des iPhones im Jahr 2007 und mit der Einführung des Android Betriebssystems im Jahr darauf ist die Bedeutung der mobilen Endgeräte und deren Diversität auf dem Softwaremarkt nicht mehr zu leugnen. Bis heute ist das Marktwachstum bei den mobilen Endgeräten ungebrochen. Im Jahr 2012 wurden alleine in Deutschland 23 Millionen neue Smartphones verkauft. Somit nutzt inzwischen etwa jeder vierte Bundesbürger mobile Software. Dies ist ein hundertprozentiges Wachstum im Vergleich zum Jahr 2010. Mit der Einführung des ersten iPads (2010) und vieler ähnlicher Produkte, die meist mit dem Android Betriebssystem betrieben werden, haben sich die Möglichkeiten und Anforderungen für Softwareentwickler erneut erheblich verändert und erweitert. Aufgrund der größeren Displays und immer besserer Rechenleistungen können nun Programme mit komplexen Interfaces, wie sie zuvor nur von Desktoprechnern bekannt waren, auch auf dem mobilen Softwaremarkt Fuß fassen. Bei der Entwicklung einer neuen Anwendung stellt sich immer auch die Frage, auf welchen Endgeräten sie später ausgeführt werden soll. Grundsätzlich gibt es derzeit drei Möglichkeiten Anwendungen für die neuen und mobilen Endgeräte zu entwickeln: des entsprechenden Systems erstellt und verwendet dessen spezielle Schnittstellen. Eine solche App muss folglich für jedes Zielsystem separat entwickelt werden. Um eine plattformübergreifende Anwendung zu entwickeln bietet sich derzeit die Möglichkeit, sogenannte Web-Apps zu implementieren. Hier dient der gemeinsam genutzte WebKit-Webbrowser der verschiedenen Systeme als technische Grundlage. Hierbei können die Anwendungen mit Webtechnologien wie HTML5, CSS3 und JavaScript entwickelt werden. Mit JavaScript Frameworks wie jQuery mobile oder Sencha Touch ist es möglich,Webanwendungen zu erstellen, die vom Bedienkonzept und ihrer Anmutung kaum von nativen Apps zu unterscheiden sind. Die Entwicklung sogenannter hybrider Apps vereint die Möglichkeiten der nativen und der webbasierten Apps. Eine Web-App kann dann mit Hilfe eines Frameworks wie z.B. Titanium oder PhoneGap verpackt werden und wird so zu einer hybriden App, die beispielsweise über die Appstores der Hersteller vertrieben werden kann. In dieser Arbeit beschäftige ich mich insbesondere mit den Möglichkeiten der hybriden App-Entwicklung am Beispiel einer Präsentationsanwendung, die ich im Rahmen dieser Arbeit für die visionsbox GmbH aus Offenburg konzipiert und umgesetzt habe. Eine ähnliche Anwendung auf Basis von Adobe Flash wird bereits seit einiger Zeit von der visionsbox GmbH vertrieben. Meine Aufgabe war es, diese Anwendung auf Basis von Webtechnologien so nachzubilden, dass sie in Zukunft auf möglichst vielen Software-Plattformen lauffähig ist.
Die vorliegende Arbeit beschäftigt sich am Beispiel der Vorlesung Risikomanagement mit der Konzepterstellung eines Blended Learning Szenarios. Die Vorlesung wird im Studiengang Unternehmens- und IT-Sicherheit der Hochschule Offenburg angeboten. Ziel ist es, das Konzept einer Probeveranstaltung zu erstellen, diese Veranstaltung durchzuführen und anschließend zu evaluieren. Die Ergebnisse und Learnings, welche aus der Veranstaltung
gezogen werden können, werden anschließend verwendet, um Handlungsempfehlungen für die Umsetzung eines Blended Learning Szenarios abzuleiten. Eine Umsetzung kann
nach einer inhaltlichen Konzeption, also erst nach Abschluss dieser Arbeit erfolgen. Das entwickelte Lernszenario baut auf den an der Hochschule Offenburg eingesetzten und lizenzierten Werkzeugen auf, dem LMS Moodle und der Virtual Classroom Software Adobe
Connect. Zusätzlich wurden weitere Werkzeuge recherchiert, diese sollen den Dozierenden die Erstellung von Lernmedien erleichtern, beispielhaft werden sie in den erstellten Lernlektionen eingesetzt. Vor der Konzepterstellung werden zunächst die Begriffe des E-Learning und Blended
Learning definiert. Das Konzept des Selbststudiums in der Hochschullehre wird anschließend anhand der Veröffentlichung „Begleitetes Selbststudium“ von Landwehr
und Müller beschrieben. Schließlich werden die Rahmenbedingungen der Lern-, Gedächtnis- und Motivationspsychologischen Grundlagen zur Entwicklung eines Blended Learning Szenarios definiert. Aufbauend auf diesen Grundlagen wird die Probeveranstaltung im Rahmen der Veranstaltung geplant und durchgeführt. Die Dokumentation der einzelnen Planungsschritte wird ausführlich dargestellt. Es wurden zwei unterschiedliche Veranstaltungsteile geplant, eine ca. 45-minütige Selbststudieneinheit, welche mit Online-Lernmaterialien umgesetzt wird sowie eine Präsenzveranstaltung.
Diese wurde mit Adobe Connect, ebenfalls online, durchgeführt. Die erste Veranstaltung soll den Studierenden zur selbstständigen Erarbeitung von Vorlesungsinhalten dienen und verschiedene Lernmedien präsentieren. Der zweite Veranstaltungsteil dient der Vorstellung von Adobe Connect. Aus der Reflexion der Veranstaltungen wurde ein Leitfaden abgeleitet, welcher einige zu beachtende Handlungsempfehlungen zusammenfasst, um ein Blended Learning Szenario erfolgreich umzusetzen.
Durch die Umstrukturierung in der Automobilindustrie hinsichtlich Elektromobilität steigen die technischen und wirtschaftlichen Anforderungen an die Zulieferunternehmen von Automobilherstellern. Um im Wettbewerb konkurrenzfähig zu sein, müssen die jeweiligen Prozesse stetig geprüft und optimiert werden. Anhand dieser Masterarbeit wird daher die Produktion von Komfortaktuatoren bezüglich Wirtschaftlichkeit sowie Kapazitätserweiterung analysiert und demnach ein Konzept zur Fertigungsoptimierung entwickelt.
Für diese Konzeptentwicklung wird zunächst die bestehende Produktion der Komfortaktuatoren anhand der Prozesskette bezüglich des Automatisierungsgrades erforscht. Eine Taktzeitanalyse der Endmontage weist den Engpass am manuellen Handarbeitsplatz auf, an dem die Bestückung des Transferträgers stattfindet. Die Betrachtung des Produktionsvolumens zeigt die Verdopplung der Stückzahlen ab 2024 bei den Aktuatoren mit Getriebelage rechts. Um diese Produktionsstückzahlen zu fertigen und den Engpass auszugleichen, ist eine Automatisierung der bestehenden Endmontage erforderlich. Die wirtschaftliche Investition in die Automatisierung bedeutet eine erhöhte Amortisationszeit, die sich je nach Stückzahlen zwischen acht und 15 Jahre befindet.
Eine geringere Kapitalrückflussdauer kann mit der Erweiterung der Fertigungslinie mit einem höheren Automatisierungsgrad sowie einer geringeren Taktzeit erreicht werden. Der benötigte Platzbedarf für diese Erweiterung der Fertigungslinie wird auf ungefähr 5,7 m abgeschätzt. Mit einer kompakten Anordnung der Fertigungsstationen kann dieser Einbau erfolgen. Für die Entwicklung des Transfersystems wird eine Anforderungsliste erstellt und anhand dieser ein Transfer-Konzept innerhalb der Fertigungslinie entwickelt. Aufgrund der Kostenschätzung und des Platzbedarfs erzielt das Konzept mit einem Transferträger die höhere Wertigkeit. Mit dem in dieser Masterarbeit erarbeiteten planerischen Konzept zur Fertigungsoptimierung wird eine Einsparung der Vorgabezeit von 11,3 min im Vergleich zum aktuellen Stand erzielt. Die Kosten der Neubau-Stationen und die anfallenden Umbaumaßnahmen werden auf etwa 950.000 € geschätzt. Der zeitliche Beginn dieser Erweiterungsmaßnahmen ist auf Anfang 2023 terminiert.
Gesetzliche Auflagen, Kundenanforderungen sowie das Risiko von finanziellen Folgen und Imageschäden durch Rückrufaktionen zwingen die Automobilhersteller und ihre Lieferanten eine lückenlose Rückverfolgbarkeit der Produkte zu gewährleisten.
Darüber hinaus ist es nicht möglich, die Qualität von Klebverbindungen zu überprüfen, ohne dabei die Bauteile zu zerstören. Daher ist es bei Klebverbindungen mit hohen Sicherheitsanforderungen umso wichtiger, eine lückenlose Nachweisführung und Rückverfolgbarkeit zu gewährleisten. Ziel dieser Masterthesis ist es, ein Konzept zu erstellen, welches die Rückverfolgbarkeit von Klebverbindungen mit hohen Sicherheitsanforderungen sicherstellt. Dieses Konzept berücksichtigt die Norm DIN 2304-1, in welcher Qualitätsanforderungen an Klebprozesse definiert sind.
Die Ausarbeitung des Rückverfolgbarkeitskonzepts basiert neben den Anforderungen der DIN 2304-1 auf den gesetzlichen Vorgaben und den Kundenanforderungen. Darüber hinaus werden zunächst die Methodik und die technischen Lösungen des Unternehmens dargestellt.
Das im Rahmen dieser Masterthesis entwickelte Konzept beinhaltet sowohl eine Beschreibung zur technischen Umsetzung der Anforderungen als auch die Definition der für die Nachweisführung relevanten Daten.
Mit der Corona-Krise ist die digitale Bildung sehr stark in den Vordergrund gerückt. damit einhergehend wurde verstärkt E-Learning eingesetzt. Meistens wurde allerdings das volle Potenzial von E-Learning Plattformen nicht genutzt. Häufig wurden solche Systeme als Dateiablagen, Wissensdatenbanken oder nur für die Kollaboration Fähigkeiten benutzt. Aber darüber hinaus besitzen E-Learning Plattformen die Fähigkeit, eine Learning-Experience für die Lernenden zu erzeugen.
Diese Thesis beschäftigt sich mit KI-basierten Empfehlungssystemen im E-Learning Bereich. Dabei werden wissenschaftliche Arbeiten anhand der Methodik analysiert, welche Programmiersprachen, Algorithmen und Bibliotheken verwendet werden. Abhängig davon werden verschiedene prototypische Empfehlungsprogramme erstellt, wobei verschiedene Algorithmen ausprobiert werden. Diese Algorithmen werden bereinigte Tabellendateien verarbeiten, welche zuvor aus Moodle generiert werden. Dadurch sollen dann konkrete Empfehlungen erzeugt werden, die anschließend evaluiert und bewertet werden. Anschließend wird ein Fazit gezogen, worauf unter anderem auf die Probleme der verschiedenen Algorithmen hingewiesen wird und in welcher Hinsicht man das Empfehlungssystem verbessern könnte.
Encryption techniques allow storing and transferring of sensitive information securely by using encryption at rest and encryption in transit, respectively. However, when computation is performed on these sensitive data, the data needs to be decrypted first and encrypted again after performing the computations. During the computations, the sensitive data becomes vulnerable to attackers as it's in decrypted form. Homomorphic encryption, a special type of encryption technique that allows computation on encrypted data can be used to solve the above-mentioned problem. The best way to achieve maximum security with homomorphic encryption is to perform at least the homomorphic encryption and decryption on the client side (browser) of a web application by not trusting the server. At present time there are many libraries with different homomorphic schemes available for homomorphic encryption. However, there are very few to no JavaScript libraries available to perform homomorphic encryption on the client side of any web application. This thesis mainly focuses on the JavaScript implementation of client-side homomorphic encryption. The fully homomorphic encryption scheme BFV is selected for the implementation. After implementing the fully homomorphic encryption scheme based on the “py-fhe” library, tests are also carried out in order to determine the applicability (in terms of time consumption, security and correctness) of this implementation in a web application by comparing the performance and security for different test cases and different settings.
Um die Akzeptanz und Relevanz von Mailings zu steigern, ist es für Unternehmen wichtig, die Kundeninteressen möglichst gezielt anzusprechen. Bereits jetzt wird die E-Mail-Marketing Lösung Inxmail Professional zusammen mit Recommender Systemen eingesetzt, was das Erstellen und Versenden von E-Mails mit personalisierten Produktempfehlungen ermöglicht. Das notwendige Wissen für den Aufbau und den Betrieb dieser Recommender Systeme liegt dabei jedoch bei (externen) Technologie-Partnern, wodurch höhere Kosten und zusätzliche Abhängigkeiten für Inxmail und seine Kunden entstehen.
Mit dieser Arbeit wurde erforscht, was es für das Unternehmen Inxmail bedeutet, mit Open-Source-Software ein eigenständiges Recommender System aufzubauen und in die E-Mail-Marketing Lösung Inxmail Professional zu integrieren. Hierfür wird Inxmail Professional in einem typischen Kontext mit einem angebundenen Onlineshop System betrachtet. Das Recommender System soll anhand der Daten, die es aus dem Onlineshop System bekommt, individuelle Produktempfehlungen berechnen, um diese automatisiert beim Versand für jeden Empfänger abfragen und in die E-Mail integrieren zu können.
Auf Basis des Machine Learning Servers Harness und der integrierten Universal Recommender Engine wurde ein Recommender System aufgebaut.
Für die Integration des Onlineshop Systems Shopware wurde ein Plugin entwickelt, welches das Recommender System über alle relevanten Benutzeraktionen benachrichtigt. Die Inxmail Professional Integration basiert auf einem Webservice, der implementiert wurde, um die individuellen Produktempfehlungen für einen Kunden/Empfänger beim Recommender System abzufragen und mit den Detailinformationen zu den Produkten aus dem Onlineshop aufzubereiten.
Es konnte gezeigt werden, dass auf der Grundlage von Open-Source-Technologien ein eigenständiges Recommender System aufgebaut, evaluiert und in Inxmail Professional mit angebundenem Onlineshop System integriert werden kann. Der Gesamtprozess für die Evaluation des Systems wurde weitestgehend automatisiert, wodurch viele manuelle und zeitintensive Schritte über Steuerungsskripte abgehandelt werden können. Das System erlaubt die reibungslose Verarbeitung großer Datenmengen (> 19.000.000 Events) auf einem einzelnen Server. Die Vorhersagequalität wurde anhand realer Interaktionsdaten aus öffentlichen E-Commerce-Datensätzen mit Offline-Tests gemessen. Dadurch wurde sichergestellt, dass das System in der Lage ist, bei stetig wachsender Eventmenge zuverlässige aufempfehlungen zu berechnen. Die Tests haben gezeigt, dass bei mehreren Millionen Events von mehreren Tausend Benutzern für mehrere Tausend Produkte, 13 % bis 15 % aller tatsächlichen Käufe in den Top-10 der vom System vorgeschlagenen Empfehlungen enthalten waren.
Damit wurde die Grundlage für den selbstständigen Aufbau und Betrieb eines Recommender Systems gelegt, was eine sinnvolle und kostengünstige Alternative zu externen Systemen sein kann.
Instagram-Marketing: Erfolgsfaktoren und Handlungsempfehlungen am Beispiel der Kosmetikindustrie
(2015)
Das Ziel dieser Arbeit lag darin, Faktoren, die den Erfolg eines Instagram-Auftritts von Kosmetik produzierenden oder vertreibenden Unternehmen aus dem deutsch-sprachigen Raum steigern, zu ermitteln und auf Grundlage der Ergebnisse Handlungs-empfehlungen auszusprechen. Im Zuge dessen wurden sieben qualitative Befragungen von Experten durchgeführt und anschließend mit Hilfe der zusammen-fassenden Inhaltsanalyse nach Mayring ausgewertet. Aus der empirischen Studie geht hervor, dass Instagram bereits jetzt eine große Rolle im Social-Media-Mix einnimmt und Unternehmen primär Ziele des Brandings und der Markenrepräsentation auf Instagram verfolgen. Desweiteren konnten mit Hilfe der leitfadengestützten Experteninterviews 15 Faktoren identifiziert werden, die positiven Einfluss auf das Instagram-Marketing ausüben: Persönlichkeit, Qualität, Authentizität, Aktualität, Kanalmix, Hashtags, Videos, die Verknüpfung mit anderen Unternehmensbereichen, Transparenz, Relevanz, Influencer-Relations, Community, Bestätigung und Management. Als am bedeutend-sten haben sich die Punkte Persönlichkeit, Qualität und Relevanz gezeigt: Marken stehen demnach vor der Herausforderung, ästhetische, zielgruppenrelevante Inhalte, die an die Eigenheiten Instagrams als Plattform angepasst sind, zu veröffentlichen und auf Augenhöhe mit den Nutzern zu kommunizieren, ohne sich selbst als Marke zu verlieren. Ferner führte die Expertenbefragung zu der Erkenntnis, dass Instagram sowohl als Community als auch als Marketing-Tool weiterhin an Bedeutung gewinnen wird, vor allem im deutschen Raum und in der Beauty-Branche.
Die vorliegende Masterarbeit hatte zum Ziel, die Effektivität des Influencer Marketings auf der Livestreaming-Plattform Twitch.tv zu untersuchen, da diesbezüglich zum einen bisher kaum geforscht wurde und zum anderen die Influencer Marketing Industrie weiterhin von Jahr zu Jahr wächst. Mittels eines Experiments basierend auf einem Forschungsmodell zweier norwegischer Masterstudentinnen wurde ein randomisiertes Zwei-Gruppen-Experiment durchgeführt, um die Effektivität des Influencer Marketings zu messen, sowie den Einfluss von Parasozialen Interaktionen auf die Effektivität des Influencer Marketings zu analysieren. Außerdem wurde ein Vergleich zwischen dem Influencer Marketing und einer regulären Online-Werbung gezogen. Für die Durchführung des Experiments konnten 184 Probanden gewonnen werden, welche randomisiert einem Treatment in Form eines gesponserten Twitch-Streams oder einem Videospieltrailer ausgesetzt waren. Trotz dieser Anzahl konnten im Laufe der Analyse keine signifikanten Ergebnisse erzielt werden. Jedoch konnten diverse Erkenntnisse gewonnen und Empfehlungen für zukünftige Forschung mit dem Fokus Influencer Marketing auf Twitch.tv ausgesprochen werden.
Die vorliegende Arbeit befasst sich mit dem Thema Influencer in der Gaming-Branche. Dabei wird untersucht, wie wichtig Influencer auch für Gamer und ihr Kaufverhalten, sowie für Gaming-Unternehmen und die Platzierung von Influencern in der Mediaplanung sind. Die Fragestellung wird aufgrund einer Online-Befragung mit Gamern, leitfadengestützten Interviews mit Influencern und Literaturrecherchen diskutiert.
Die Ergebnisse der Arbeit zeigen, dass Influencer auch in der Gaming-Branche einen sehr hohen Stellenwert einnehmen. Die Umfrage hat ergeben, dass Let's Player, Live Streamer und YouTuber einen großen, auch aktiven Einfluss auf die Kaufentscheidung besitzen. Besonders interessant sind in diesem Zusammenhang die rechtlichen Bestimmungen, die sehr viele Vorgaben für Influencer mit sich bringen, sowie die unbewusst und bewusst beeinflussenden Aspekte im Kaufentscheidungsprozess. Vor diesem Hintergrund werden in einer SWOT-Analyse einige Strategien entwickelt um beispielsweise rechtlichen Problemen entgegen zu wirken und die Stärken der Gaming-Influencer, wie beispielsweise hohe Reichweite, hohes Vertrauen und zielgruppengenaue Platzierung der Inhalte zu gewährleisten.
Though the basic concept of a ledger that anyone can view and verify has been around for quite some time, today’s blockchains bring much more to the table including a way to incentivize users. The coins given to the miner or validator were the first source of such incentive to make sure they fulfilled their duties. This thesis draws inspiration from other peer efforts and uses this same incentive to achieve certain goals. Primarily one where users are incentivised to discuss their opinions and find scientific or logical backing for their standpoint. While traditional chains form a consensus on a version of financial "truth", the same can be applied to ideological truths too. To achieve this, creating a modified or scaled proof of stake consensus mechanism is explored in this work. This new consensus mechanism is a Reputation Scaled - Proof of Stake. This reputation can be built over time by voting for the winning side consistently or by sticking to one’s beliefs strongly. The thesis hopes to bridge the gap in current consensus algorithms and incentivize critical reasoning.
The purpose of this master's thesis was to set up a test bed for the absorption of chemical compounds by carbon-based sorbents and polymers and to develop a method for the detection of these substances applied by liquid chromatography.
The study made it possible to demonstrate the effectiveness of both polymers and biochars sorbents for the adosorption of specific substances. The results obtained open new paths on the study of biochar for the treatment of contaminated water. Some biochars made from plant-based materials have been shown to be almost as effective as commercial products used in plants. The developed chromatography method allows efficient separation of substances and their detection.
On a regular basis, we hear of well-known online services that have been abused or compromised as a result of data theft. Because insecure applications jeopardize users' privacy as well as the reputation of corporations and organizations, they must be effectively secured from the outset of the development process. The limited expertise and experience of involved parties, such as web developers, is frequently cited as a cause of risky programs. Consequently, they rarely have a full picture of the security-related decisions that must be made, nor do they understand how these decisions affect implementation accurately.
The selection of tools and procedures that can best assist a certain situation in order to protect an application against vulnerabilities is a critical decision. Regardless of the level of security that results from adhering to security standards, these factors inadvertently result in web applications that are insufficiently secured. JavaScript is a language that is heavily relied on as a mainstream programming language for web applications with several new JavaScript frameworks being released every year.
JavaScript is used on both the server-side in web applications development and the client-side in web browsers as well.
However, JavaScript web programming is based on a programming style in which the application developer can, and frequently must, automatically integrate various bits of code from third parties. This potent combination has resulted in a situation today where security issues are frequently exploited. These vulnerabilities can compromise an entire server if left unchecked. Even though there are numerous ad hoc security solutions for web browsers, client-side attacks are also popular. The issue is significantly worse on the server side because the security technologies available for server-side JavaScript application frameworks are nearly non-existent.
Consequently, this thesis focuses on the server-side aspect of JavaScript; the development and evaluation of robust server-side security technologies for JavaScript web applications. There is a clear need for robust security technologies and security best practices in server-side JavaScript that allow fine-grained security.
However, more than ever, there is this requirement of reducing the associated risks without hindering the web application in its functionality.
This is the problem that will be tackled in this thesis: the development of secure security practices and robust security technologies for JavaScript web applications, specifically, on the server-side, that offer adequate security guarantees without putting too many constraints on their functionality.
Das Ziel der Arbeit ist zu erforschen, ob die Erstellung eines Digital Twin des Hamburger Hafens durch Open Source Lösungen realisierbar ist. Die Grundlagen führen in die Themen Digital Twin und Smart City ein. Es wird darauf eingegangen, welche Vorteile durch die Verwendung eines Digital Twins gewonnen werden können und wie sich die verschiedenen Digital Twin-Typen unterscheiden. Es werden verschiedene Architekturen anhand eines Smart City Index weltweit evaluiert, um ein geeignetes Digital Twin-Framework zu finden. FIWARE hat sich als geeignetes Frame- work erwiesen und wird im Anschluss analysiert. Anhand der Evaluierung wird ebenfalls das 3D-Visualisierungs Framework CesiumJS als Open Source Lösung ermit- telt. Das Unternehmen Hamburg Port Authority wird vorgestellt und die interne IT- Infrastruktur betrachtet. Anhand der Architekturdokumentation arc42 werden die Anforderungen und die erforderliche Architektur in Zusammenarbeit mit der Hamburg Port Authority ermittelt. Im Anschluss wird der Architekturentwurf anhand eines Prototyps implementiert. Probleme oder Anforderungen, die nicht erfüllt werden können, werden beschrieben. Abschließend werden die Ergebnisse und das Fazit der Hamburg Port Authority zusammengefasst.
Technology advancement has played a vital role in business development; however, it has opened a broad attack surface. Passwords are one of the essential concepts used in applications for authentication. Companies manage many corporate applications, so the employees must meet the password criteria, which leads to password fatigue. This thesis addressed this issue and how we can overcome this problem by theoretically implementing an IAM solution. In this, we disused MFA, SSO, biometrics, strong password policies and access control. We introduced the IAM framework that should be considered while implementing the IAM solution. Implementing an IAM solution adds an extra layer of security.
Cloud computing has revolutionized the way businesses operate by providing them with access to scalable, cost-effective, and flexible IT resources. This technology has enabled businesses to store, manage, and process data more efficiently, leading to improved competitiveness and increased revenue. The purpose of this thesis is to explore the impacts of using cloud computing from a business perspective. The research employs both primary and secondary sources of data, including a literature review, interviews with employees who have more than 5 years of experience, a questionnaire, and observations from Billwerk+ company.
The findings of this research indicate that cloud computing has had a significant impact on businesses, providing them with cost savings, improved agility and flexibility, and enhanced access to data and applications. However, it has been revealed that the benefits of cloud computing for companies may vary according to the departments of the employees. The results of this research contribute to the existing body of knowledge on the topic of cloud computing and its impact on businesses. The findings of this thesis can be used by business owners, managers, technology professionals, and students to make informed decisions about the adoption and use of cloud computing technology.
In conclusion, this thesis provides a comprehensive understanding of the impacts of using cloud computing from a business perspective, highlighting the factors that companies consider when deciding to use cloud environments and the views from different departments. The results of this research will be valuable to a wide range of individuals interested in exploring the implications of cloud computing for businesses.
This study investigates the impact of global payroll outsourcing on organizational efficiency and cost reduction based on the analysis of diverse implications stemming from thirty one (31) survey results. The findings reveal multifaceted challenges and benefitsassociated with outsourcing global payroll processing.
The research also unveils the most benefits of global payroll outsourcing. Notably, there's a consensus on the reduction in time-to-process payroll, cost per payroll processed, and improved payroll accuracy rate. Outsourcing streamlines processes, enhances operational efficiency, and contributes to faster, more accurate financial reporting.
Despite these benefits and challenges, statistical analysis reveals weak correlations between outsourcing global payroll and cost reduction or improved efficiency in various parameters, indicating a lack of a significant relationship. Consequently, the results, suggest no substantial correlation between global payroll outsourcing and enhanced efficiency or cost reduction based on this study's data.
Die akustischen Emissionen von Wasserinstallationsgeräten, insbesondere während der nächtlichen Ruhezeit in angrenzenden Räumen, können erhebliche Störungen verursachen. Die primäre Ursache dieser Belästigungen liegt in der spezifischen Funktionsweise von Wasserarmaturen, welche somit als Hauptquelle der Lärmemissionen identifiziert werden können. Hydrodynamische und -akustische Simulationen erweisen sich in diesem Zusammenhang als wertvolle Werkzeuge zur Identifikation von kritischen Bereichen, welche für die Schallabstrahlung verantwortlich sind.
In dieser vorliegenden Arbeit werden die hydrodynamischen und -akustischen Eigenschaften eines Installationsgeräuschnormals mithilfe numerischer Methoden untersucht, wobei gleichzeitig ein kommerzielles Berechnungswerkzeug zur Vorhersage von akustischen Schallfeldern in Bezug auf ein hybrides Verfahren evaluiert und validiert wird. Das Installationsgeräuschnormal dient dabei als Testfall, um die Leistungsfähigkeit des hybriden Akustikmodells in Verbindung mit einem RANS- sowie RANS/LES-Ansatz zu überprüfen. Es werden verschiedene Varianten des Installationsgeräuschnormals untersucht und mit experimentellen Messdaten validiert.
Die hydrodynamischen Simulationsergebnisse der verschiedenen Varianten zeigen eine hervorragende Übereinstimmung mit den experimentellen Daten bei der Verwendung eines RANS/LES-Ansatzes. Der Einsatz eines solchen Hybrid-Modells zur Turbulenzmodellierung hat gezeigt, dass eine verbesserte Wiedergabe von zeitabhängigen Phänomenen in der Strömung erreicht werden kann, welche in direktem Zusammenhang mit der Vorhersage der Schallausbreitung stehen und somit eine bedeutende Auswirkung darauf haben.
Die akustische Untersuchung der verschiedenen Varianten des Installationsgeräuschnormals zeigt, dass die Schallabstrahlung ausschließlich in breitbandigen Frequenzspektren erfolgt. Im Rahmen des Vergleichs mit den Messdaten lässt sich erkennen, dass eine akustische Analyse auf Basis eines hybriden Modells in Verbindung mit dem Akustikmodell vielversprechende Ergebnisse bezüglich der Vorhersage des Schallfelds liefern kann und dabei im Vergleich zu einfachen RANS-Modellen Vorteile aufweist.
Privacy is the capacity to keep some things private despite their social repercussions. It relates to a person’s capacity to control the amount, time, and circumstances under which they disclose sensitive personal information, such as a person’s physiology, psychology, or intelligence. In the age of data exploitation, privacy has become even more crucial. Our privacy is now more threatened than it was 20 years ago, outside of science and technology, due to the way data and technology highly used. Both the kinds and amounts of information about us and the methods for tracking and identifying us have grown a lot in recent years. It is a known security concern that human and machine systems face privacy threats. There are various disagreements over privacy and security; every person and group has a unique perspective on how the two are related. Even though 79% of the study’s results showed that legal or compliance issues were more important, 53% of the survey team thought that privacy and security were two separate things. Data security and privacy are interconnected, despite their distinctions. Data security and data privacy are linked with each other; both are necessary for the other to exist. Data may be physically kept anywhere, on our computers or in the cloud, but only humans have authority over it. Machine learning has been used to solve the problem for our easy solution. We are linked to our data. Protect against attackers by protecting data, which also protects privacy. Attackers commonly utilize both mechanical systems and social engineering techniques to enter a target network. The vulnerability of this form of attack rests not only in the technology but also in the human users, making it extremely difficult to fight against. The best option to secure privacy is to combine humans and machines in the form of a Human Firewall and a Machine Firewall. A cryptographic route like Tor is a superior choice for discouraging attackers from trying to access our system and protecting the privacy of our data There is a case study of privacy and security issues in this thesis. The problems and different kinds of attacks on people and machines will then be briefly talked about. We will explain how Human Firewalls and machine learning on the Tor network protect our privacy from attacks such as social engineering and attacks on mechanical systems. As a real-world test, we will use genomic data to try out a privacy attack called the Membership Inference Attack (MIA). We’ll show Machine Firewall as a way to protect ourselves, and then we’ll use Differential Privacy (DP), which has already been done. We applied the method of Lasso and convolutional neural networks (CNN), which are both popular machine learning models, as the target models. Our findings demonstrate a logarithmic link between the desired model accuracy and the privacy budget.
The research employed HPTLC Pro System and other HPTLC instruments from CAMAG® to conduct various laboratory tests, aiming to compile a database for subsequent analyses. Utilizing MATLAB, distinct codes were developed to reveal patterns within analyzed biomasses and pyrolysis oils (sewage sludge, fermentation residue, paper sludge, and wood). Through meticulous visual and numerical analysis, shared characteristics among different biomasses and their respective pyrolysis oils were revealed, showcasing close similarities within each category. Notably, minimal disparity was observed in fermentation residue and wood biomasses with a similarity coefficient of 0.22. Similarly, for pyrolysis oils, the minimal disparity was found in fermentation residues 1 and 3, with a disparity coefficient of 1.41. Despite higher disparity coefficients in certain results, specific biomasses and pyrolysis oils, such as fermentation residue and sewage sludge, exhibited close similarities, with disparity coefficients of 0.18 and 0.55, respectively. The database, derived from triplicate experimentation, now serves as a valuable resource for rapid analysis of newly acquired raw materials. Additionally, the utility of HPTLC PRO as an investigation tool, enabling simultaneous analysis of up to five samples, was emphasized, although areas for improvement in derivatization methods were identified.
Im Rahmen dieser Masterthesis wird ein quasi energieautarkes, nicht-invasives Messsystem für Kleinstlebewesen entwickelt, das Vitalparameter erfasst und diese in einem FRAM-Speicher bis zum Auslesen abspeichert. Durch eine drahtlose RFID-/NFC-Ausleseschnittstelle kann die erfasste Körpertemperatur und der Puls der letzten Wochen ausgelesen werden. Alle Einstellungen des Messsystems können durch einen geeigneten RFID-Reader für Laptops mit eigens entwickelter grafischer Nutzeroberfläche geändert werden. Das vollständige Aufladen des nur 3,3 g leichten und 15 mm x 25 mm großen Messsystems erfolgt durch eine selbstgedruckte RFID-Reader-Antenne in Verbindung mit einem RFID-Reader und benötigt hierzu weniger als 29 Stunden. Bei vollständig aufgeladenem Energiespeicher ist ein Betrieb von 47 Tagen möglich. Dies wird durch ein speziell für das Messsystem konzipiertes Lade- und Powermanagement erreicht. Neben der Auswahl von energiesparenden Komponenten für die Hardware und deren bestmöglichen Nutzung, wurde die Software so optimiert, dass das Programm schnell und stromsparend abgearbeitet wird. Die Erweiterbarkeit und Anpassung wird durch das modulare Konzept auch in anderen Bereichen gewährleistet.
Herr Vater & Ich
(2022)
Mein Vater wurde im Jahr 1952 geboren. Über das, was er in den 40 Jahren vor meiner Geburt erlebt hat, hat er mir immer wieder Geschichten erzählt, die mich unterhalten, belustigt oder verwundert haben. Geschichten, die mir immer wieder zeigten, dass ich ihn, abseits von seiner Rolle als Vater, gar nicht wirklich kenne. Dabei hat er mich in vielerlei Hinsicht geprägt. Mit der Musik, die er mit mir gemacht hat, den Bildern, die er mit mir gemalt hat, den Büchern, Platten und Filmen, die er mir geschenkt hat und mit den Geschichten, die er erzählt und vor allem wie er sie erzählt. Aber was für meine Person ist mein Vater eigentlich?
Ich sammle Anekdoten, die einen lebhaften Eindruck über seine Erfahrungen und Erlebnisse geben und erfahre mehr über den historischen Kontext und die gesellschaftliche Situation, die seine persönliche Lebensgeschichte prägten. Ich tauche ein, in ein Leben voll von Kindheitserinnerungen aus der Nachkriegszeit und zufälligen Begegnungen, aus denen sich langjährige Freundschaften ergeben. Ich lerne mehr über den Umgang mit dem Tod, darüber wie man Entscheidungen trifft und lausche Geschichten von jugendlichem Übermut und aufregenden Schiffsfahrten. Mit jeder dieser Geschichten lerne ich meinen Vater neu und besser kennen, sehe mich darin selbst wieder oder bin auch einfach nur überrascht.
Denn die Auseinandersetzung mit meinem Vater ist notwendigerweise eine Auseinandersetzung mit mir selbst. Wo finde ich mich in seinen Geschichten selbst wieder? Wo macht er Fehler, die ich auch gemacht hätte, aber wo trifft er auch Entscheidungen, die ich mir nicht zutrauen würde? Ich erfahre, was wir gemeinsam haben, aber auch wo wir uns unterscheiden. Wir als Person, aber auch wir in unserem historischen Kontext. Wo in ihm ein Seemanns-Lied aus einer Musiktruhe den Wunsch weckte, zur See zu fahren, da höre ich noch immer die Platten, die er mir als Kind vorgespielt hat. Dass er mit seinen Eltern und seinem Bruder in einem Zimmer geschlafen und aufgewachsen ist, scheint für mich heute undenkbar. Und zusammen versuchen wir den Weg seines Vaters, meines Opa, nach Deutschland nachzuvollziehen und ergründen die Wurzeln der Familie.
Bilder, Dokumente und Tape-Aufnahmen eines rumänischen Kirchenchors veranschaulichen Erzählungen, die bis vor den Zweiten Weltkrieg zurückreichen und werden ergänzt und erweitert durch Medien, die erst im Rahmen dieser Arbeit entstanden sind. Es entsteht eine digitale Ausstellung und weit mehr, als ein individuelles Porträt. „Herr Vater & Ich” ist eine Sammlung von Kurzgeschichten, eine Auseinandersetzung mit Geschichte und gesellschaftlicher Veränderung, eine Verständigung zwischen Generationen.
Eine Einladung zum Zuhören & Kennenlernen.