Refine
Year of publication
Document Type
- Article (unreviewed) (566) (remove)
Is part of the Bibliography
- yes (566) (remove)
Keywords
- Schule (11)
- Bildung (8)
- Arbeitszeugnis (7)
- Export (7)
- Digitalisierung (6)
- Energieversorgung (6)
- Nachhaltigkeit (6)
- Recht (6)
- Datenschutz (5)
- Dünnschichtchromatographie (5)
- Ganztagsschule (5)
- Lernen (5)
- Machine Learning (5)
- Werbung (5)
- Bauteil (4)
- Bildungsmanagement (4)
- E-Learning (4)
- Informatik (4)
- Internet (4)
- Kommunikation (4)
- Künstliche Intelligenz (4)
- Medien (4)
- Sicherheit (4)
- Trade (4)
- Algorithmus (3)
- Arbeitsrecht (3)
- Ausbildung (3)
- Biogas (3)
- Bussystem (3)
- Deep Learning (3)
- Forschung (3)
- Funktechnik (3)
- Genossenschaft (3)
- Innovation (3)
- Maschinelles Lernen (3)
- Mathematik (3)
- Neue Medien (3)
- Personalbeurteilung (3)
- Ransomware (3)
- Regelungstechnik (3)
- Rezension (3)
- Risiko (3)
- Social Engineering (3)
- Ultraschall (3)
- Urheberrecht (3)
- Vergleich (3)
- Wärmepumpe (3)
- Abmahnung (2)
- Advanced Footwear Technology (2)
- Analytics (2)
- Arbeitnehmer (2)
- Arbeitsbewertung (2)
- Arbeitsleistung (2)
- Arzneimittelrecht (2)
- Aufzeichnung (2)
- Bank (2)
- Bewerbung (2)
- Biomechanics (2)
- CCD-Bildwandler (2)
- COVID-19 (2)
- Datenmanagement (2)
- Datenqualität (2)
- Desktop-Virtualisierung (2)
- Drahtloses lokales Netz (2)
- E-Commerce (2)
- E-learning (2)
- Einkauf (2)
- Elektroantrieb (2)
- Environment (2)
- Enzym (2)
- Exercise Science (2)
- Finance (2)
- Finanzierung (2)
- Finite-Elemente-Methode (2)
- Führung (2)
- Gebäudetechnik (2)
- Gesundheitswesen (2)
- Götz von Berlichingen (2)
- Hand (2)
- Hochschule Offenburg (2)
- ISO (2)
- IT Governance (2)
- Impressum (2)
- Industrie 4.0 (2)
- Intelligentes Stromnetz (2)
- Interne Revision (2)
- Kinetik (2)
- Krankheit (2)
- Kreditversicherung (2)
- Krisenmanagement (2)
- Kritik (2)
- Kundendaten (2)
- Lichtwellenleiter (2)
- Management (2)
- Marfan-Syndrom (2)
- Massive Open Online Course (2)
- Medizintechnik (2)
- Messtechnik (2)
- Mikroprozessor (2)
- Mobilität (2)
- Monitoring (2)
- Mumie (2)
- Personal Computer (2)
- Personalauswahl (2)
- Personalführung (2)
- Personalmanagement (2)
- Personalqualifikation (2)
- Produktion (2)
- Projektmanagement (2)
- Public Service Models (2)
- Pädagogik (2)
- Raman-Spektroskopie (2)
- Risikomanagement (2)
- Scanner (2)
- Schweigepflicht (2)
- Signalverarbeitung (2)
- Solarthermie (2)
- TABS (2)
- TRIZ (2)
- Transformationsmanagement (2)
- Versorgungstechnik (2)
- Wettbewerb (2)
- Wirtschaft (2)
- deep learning (2)
- e-mail (2)
- eingebettetes System (2)
- 1,5-Grad-Ziel (1)
- AGIO (1)
- AGIO-Bilanzierung Kreditinstitute (1)
- Abfallverwertung (1)
- Abfallwirtschaft (1)
- Abgas (1)
- Abhängigkeit des deutschen Elektrizitätssystems (1)
- Abonnement (1)
- Absatz (1)
- Abtragung (1)
- Abwärmenutzung (1)
- Additive Manufacturing (1)
- Adversarial examples (1)
- Aerosol (1)
- Afrika (1)
- Aktivierung (1)
- Akustik (1)
- Analysenmesstechnik (1)
- Anpresskraft (1)
- Antenne (1)
- Antrieb <Technik> (1)
- Applikation (1)
- Arbeitgeber (1)
- Arbeitsplatzgestaltung (1)
- Arbeitszeit (1)
- Archäologie (1)
- Artistic Research (1)
- Arzneimittel (1)
- Astronomie (1)
- Asynchronmaschinen (1)
- Asynchronmotor (1)
- Atlantikum (1)
- Aufführung (1)
- Aufhebungsvertrag (1)
- Aufklärung (1)
- Aufsichtsrat (1)
- Automation (1)
- Außenhandel (1)
- Baden-Württemberg (1)
- Bankbilanzierung (1)
- Bankwesen (1)
- Bauökologie (1)
- Bayern (1)
- Benchmark (1)
- Benchmarking (1)
- Benzodiazepine (1)
- Beruf (1)
- Berufliche Skepsis (1)
- Beschränkung (1)
- Betriebssicherheit (1)
- Beurteilung (1)
- Beuys, Joseph (1)
- Bewerbungsgespräch (1)
- Bewertung (1)
- Bild (1)
- Bioakustik (1)
- Bioelement (1)
- Biogasgewinnung (1)
- Biophonie (1)
- Biosignal (1)
- Blech (1)
- Blockheiz-Kraftwerk (1)
- Bloom filters (1)
- Bogenmodell (1)
- Bombierung (1)
- Bruckner, Anton (1)
- Bypass (1)
- Bürohaus (1)
- CAAD (1)
- CAD (1)
- CFC (1)
- Cellulase (1)
- Chromatographie (1)
- Climate (1)
- Cloud (1)
- Computer (1)
- Computergestützte Fertigung (1)
- Computersysteme (1)
- Controlling (1)
- Convolutional Neural Network (1)
- Corporate Governance (1)
- Covid-19 (1)
- Cryptography (1)
- Cyber Threat Intelligence (1)
- Cyberresilienz (1)
- Cyberrisiken (1)
- Cyberrisiko (1)
- Cyberrisikomanagement (1)
- DNA (1)
- Dashcam (1)
- Datenerfassung (1)
- Datensicherung (1)
- Datenübertragungsgeschwindigkeit (1)
- Deckungsbeitrag (1)
- Deckungsvermögen (1)
- Deep Leaning (1)
- Deep Reinforcement Learning (1)
- Defibrillation (1)
- Dehnungsmessung (1)
- DenseNet (1)
- DenseNet201 (1)
- Densitometrie (1)
- Design (1)
- Deutschland (1)
- Dienstleistung (1)
- Digital Simulation (1)
- Digitale Bildung (1)
- Digitalisation (1)
- Digitalisierte Arbeitswelt (1)
- Digitalsierung von Schule und Unterricht (1)
- Digitaltechnik (1)
- Dimension 3 (1)
- Disease Detection (1)
- Disease detection (1)
- Dokumentation (1)
- Domenico Scarlatti (1)
- Doppelschicht (1)
- Drehstrom (1)
- Druck (1)
- Druckabfall (1)
- Durchflussmessung (1)
- Dämpfung (1)
- Düngemittel (1)
- Dünnwand (1)
- E-Mail (1)
- ECA (1)
- ERP (1)
- EU Timber Regulation (1)
- Einbau (1)
- Eingebettetes System (1)
- Einsatz (1)
- Eisen (1)
- Electrolyte-gated transistors (1)
- Electroplating (1)
- Elektrochemie (1)
- Elektronik (1)
- Embodiment (1)
- Emission (1)
- Empfehlung (1)
- Energie (1)
- Energiedichte (1)
- Energieeffizienz (1)
- Energietechnik (1)
- Energiewende (1)
- Energiewirtschaft (1)
- Energieübertragung (1)
- Energy Crisis (1)
- Entlüftung (1)
- Entscheidung (1)
- Erfahrung (1)
- Erfolg (1)
- Erfrischungsgetränk (1)
- Ergonomie (1)
- Erziehung (1)
- Ethik (1)
- Exercise Physiology (1)
- Experiment (1)
- Explainable AI (1)
- Export Credit (1)
- Export Credit Agency (1)
- FCKW (1)
- FT-Raman spectroscopy (1)
- Farbe (1)
- Farbmessung (1)
- Farbsättigung (1)
- Feldbus (1)
- Feldeffekt (1)
- Fernsehen (1)
- Filmen (1)
- Flüssigkeit (1)
- Footwear (1)
- Formale Beschreibung (1)
- Formular (1)
- Fourier, Jean Baptiste Joseph (1)
- Fremdkörper (1)
- Funktionsweise (1)
- Führungskultur (1)
- GPRS (1)
- Garten (1)
- Gehalt (1)
- Geldpolitik (1)
- Genossenschaften und genossenschaftliche Rechtsform (1)
- Genossenschaftliche Innovationsökosysteme (1)
- Genossenschaftsbanken (1)
- Geografie (1)
- Gerichtliche Chemie (1)
- Geschwindigkeitsmessung (1)
- Gesellschaft (1)
- Gesetzgebung (1)
- Gesundheitskommunikation (1)
- Gewerbe (1)
- Globalisierung (1)
- GoogleNet (1)
- Großtechnische Anlage (1)
- Gut <Landwirtschaft> (1)
- Gütertram (1)
- Halbleiter (1)
- Halbleiterbauelement (1)
- Handel (1)
- Haustechnik (1)
- HeNe laser (1)
- Heilberuf (1)
- Heizung (1)
- Herzfrequenzmessung (1)
- Herzkrankheit (1)
- Herzrhythmusstörung (1)
- Hirnschrittmacher (1)
- Hirntumor (1)
- Hochfrequenz (1)
- Hochleistungsdünnschichtchromatographie (1)
- Hochschule (1)
- Hochschulpolitik (1)
- Hofladentram (1)
- Hotel (1)
- Human Computer Interaction (1)
- Humanismus (1)
- Hybrides Lernen (1)
- Hybridtechnik (1)
- Hydrocarbon (1)
- Hyperlink (1)
- Härten (1)
- IR Spectroscopy (1)
- IR-Spektroskopie (1)
- IT-Sicherheit (1)
- Identifizierung (1)
- Image (1)
- Image Processing (1)
- In-Memory Technologie (1)
- Industrie (1)
- Informatik-Lehre (1)
- Information (1)
- Informationsgehalt (1)
- Informationstechnologie (1)
- Infrastruktur (1)
- Innenrevision (1)
- Innovation Hub (1)
- Innovationsfinanzierung (1)
- Innovationssysteme (1)
- Innovationsökosysteme (1)
- Installation (1)
- Insurance (1)
- Integrierte Schaltung (1)
- Intelligenz (1)
- Investition (1)
- Johann Sebastian Bach (1)
- Joseph Beuys (1)
- Journalismus (1)
- KMU (1)
- Kamera (1)
- Kantenerkennung (1)
- Kardiale Resynchronisationstherapie (1)
- Kaufpreis (1)
- Klang (1)
- Klarheit (1)
- Klein- und Mittelbetrieb (1)
- Kleintiere (1)
- Kohlenwasserstoff (1)
- Kommunalverwaltung (1)
- Kommunikationssystem (1)
- Komplexitätsreduktion (1)
- Kompostierung (1)
- Konstruktion (1)
- Konzentrationsmessung (1)
- Kopie (1)
- Korea (1)
- Korrelator (1)
- Korruption (1)
- Kosten (1)
- Kraftfahrzeug (1)
- Kraftfahrzeugabgas (1)
- Kraftfahrzeugbatterie (1)
- Kraftfahrzeugelektrik (1)
- Kraftwerk (1)
- Kriminologie (1)
- Krisenkommunikation (1)
- Kritische Grundhaltung (1)
- Kräfte-Wärme-Kälte-Kopplung (1)
- Kundenschaltung (1)
- Kunst (1)
- Käfigläufer (1)
- Kälteanlagen (1)
- Kältetechnik (1)
- Kündigung (1)
- Labor (1)
- Laboratorium (1)
- Langfristig keine Importe (1)
- Langfristige Korrelation (1)
- Laufen (1)
- Lean-Management (1)
- Learning Analytics (1)
- Lecksuche (1)
- Lehre (1)
- Leistungselektronik (1)
- Leitbild (1)
- Leiterplattenfertigung (1)
- Leitsystem (1)
- Lichtleiter (1)
- Lineares System (1)
- Lithium-Ionen-Akkumulator (1)
- Lithiumbatterie (1)
- Locomotion (1)
- Logische Schaltung (1)
- Logistik (1)
- Lokalisation (1)
- Lumineszenz (1)
- Lückenskript (1)
- Lückentext (1)
- MSR-Technik (1)
- Magnetfeld (1)
- Mahlanlage (1)
- Marc Aurel (1)
- Marketing (1)
- Markt (1)
- Marktzugang (1)
- Maschine (1)
- Maschinelles Sehen (1)
- Maschinenbau (1)
- Mediendesign (1)
- Medienkompetenz (1)
- Medienpädagogik (1)
- Medientechnik (1)
- Medienwirtschaft (1)
- Medizin (1)
- Mehrwert (1)
- Mengenmessung (1)
- Mensa (1)
- Mensch (1)
- Messaufnehmer (1)
- Messdatenerfassung (1)
- Messgenauigkeit (1)
- Messgerät (1)
- Messmethode (1)
- Messsystem (1)
- Methadon (1)
- Methode (1)
- Methoden (1)
- Methoden und Kompetenzen (1)
- Methodenvergleich (1)
- Mittelstands-Hubs (1)
- MobileNet (1)
- Mord (1)
- Multi-Material 3D-Printing (1)
- Multiplexer (1)
- Musik (1)
- Mängelhaftung (1)
- Nachruf (1)
- Natrium-Ionen-Akkumulator (1)
- Natur (1)
- Niedrige Energie (1)
- Normung (1)
- Oberfläche (1)
- Objektverfolgung (1)
- Offentlichkeitsarbeit (1)
- Olympische Spiele (1)
- Online (1)
- Ontology (1)
- Optical metrology (1)
- Optik (1)
- Organisationskultur (1)
- Orthopedics (1)
- Oszillator (1)
- PM-Entwicklung (1)
- PM-Trends (1)
- PPT (1)
- Paganini (1)
- Paganini, Niccolò (1)
- Partei (1)
- Passives Bauelement (1)
- Patent (1)
- Personalakte (1)
- Personalberatung (1)
- Personaleinsatz (1)
- Personaleinstellen (1)
- Personalplanung (1)
- Personennahverkehr (1)
- Persönlicher und unternehmerischer Erfolg (1)
- Persönlichkeitsrecht (1)
- Pharmazie (1)
- Phasenschieber (1)
- Phenol (1)
- Photonik (1)
- Pierre-Marie-Bamberger syndrome (1)
- Portrait (1)
- Power technology (1)
- Praxis (1)
- Praxisbeispiel (1)
- Presse (1)
- Privatwirtschaft (1)
- Product Design (1)
- Produkteigenschaft (1)
- Produktentwicklung (1)
- Produktionscontrolling (1)
- Produktpalette (1)
- Profil (Bauelement) (1)
- Prognose (1)
- Programmierung (1)
- Programming Languages (1)
- Prothetik (1)
- Provider (1)
- Prozessautomatisierung (1)
- Präsentation (1)
- Public Relation (1)
- Pulmonary (1)
- Pädagogik vs. Lernmaschinen (1)
- Qualifikationsmodell (1)
- Qualität (1)
- Qualitätssicherung (1)
- Rahmenvertrag (1)
- Rahmenwerk (1)
- Raum (1)
- Raumfahrtmedizin (1)
- Raumklima (1)
- Reaktor (1)
- Rechenverfahren (1)
- Recherche (1)
- Rechtsberatung (1)
- Rechtswissenschaft (1)
- Reinigung (1)
- Reinraumtechnik (1)
- ResNet (1)
- Revision (1)
- Ringnetz (Schleifennetz) (1)
- Risikoanalyse (1)
- Risikomodellierung (1)
- Roboter (1)
- Robotersteuerung (1)
- Robotik (1)
- Running performance (1)
- Röntgen (1)
- Röntgenbild (1)
- Rückenmark (1)
- SAP S/4 HANA (1)
- STIX (1)
- Schaltungsentwurf (1)
- Schnittstelle (1)
- Schreibschrift (1)
- Schubbeanspruchung (1)
- Schuhe (1)
- Schulentwicklung (1)
- Schulkultur (1)
- Schulleitung (1)
- Schulorganisation (1)
- Schulprofil (1)
- Schulverpflegung (1)
- Schweißnaht (1)
- Schwermetalle (1)
- Seebeck-Effekt (1)
- Sensor (1)
- Sicherheitstechnik (1)
- Signalleitung (1)
- Silicone (1)
- Simulation (1)
- Skype (1)
- Software (1)
- Solarenergie (1)
- Solartechnik (1)
- Soziale Medien (1)
- Soziale Roboter (1)
- Spaltquerschnitt (1)
- Spektroskopie (1)
- Spikes (1)
- Splitterbruch (1)
- Sport Science (1)
- Sports performance (1)
- Sprachgebrauch (1)
- Spritzgießen (1)
- Stakeholdermanagement (1)
- Standardisierung (1)
- Stellenanzeige (1)
- Stellenbeschreibung (1)
- Steuer (1)
- Steuerung (1)
- Steuerungssystem (1)
- Stromversorgung (1)
- Struma (1)
- Strömungsmechanik (1)
- Studium (1)
- Sustanaible Innovations (1)
- Systematic innovation (1)
- Szenario (1)
- Süßstoff (1)
- TMKB-Modell (1)
- TRIZ methodology (1)
- TRIZ, Knowledge-based innovation (1)
- Tablet (1)
- Tafel (1)
- Tanz (1)
- Taxi (1)
- Teamfähigkeit (1)
- Technikakzeptanz (1)
- Teil (1)
- Teilen (1)
- Telefonverkauf (1)
- Theorie (1)
- Thermik (1)
- Thermoaktives Bauteilsystem (1)
- Thermoelektrizität (1)
- Tiefenmessung (1)
- Time Series Classification (1)
- Tomografie (1)
- Torschleieranlage (1)
- Toulouse-Lautrec, Henri (1)
- Transdisziplinäre Reallabore (1)
- Transformation (1)
- Transistortechnologie (1)
- Transparenz (1)
- Trivalent Cr electrolytes (1)
- Tuberculosis (1)
- Turbulenzarme Verdrängungsströmung (1)
- UMTS (1)
- Umwelt (1)
- Unfall (1)
- Unsicherheit (1)
- Unterlassung (1)
- Unternehmen (1)
- Unternehmensberatung (1)
- Unternehmensführung (1)
- Unternehmensgründung (1)
- Unterricht (1)
- VDI-Richtlinie (1)
- Validierung (1)
- Veranstaltung (1)
- Verbraucherzufriedenheit (1)
- Verbundwerkstoff (1)
- Verfahrenstechnik (1)
- Verkehrsregelung (1)
- Verlagsrecht (1)
- Verletzung (1)
- Verrechnungspflicht (1)
- Versicherung (1)
- Verteilung (1)
- Vertriebsmarketing (1)
- Verwaltungsbau (1)
- Verwaltungskommunikation (1)
- Virtuelle Realität (1)
- Virtuelles Laboratorium (1)
- Visual Analytics (1)
- Visualisierung (1)
- Vorlesung (1)
- Voxel (1)
- Voxelization (1)
- Wahrscheinlichkeit (1)
- Walzendurchbiegung (1)
- Walzenmühle (1)
- Wasseruntersuchung (1)
- Website-Marketing (1)
- Wegaufnehmer (1)
- Wellenleiter (1)
- Welthandel (1)
- Werberecht (1)
- Werkzeug (1)
- Werkzeugbau (1)
- Werkzeugmaschine (1)
- Wertbeitrag (1)
- Wertpapier (1)
- Wettbewerbsverstoß (1)
- Widerruf (1)
- Widerrufsrecht (1)
- Windenergie (1)
- Wirtschaftsinformatik (1)
- Wirtschaftsrecht (1)
- Working Capital Management (1)
- Working Capital; Analytics (1)
- Wärmerückführung (1)
- Wärmestrom (1)
- Wärmeübergang (1)
- Xray (1)
- Zeitarbeit (1)
- Zeitwertbewertung (1)
- Zukunft (1)
- Zweidrahtverfahren (1)
- additive manufacturing (1)
- adversarial attacks (1)
- asynchronous machines (1)
- athletic performance (1)
- biochar (1)
- biologischer Abfallstoff (1)
- chemische Verbindung (1)
- context-driven design (1)
- cushioning (1)
- customized (1)
- cyclohexane (1)
- datengestützte Schulentwicklung (1)
- design process (1)
- detection (1)
- digitale Bildverarbeitung (1)
- drumstick fingers (1)
- dynamische Optimierung (1)
- e-learning (1)
- elektrischer Kondensator (1)
- elektronische Steuerung (1)
- energy system analysis (1)
- energy systems modelling (1)
- erneuerbare Energie (1)
- fourier-Transformation (1)
- gaseous waste (1)
- health and safety (1)
- heating power station (1)
- image classification (1)
- induktives Messverfahren (1)
- injury risk factor (1)
- kardiovaskuläres System (1)
- konstruktiver Aufbau (1)
- kybernetische Pädagogik (1)
- maceration, vessel elements (1)
- maximal sprinting speed (1)
- medizinisches Gerät (1)
- oil painting (1)
- optische Signalverarbeitung (1)
- optische Übertragungstechnik (1)
- outsourced computation (1)
- oxide semiconductors (1)
- printed electronics (1)
- professional designers (1)
- pyrolysis (1)
- risk analysis (1)
- robustness (1)
- running shoe (1)
- safety (1)
- set operations (1)
- set relations (1)
- socially assistive robot (1)
- super spikes (1)
- thermoelektrischer Generator (1)
- toluene (1)
- track running (1)
- transistor model (1)
- visual qualities (1)
- waste gas (1)
- watch glass nails (1)
- wood identification (1)
- zero emissions (1)
- Öffentlichkeitsarbeit (1)
- Ökologie (1)
- Ökonomisierung von Schule und Untericht (1)
- Überwachung (1)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (189)
- Fakultät Wirtschaft (W) (120)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (97)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (95)
- Fakultät Medien (M) (ab 22.04.2021) (35)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (27)
- INES - Institut für nachhaltige Energiesysteme (21)
- IMLA - Institute for Machine Learning and Analytics (16)
- IfTI - Institute for Trade and Innovation (13)
- IUAS - Institute for Unmanned Aerial Systems (4)
Open Access
- Closed Access (156)
- Open Access (131)
- Closed (71)
- Diamond (17)
- Bronze (15)
- Gold (1)
- Grün (1)
- Hybrid (1)
The mathematical representations of data in the Spherical Harmonic (SH) domain has recently regained increasing interest in the machine learning community. This technical report gives an in-depth introduction to the theoretical foundation and practical implementation of SH representations, summarizing works on rotation invariant and equivariant features, as well as convolutions and exact correlations of signals on spheres. In extension, these methods are then generalized from scalar SH representations to Vectorial Harmonics (VH), providing the same capabilities for 3d vector fields on spheres.
Projektmanagement und mit ihm die PM-Prozesse, Methoden und Werkzeuge entwickeln sich stetig weiter, in kleinen, kaum spürbaren Schritten oder in großen unübersehbaren Veränderungen. In den letzten Jahren war der Diskurs über das Pro & Contra agiler Vorgehensweisen so allgegenwärtig, dass andere Aspekte nicht immer die notwendige Aufmerksamkeit bekamen. Erkannte Notwendigkeiten der PM-Entwicklung konnten noch nicht in spürbare Fortschritte umgewandelt werden. Einflüsse der Globalisierung und der IT, aber auch die aus der zunehmenden Forderung nach Nachhaltigkeit resultierenden Veränderungen in der Projektarbeit sollen daher genauer betrachtet werden. Ist erst einmal die Sensibilität für relevante Trends beim Projektpersonal geschaffen, rücken ein aktualisiertes Kompetenzprofil und ein erweiterter Methodenkanon in greifbare Nähe.
Die fortschreitende Digitalisierung der Schulen macht es möglich, die Lerndaten der Schülerinnen und Schüler in einer zentralen Cloud zu speichern. Die Befürworter versprechen sich davon eine bessere individuelle Förderung und fordern eine bundesweite Lösung, um möglichst viele Daten auswerten zu können. Die Gegner befürchten eine automatisierte Steuerung des Lernens.
Assessing the robustness of deep neural networks against out-of-distribution inputs is crucial, especially in safety-critical domains like autonomous driving, but also in safety systems where malicious actors can digitally alter inputs to circumvent safety guards. However, designing effective out-of-distribution tests that encompass all possible scenarios while preserving accurate label information is a challenging task. Existing methodologies often entail a compromise between variety and constraint levels for attacks and sometimes even both. In a first step towards a more holistic robustness evaluation of image classification models, we introduce an attack method based on image solarization that is conceptually straightforward yet avoids jeopardizing the global structure of natural images independent of the intensity. Through comprehensive evaluations of multiple ImageNet models, we demonstrate the attack's capacity to degrade accuracy significantly, provided it is not integrated into the training augmentations. Interestingly, even then, no full immunity to accuracy deterioration is achieved. In other settings, the attack can often be simplified into a black-box attack with model-independent parameters. Defenses against other corruptions do not consistently extend to be effective against our specific attack.
Project website: https://github.com/paulgavrikov/adversarial_solarization
Fix your downsampling ASAP! Be natively more robust via Aliasing and Spectral Artifact free Pooling
(2023)
Convolutional neural networks encode images through a sequence of convolutions, normalizations and non-linearities as well as downsampling operations into potentially strong semantic embeddings. Yet, previous work showed that even slight mistakes during sampling, leading to aliasing, can be directly attributed to the networks' lack in robustness. To address such issues and facilitate simpler and faster adversarial training, [12] recently proposed FLC pooling, a method for provably alias-free downsampling - in theory. In this work, we conduct a further analysis through the lens of signal processing and find that such current pooling methods, which address aliasing in the frequency domain, are still prone to spectral leakage artifacts. Hence, we propose aliasing and spectral artifact-free pooling, short ASAP. While only introducing a few modifications to FLC pooling, networks using ASAP as downsampling method exhibit higher native robustness against common corruptions, a property that FLC pooling was missing. ASAP also increases native robustness against adversarial attacks on high and low resolution data while maintaining similar clean accuracy or even outperforming the baseline.
With the rising necessity of explainable artificial intelligence (XAI), we see an increase in task-dependent XAI methods on varying abstraction levels. XAI techniques on a global level explain model behavior and on a local level explain sample predictions. We propose a visual analytics workflow to support seamless transitions between global and local explanations, focusing on attributions and counterfactuals on time series classification. In particular, we adapt local XAI techniques (attributions) that are developed for traditional datasets (images, text) to analyze time series classification, a data type that is typically less intelligible to humans. To generate a global overview, we apply local attribution methods to the data, creating explanations for the whole dataset. These explanations are projected onto two dimensions, depicting model behavior trends, strategies, and decision boundaries. To further inspect the model decision-making as well as potential data errors, a what-if analysis facilitates hypothesis generation and verification on both the global and local levels. We constantly collected and incorporated expert user feedback, as well as insights based on their domain knowledge, resulting in a tailored analysis workflow and system that tightly integrates time series transformations into explanations. Lastly, we present three use cases, verifying that our technique enables users to (1)~explore data transformations and feature relevance, (2)~identify model behavior and decision boundaries, as well as, (3)~the reason for misclassifications.
Entity Matching (EM) defines the task of learning to group objects by transferring semantic concepts from example groups (=entities) to unseen data. Despite the general availability of image data in the context of many EM-problems, most currently available EM-algorithms solely rely on (textual) meta data. In this paper, we introduce the first publicly available large-scale dataset for "visual entity matching", based on a production level use case in the retail domain. Using scanned advertisement leaflets, collected over several years from different European retailers, we provide a total of ~786k manually annotated, high resolution product images containing ~18k different individual retail products which are grouped into ~3k entities. The annotation of these product entities is based on a price comparison task, where each entity forms an equivalence class of comparable products. Following on a first baseline evaluation, we show that the proposed "visual entity matching" constitutes a novel learning problem which can not sufficiently be solved using standard image based classification and retrieval algorithms. Instead, novel approaches which allow to transfer example based visual equivalent classes to new data are needed to address the proposed problem. The aim of this paper is to provide a benchmark for such algorithms.
Information about the dataset, evaluation code and download instructions are provided under https://www.retail-786k.org/.
Following the traditional paradigm of convolutional neural networks (CNNs), modern CNNs manage to keep pace with more recent, for example transformer-based, models by not only increasing model depth and width but also the kernel size. This results in large amounts of learnable model parameters that need to be handled during training. While following the convolutional paradigm with the according spatial inductive bias, we question the significance of \emph{learned} convolution filters. In fact, our findings demonstrate that many contemporary CNN architectures can achieve high test accuracies without ever updating randomly initialized (spatial) convolution filters. Instead, simple linear combinations (implemented through efficient 1×1 convolutions) suffice to effectively recombine even random filters into expressive network operators. Furthermore, these combinations of random filters can implicitly regularize the resulting operations, mitigating overfitting and enhancing overall performance and robustness. Conversely, retaining the ability to learn filter updates can impair network performance. Lastly, although we only observe relatively small gains from learning 3×3 convolutions, the learning gains increase proportionally with kernel size, owing to the non-idealities of the independent and identically distributed (\textit{i.i.d.}) nature of default initialization techniques.
Modern CNNs are learning the weights of vast numbers of convolutional operators. In this paper, we raise the fundamental question if this is actually necessary. We show that even in the extreme case of only randomly initializing and never updating spatial filters, certain CNN architectures can be trained to surpass the accuracy of standard training. By reinterpreting the notion of pointwise ($1\times 1$) convolutions as an operator to learn linear combinations (LC) of frozen (random) spatial filters, we are able to analyze these effects and propose a generic LC convolution block that allows tuning of the linear combination rate. Empirically, we show that this approach not only allows us to reach high test accuracies on CIFAR and ImageNet but also has favorable properties regarding model robustness, generalization, sparsity, and the total number of necessary weights. Additionally, we propose a novel weight sharing mechanism, which allows sharing of a single weight tensor between all spatial convolution layers to massively reduce the number of weights.
This paper presents the new Deep Reinforcement Learning (DRL) library RL-X and its application to the RoboCup Soccer Simulation 3D League and classic DRL benchmarks. RL-X provides a flexible and easy-to-extend codebase with self-contained single directory algorithms. Through the fast JAX-based implementations, RL-X can reach up to 4.5x speedups compared to well-known frameworks like Stable-Baselines3.
We have developed a methodology for the systematic generation of a large image dataset of macerated wood references, which we used to generate image data for nine hardwood genera. This is the basis for a substantial approach to automate, for the first time, the identification of hardwood species in microscopic images of fibrous materials by deep learning. Our methodology includes a flexible pipeline for easy annotation of vessel elements. We compare the performance of different neural network architectures and hyperparameters. Our proposed method performs similarly well to human experts. In the future, this will improve controls on global wood fiber product flows to protect forests.
Wirtschaftliche Krisenzeiten implizieren häufig Liquiditätsengpässe und bei kompletter Zahlungsunfähigkeit auch Insolvenzen. Das Instrument des Working Capital Management hilft bei der schnelleren Freisetzung von gebundenem Kapital. Sofern ein datengetriebenes Management unter Einsatz von Business-Analytics-Techniken und mit der dafür notwendigen technisch-organisatorischen Infrastruktur eingesetzt wird, entstehen neue Möglichkeiten von Einsichten in die Prozesslandschaft und die Optimierung von Durchlaufzeiten. Das Ziel ist der Aufbau eines Working-Capital- Analytics-Ansatzes.
This article provides an overview of the legal framework for website marketing. The presentation of the numerous legal provisions, which are spread over several areas of law, is oriented towards business challenges and measures. After placing the website in the context of marketing, the article focuses on the legal framework relating to the establishment, design and operation of a website. If, in addition to its communication function, a website also has a sales function, i. e. in e-commerce (online trade), additional specific legal conditions must be taken into account.
Schulen müssen bei ihrer Profilbildung mehr leisten als die reine Marketingpositionierung erfordert. Sie müssen für alle am Schulleben Beteiligten einen Sinn stiften. Es geht letztlich um eine Veränderung der Schulkultur, indem die Grundüberzeugungen und der Sinn und Zweck der Schule klar herausgearbeitet werden. Methoden aus dem Bereich der Entwicklung von Unternehmens- und Organisationskultur können hier wirksam zum Einsatz kommen.
In an extensive research project, we have assessed the application of different service models by export credit agencies (ECAs) and export-import banks (EXIMs). We conducted interviews with 35 representatives of ECAs and EXIMs from 27 countries. The question guiding this study is: How do ECAs and EXIMs adopt public service models for supporting exporters? We conducted a holistic multiple case study, investigating if and how these organisations apply public service models developed by Schedler and Guenduez, and which roles of the state are relevant. We find that there is a variety of different service models used by ECAs and EXIMs, and that the service model approaches have great potential to learn from each other and innovate existing services.
Seit mehr als 40 Jahren wiederholen sich Diskussionen und Kontroversen über Sinn und Unsinn von Informationstechnik (IT) in Bildungseinrichtungen. Wurde bislang über das Arbeiten an und mit PC, Laptop oder Tablet debattiert, drehen sich aktuelle Diskussionen verstärkt um netzbasierte Anwendungen mit Rückkanal für Schülerdaten. Das Schüler*innenverhalten wird per Software ausgewertet, um Lehrinhalte automatisiert und „individualisiert“ anzupassen. Ergänzt werden solche Lernprogramme um Anwendungen der sogenannten „Künstliche Intelligenz“ (KI), die als „Lernbegleiter“ fungieren und zumindest perspektivisch fehlende Lehrkräfte ersetzen (sollen). Damit werden technische Systeme in Schulen etabliert, von denen nicht einmal mehr die Entwickler wissen, was diese Algorithmen genau tun.
Das erfordert einen kritisch-reflektierenden Diskurs. Dafür vertritt Ralf Lankau im vorliegenden Aufsatz die These, dass essenzielle Elemente der Bildung, wie die Erziehung zu Selbstbewusstsein, Reflexion und einer kritischen Bürgerschaft, mit solchen Lernprogrammen verloren gehen.
Staatliche Exportkreditagenturen und Export-Import-Banken finanzieren, versichern und garantieren jährlich fast 1 Bio. US-Dollar – mehr als 3 % der globalen Güterexporte. Ihre Interventionen sind an internationale Rahmenbedingungen gebunden, insbesondere an das WTO-Subventionsübereinkommen (ASCM) und den OECD-Konsensus. Das komplexe Zusammenspiel beider Rechtsrahmen sorgt seit langem für Herausforderungen, vor allem hinsichtlich des Anwendungsbereichs des “safe haven” des ASCM und des “Matching”-Mechanismus der OECD. In den vergangenen Jahren hinzugekommen ist die Problematik neuer Instrumente der Exportvor- sowie der Klimafinanzierung. Der folgende Beitrag erörtert Herausforderungen und Lösungsansätze. Er zeigt auf, dass der neue OECD-Konsensus trotz zahlreicher Verbesserungen zentrale rechtliche Probleme nicht behebt.
Wissenschaftler treten als Berater auf und nehmen nicht nur Einfluss auf wirtschaftliche, sondern auch auf politische Entscheidungen. Welche Anforderungen sind an diese Art der Entscheidungsunterstützung zu stellen? Lassen sich für Wissenschaftler zulässige und unzulässige Einflussmöglichkeiten identifizieren? Der Beitrag beantwortet diese Frage unter Rückgriff auf Erkenntnisse aus Soziologie und Entscheidungslehre.
IT-Governance
(2023)
Die Dynamik der technologischen Entwicklungen übt einen großen Druck auf die Leitungs- und Überwachungsorgane eines Unternehmens aus. Die Hyperkonnektivität impliziert, dass die interne IT und OT Anknüpfungspunkte an den externen Kontext besitzen, wodurch die Komplexität aufgrund eines Nebeneinanders einer Vielzahl von Hard- und Software exponentiell steigt. Die gesetzlichen Notwendigkeiten zusammen mit den geschäftspolitischen Anforderungen sollten zur Überlegung führen, eine IT-Governance im Unternehmen zu etablieren. Das System der Wahl und die Dichte der Regulierung ist den Verantwortlichen unter Berücksichtigung des Unternehmensinteresses überlassen, lautete das Fazit des ersten Teils des Beitrags (ZCG 4/23). Im zweiten Teil werden nun konkret die ISO Standards 38500 et al. als eine Möglichkeit zur Umsetzung näher betrachtet. Dabei geht es um die einzelnen Komponenten in Form der zehn zur Verfügung stehenden Standards und deren integrative Top-Down-Gestaltung. Es zeigt sich, dass Themen wie die Daten-Governance und die KI-Governance ausreichend Berücksichtigung finden.
IT-Governance (Teil 1)
(2023)
Unabhängig von den gelieferten Ergebnissen hat ChatGPT die KI-Anwendungen auf ein neues Level gehoben. Aber auch digitalwirtschaftliche Geschäftsmodelle wie Ökosystem-Plattformen verändern die Art und Weise des Wirtschaftens. Eine Rahmung mittels einer IT-Governance wird dadurch nicht nur erforderlich, sondern bietet eine große Chance, die exponentiellen Entwicklungen strukturiert angehen und begleiten zu können. Ausgehend vom Deutschen Corporate Governance Kodex (DCGK) beleuchtet der erste Teil den Bezug dazu.
Sofern ein Rahmenwerk für den risikoorientierten Umgang mit Ransomware-Angriffen existiert, sollten die Verantwortlichen in Unternehmen darauf zurückgreifen und in die unternehmensweite Systematik einbetten. Das ermöglicht die Steuerung und das Management von Risiken, die zuvor von hoher Unsicherheit geprägt waren und Organisationen unerwartet treffen. Ferner ist zu berücksichtigen, dass das Social Engineering eine bedeutende Rolle bei der Lieferung von schadhafter Software spielt und frühzeitig in den Analyseprozess einzubeziehen ist.
Die moderne Erpressung von Unternehmen nach erfolgreichen Ransomware-Attacken ist sowohl ein monetäres als auch nicht-monetäres Problem. Angreifende erhalten über einen initialen, häufig menschlichen Endpunkt Zugang zur Organisation und können die Schadsoftware platzieren. Die beiden Angriffsvektoren Social Engineering und Ransomware nutzen die organisatorischen und technischen Schwachstellen, um auf diverse Vermögensgegenstände zuzugreifen. In diesem ersten Beitrag der zweiteiligen Serie wird das Verständnis für dieses Vorgehen entwickelt.
Ausreißer in Datenreihen geben einen Hinweis auf mögliche Risiken. Die empirischen Daten bestimmen weitestgehend die anzuwendenden Methoden. Dabei helfen Klassifikationssysteme, um zielorientiert zu einer Auswahl gelangen zu können. Die einfachste Form bilden univariate Datenreihen, deren Ausreißer mittels Häufigkeitsverteilungen, Konfidenzintervalle um den Mittelwert und Boxplots bestimmt werden.
High-tech running shoes and spikes ("super-footwear") are currently being debated in sports. There is direct evidence that distance running super shoes improve running economy; however, it is not well established to which extent world-class performances are affected over the range of track and road running events.
This study examined publicly available performance datasets of annual best track and road performances for evidence of potential systematic performance effects following the introduction of super footwear. The analysis was based on the 100 best performances per year for men and women in outdoor events from 2010 to 2022, provided by the world governing body of athletics (World Athletics).
We found evidence of progressing improvements in track and road running performances after the introduction of super distance running shoes in 2016 and super spike technology in 2019. This evidence is more pronounced for distances longer than 1500 m in women and longer than 5000 m in men. Women seem to benefit more from super footwear in distance running events than men.
While the observational study design limits causal inference, this study provides a database on potential systematic performance effects following the introduction of super shoes/spikes in track and road running events in world-class athletes. Further research is needed to examine the underlying mechanisms and, in particular, potential sex differences in the performance effects of super footwear.
During pyrolysis, biomass is carbonised in the absence of oxygen to produce biochar with heat and/or electricity as co-products making pyrolysis one of the promising negative emission technologies to reach climate goals worldwide. This paper presents a simplified representation of pyrolysis and analyses the impact of this technology on the energy system. Results show that the use of pyrolysis can allow getting zero emissions with lower costs by making changes in the unit commitment of the power plants, e.g. conventional power plants are used differently, as the emissions will be compensated by biochar. Additionally, the process of pyrolysis can enhance the flexibility of energy systems, as it shows a correlation between the electricity generated by pyrolysis and the hydrogen installation capacity, being hydrogen used less when pyrolysis appears. The results indicate that pyrolysis, which is available on the market, integrates well into the energy system with a promising potential to sequester carbon.
In Zeiten großer Veränderungen haben genossenschaftlich organisierte KMU die Möglichkeit, auf komplexe Herausforderungen mit kooperativen Lösungsansätzen zu reagieren, vor allem wenn dabei die Kraft und Kreativität der Gemeinschaft genutzt wird. Getreu dem Motto „Was einer alleine nicht schafft, das schaffen viele“ des Genossenschaftsvorreiters Friedrich Wilhelm Raiffeisen ist gemeinschaftliches unternehmerisches Handeln identitätsstiftend und motivierend, woraus wiederum eine sich selbst verstärkende Eigendynamik entstehen kann. Wie Mittelstand, Politik und Gesellschaft davon profitieren, stellen Prof. Dr. Tobias Popovic und Prof. Dr. Thomas Baumgärtler in diesem Beitrag dar.
Recent advances in spiked shoe design, characterized by increased longitudinal stiffness, thicker midsole foams, and reconfigured geometry are considered to improve sprint performance. However, so far there is no empirical data on the effects of advanced spikes technology on maximal sprinting speed (MSS) published yet. Consequently, we assessed MSS via ‘flying 30m’ sprints of 44 trained male (PR: 10.32 s - 12.08 s) and female (PR: 11.56 s - 14.18 s) athletes, wearing both traditional and advanced spikes in a randomized, repeated measures design. The results revealed a statistically significant increase in MSS by 1.21% on average when using advanced spikes technology. Notably, 87% of participants showed improved MSS with the use of advanced spikes. A cluster analysis unveiled that athletes with higher MSS may benefit to a greater extent. However, individual responses varied widely, suggesting the influence of multiple factors that need detailed exploration. Therefore, coaches and athletes are advised to interpret the promising performance enhancements cautiously and evaluate the appropriateness of the advanced spike technology for their athletes critically.
Motivated by the recent trend towards the usage of larger receptive fields for more context-aware neural networks in vision applications, we aim to investigate how large these receptive fields really need to be. To facilitate such study, several challenges need to be addressed, most importantly: (i) We need to provide an effective way for models to learn large filters (potentially as large as the input data) without increasing their memory consumption during training or inference, (ii) the study of filter sizes has to be decoupled from other effects such as the network width or number of learnable parameters, and (iii) the employed convolution operation should be a plug-and-play module that can replace any conventional convolution in a Convolutional Neural Network (CNN) and allow for an efficient implementation in current frameworks. To facilitate such models, we propose to learn not spatial but frequency representations of filter weights as neural implicit functions, such that even infinitely large filters can be parameterized by only a few learnable weights. The resulting neural implicit frequency CNNs are the first models to achieve results on par with the state-of-the-art on large image classification benchmarks while executing convolutions solely in the frequency domain and can be employed within any CNN architecture. They allow us to provide an extensive analysis of the learned receptive fields. Interestingly, our analysis shows that, although the proposed networks could learn very large convolution kernels, the learned filters practically translate into well-localized and relatively small convolution kernels in the spatial domain.
State-of-the-art models for pixel-wise prediction tasks such as image restoration, image segmentation, or disparity estimation, involve several stages of data resampling, in which the resolution of feature maps is first reduced to aggregate information and then sequentially increased to generate a high-resolution output. Several previous works have investigated the effect of artifacts that are invoked during downsampling and diverse cures have been proposed that facilitate to improve prediction stability and even robustness for image classification. However, equally relevant, artifacts that arise during upsampling have been less discussed. This is significantly relevant as upsampling and downsampling approaches face fundamentally different challenges. While during downsampling, aliases and artifacts can be reduced by blurring feature maps, the emergence of fine details is crucial during upsampling. Blurring is therefore not an option and dedicated operations need to be considered. In this work, we are the first to explore the relevance of context during upsampling by employing convolutional upsampling operations with increasing kernel size while keeping the encoder unchanged. We find that increased kernel sizes can in general improve the prediction stability in tasks such as image restoration or image segmentation, while a block that allows for a combination of small-size kernels for fine details and large-size kernels for artifact removal and increased context yields the best results.
The COVID19 pandemic, a unique and devastating respiratory disease outbreak, has affected global populations as the disease spreads rapidly. Recent Deep Learning breakthroughs may improve COVID19 prediction and forecasting as a tool of precise and fast detection, however, current methods are still being examined to achieve higher accuracy and precision. This study analyzed the collection contained 8055 CT image samples, 5427 of which were COVID cases and 2628 non COVID. The 9544 Xray samples included 4044 COVID patients and 5500 non COVID cases. The most accurate models are MobileNet V3 (97.872 percent), DenseNet201 (97.567 percent), and GoogleNet Inception V1 (97.643 percent). High accuracy indicates that these models can make many accurate predictions, as well as others, are also high for MobileNetV3 and DenseNet201. An extensive evaluation using accuracy, precision, and recall allows a comprehensive comparison to improve predictive models by combining loss optimization with scalable batch normalization in this study. Our analysis shows that these tactics improve model performance and resilience for advancing COVID19 prediction and detection and shows how Deep Learning can improve disease handling. The methods we suggest would strengthen healthcare systems, policymakers, and researchers to make educated decisions to reduce COVID19 and other contagious diseases.
CNN-based deep learning models for disease detection have become popular recently. We compared the binary classification performance of eight prominent deep learning models: DenseNet 121, DenseNet 169, DenseNet 201, EffecientNet b0, EffecientNet lite4, GoogleNet, MobileNet, and ResNet18 for their binary classification performance on combined Pulmonary Chest Xrays dataset. Despite the widespread application in different fields in medical images, there remains a knowledge gap in determining their relative performance when applied to the same dataset, a gap this study aimed to address. The dataset combined Shenzhen, China (CH) and Montgomery, USA (MC) data. We trained our model for binary classification, calculated different parameters of the mentioned models, and compared them. The models were trained to keep in mind all following the same training parameters to maintain a controlled comparison environment. End of the study, we found a distinct difference in performance among the other models when applied to the pulmonary chest Xray image dataset, where DenseNet169 performed with 89.38 percent and MobileNet with 92.2 percent precision.
Das Zeitalter der Digitalisierung ist geprägt durch einen erhöhten Wettbewerb. Eine Chance, bei steigendem Wettbewerb erfolgreich zu bestehen, liegt daher nur in der durchgängigen Digitalisierung von Produktionsunternehmen. Dieser Beitrag stellt eine dreistufige generische Unternehmensmodellplattform Industrie 4.0 vor, die die Durchgängigkeit von Prozessen vom Kunden bis zum Lieferanten auf allen Unternehmensebenen in den Mittelpunkt stellt. Die Schritte zur Bewertung und Gestaltung des Fortschritts auf dem Weg zum digitalisierten Produktionsunternehmen werden aufgezeigt.
Veränderte Umweltbedingungen für Organisationen haben die Notwendigkeit für Anpassungen und Weiterentwicklungen zur Folge. Das ist bei Unternehmen bereits ein etablierter Prozess und wird auf Ebene der Schulen im Rahmen der Schulentwicklung thematisiert. Die lang- und kurzfristigen Veränderungen, ob Migrationsentwicklungen oder Pandemie, sorgen für die Notwendigkeit, auch die Führungskultur als das Selbstverständnis einer professionellen Führung und Zusammenarbeit im Kollegialsystem Schule entsprechend weiterzuentwickeln. Hier können Leitbilder zu Führung und Zusammenarbeit und gezielte umsetzungsorientierte Entwicklungsprozesse dem Transformationsprozess an Schulen dauerhaft Schub verleihen.
Elektrische Wärmepumpen sind eine Schlüsseltechnologie für klimafreundliche Gebäude. In Mehrfamilienhäusern ist ihr Einsatz noch eine Herausforderung und entsprechend wenig verbreitet. Im Rahmen des Verbundprojekts "HEAVEN" haben Forschende nun ein Mehrquellen-Wärmepumpensystem entwickelt, das an die Anforderungen größerer Wohngebäude angepasst ist. Getestet wurde es im Rahmen des Verbundprojekts "Smartes Quartier Durlach" in einem Karlsruher Gebäude. Daten zum ersten Betriebsjahr liegen nun vor.
Diese Metadaten wurden zur Verfügung gestellt von der Literaturdatenbank RSWB®plus
Wärmepumpen sind eine Schlüsseltechnologie der Wärmewende. Durch die Nutzbarmachung von Umweltwärme und den Antrieb mit Elektrizität, die zunehmend aus erneuerbaren Energien gewonnen wird, kann die CO2-Intensität der Wärmeversorgung gesenkt werden. Eine Herausforderung besteht in der Anwendung in größeren Mehrfamilienbestandsgebäuden. Lösungsansätze und beispielhafte Umsetzungen werden hierzu vorgestellt.
Socially assistive robots (SARs) are becoming more prevalent in everyday life, emphasizing the need to make them socially acceptable and aligned with users' expectations. Robots' appearance impacts users' behaviors and attitudes towards them. Therefore, product designers choose visual qualities to give the robot a character and to imply its functionality and personality. In this work, we sought to investigate the effect of cultural differences on Israeli and German designers' perceptions and preferences regarding the suitable visual qualities of SARs in four different contexts: a service robot for an assisted living/retirement residence facility, a medical assistant robot for a hospital environment, a COVID-19 officer robot, and a personal assistant robot for domestic use. Our results indicate that Israeli and German designers share similar perceptions of visual qualities and most of the robotics roles. However, we found differences in the perception of the COVID-19 officer robot's role and, by that, its most suitable visual design. This work indicates that context and culture play a role in users' perceptions and expectations; therefore, they should be taken into account when designing new SARs for diverse contexts.
Die fluktuierende Verfügbarkeit regenerativer Energiequellen stellt eine Herausforderung bei der Planung und Auslegung regenerativer Gebäudeenergiesysteme dar. Die in einem System benötigten Speicherkapazitäten hängen dabei sowohl von der eingesetzten Regelungsstrategie als auch von den temperaturabhängigen Wirkungsgraden der Anlagenkomponenten ab. Genauere Einblicke in das Betriebsverhalten eines Gesamtsystems können dynamische Simulationen liefern, die eine Analyse der Systemtemperaturen und von Teilenergiekennwerten ermöglichen.
Nach einem langen Vorlauf haben Bundestag und Bundesrat zum Ende der Legislatur 2021 einen Rechtsanspruch auf Ganztagsbildung in Grundschulen verabschiedet. Um aus diesem formalen Anspruch gute Angebote in der Rechtswirklichkeit schaffen zu können, bedarf es neben politischer und finanzieller Rahmenbedingungen auch eines gezielten Dialogs mit den relevanten Anspruchs- und Interessengruppen, weshalb dem Stakeholdermanagement vor allem der Akteure von Schulträgern und Schulen eine besondere Bedeutung zukommt.
Es ist derzeit "in", in der Werbung damit zu werben, das eigene Unternehmen sei besonders umweltfreundlich. Das Stichwort lautet "Klimaneutralität". Viele Unternehmen möchten etwa mit dem Begriff "CO2-neutral" oder ähnlichem werben, weil es gut klingt. Dabei wird sich dieses Prädikat naturgemäß nicht daraus ergeben, dass bei Produktion und Transport der eigenenLeistungen und Produkte keinerlei Emissionen anfallen. Produktion, Versand, allgemeiner Energieverbrauch und Reisetätigkeiten emittieren sehr wohl. Allerdings möchte man dieses Prädikat durch die Förderung von Umweltprojekten (oftmals auf anderen Kontinenten) oder den Erwerb von "Ausgleichszertifikaten", die von Seiten Dritter beispielsweise die dauerhafte Bindung von CO2 (z.B. in Pflanzenkohlesenken) garantieren sollen, ermöglichen. Der Beitrag gibt einen ersten Überblick über die aktuelle Rechtslage und geplante Änderung der UGP-Richtlinie, insbesondere mit Blick auf §5a UWG.
Beuys-Gespräch
(2022)
Die Identifikation und Einschätzung von Risiken werden stets von Unsicherheit begleitet. Auch die besten Risikomodelle und Wahrscheinlichkeitsberechnungen können diese Tatsache nicht komplett beseitigen. Mit dieser Kenntnis besteht aber die Möglichkeit, alle erfassbaren Sachverhalte besser einzuschätzen und Modelle anzuwenden, die zielorientiert Probleme angehen. Dadurch lässt sich die Unsicherheit zugunsten des Risikomanagements verringern.
Die Modellierung von Risikoszenarien ist allgemein und mit Bezug auf Cyberrisiken eine herausfordernde Tätigkeit. Domain-Expertise und Methodenkenntnisse sind erforderlich, um ein Gesamtbild entwickeln zu können. Der vorliegende Beitrag greift auf die Cyber Threat Intelligence und das STIX-Rahmenwerk zurück und verbindet die Ergebnisse mit einer Szenariotechnik.
Die neuen Realitäten digitalwirtschaftlicher Geschäftsmodelle stellen die Verfügbarkeit und Verwendung großer Datenmengen in den Mittelpunkt unternehmerischer Aktivitäten. Das Risikomanagement, das bereits intensiv stochastische Methoden anwendet, sollte an dieser Entwicklung teilhaben. Im vorliegenden Beitrag geht es um die angemessene Rahmung und Einordnung von Analytics-Projekten.
Geschäftsleiter von Kapitalgesellschaften und Genossenschaften müssen beim Treffen riskanter Entscheidungen ihrer rechtlichen Sorgfaltspflicht genügen. Eine wichtige Voraussetzung dafür ist, zum Entscheidungszeitpunkt angemessen informiert zu sein. Die praktische Umsetzung dieser Forderung stellt insbesondere für die unsicheren Prognosen der Zielwirkungen alternativer Handlungsmöglichkeiten eine beträchtliche Herausforderung dar. Der vorliegende Beitrag erörtert die Fragen, wie sich prognosebezogene Informationen in ihrer Qualität abstufen lassen und welche Überlegungen für die Bestimmung einer angemessenen Information vorzunehmen sind.
Auswirkung eines Importstopps russischer Energieträger auf die Klimaschutzziele in Deutschland
(2022)
Ein Importstopp russischer Energieträger nach Deutschland wird derzeit vermehrt diskutiert. Wir wollen die Diskussion unterstützen, indem wir einen Weg zeigen, wie das Elektrizitätssystem in Deutschland kurzfristig mit geringen Energieimporten auskommt und welche Maßnahmen notwendig sind, um die Klimaschutzziele trotzdem einzuhalten. Die Ergebnisse eines solchen Energiewendeszenarios mit reduzierter Importabhängigkeit werden mit dem Energiesystemmodell MyPyPSA-Ger berechnet. Die wichtigsten Erkenntnisse sind, dass ein zügiger Ausbau Erneuerbarer Energien und von Speichertechnologien • die Abhängigkeit des deutschen Elektrizitätssystems von Energieimporten deutlich reduziert. • auch langfristig keine wesentlichen Importe der Energieträger Erdgas, Steinkohle und Mineralöl nach sich zieht. • über die Klimaziele der Bundesregierung hinaus das 1,5-Grad-Ziel im Elektrizitätssystem erreicht wird.
Initially developed as a student project, a mobile ‘farm shop’ retail and freight service using a converted tram-train is being proposed for use on the regional rail network around Karlsruhe. This in turn could offer a more viable business model for other cargo tram initiatives.
Convolutional neural networks (CNN) define the state-of-the-art solution on many perceptual tasks. However, current CNN approaches largely remain vulnerable against adversarial perturbations of the input that have been crafted specifically to fool the system while being quasi-imperceptible to the human eye. In recent years, various approaches have been proposed to defend CNNs against such attacks, for example by model hardening or by adding explicit defence mechanisms. Thereby, a small “detector” is included in the network and trained on the binary classification task of distinguishing genuine data from data containing adversarial perturbations. In this work, we propose a simple and light-weight detector, which leverages recent findings on the relation between networks’ local intrinsic dimensionality (LID) and adversarial attacks. Based on a re-interpretation of the LID measure and several simple adaptations, we surpass the state-of-the-art on adversarial detection by a significant margin and reach almost perfect results in terms of F1-score for several networks and datasets. Sources available at: https://github.com/adverML/multiLID
The identification of vulnerabilities is an important element in the software development life cycle to ensure the security of software. While vulnerability identification based on the source code is a well studied field, the identification of vulnerabilities on basis of a binary executable without the corresponding source code is more challenging. Recent research has shown, how such detection can be achieved by deep learning methods. However, that particular approach is limited to the identification of only 4 types of vulnerabilities. Subsequently, we analyze to what extent we could cover the identification of a larger variety of vulnerabilities. Therefore, a supervised deep learning approach using recurrent neural networks for the application of vulnerability detection based on binary executables is used. The underlying basis is a dataset with 50,651 samples of vulnerable code in the form of a standardized LLVM Intermediate Representation. The vectorised features of a Word2Vec model are used to train different variations of three basic architectures of recurrent neural networks (GRU, LSTM, SRNN). A binary classification was established for detecting the presence of an arbitrary vulnerability, and a multi-class model was trained for the identification of the exact vulnerability, which achieved an out-of-sample accuracy of 88% and 77%, respectively. Differences in the detection of different vulnerabilities were also observed, with non-vulnerable samples being detected with a particularly high precision of over 98%. Thus, the methodology presented allows an accurate detection of 23 (compared to 4) vulnerabilities.
Featherweight Generic Go (FGG) is a minimal core calculus modeling the essential features of the programming language Go. It includes support for overloaded methods, interface types, structural subtyping and generics. The most straightforward semantic description of the dynamic behavior of FGG programs is to resolve method calls based on runtime type information of the receiver.
This article shows a different approach by defining a type-directed translation from FGG to an untyped lambda-calculus. The translation of an FGG program provides evidence for the availability of methods as additional dictionary parameters, similar to the dictionary-passing approach known from Haskell type classes. Then, method calls can be resolved by a simple lookup of the method definition in the dictionary.
Every program in the image of the translation has the same dynamic semantics as its source FGG program. The proof of this result is based on a syntactic, step-indexed logical relation. The step-index ensures a well-founded definition of the relation in the presence of recursive interface types and recursive methods.
Running shoes were categorized either as motion control, cushioned, or minimal footwear in the past. Today, these categories blur and are not as clearly defined. Moreover, with the advances in manufacturing processes, it is possible to create individualized running shoes that incorporate features that meet individual biomechanical and experiential needs. However, specific ways to individualize footwear to reduce individual injury risk are poorly understood. Therefore, the purpose of this scoping review was to provide an overview of (1) footwear design features that have the potential for individualization; (2) human biomechanical variability as a theoretical foundation for individualization; (3) the literature on the differential responses to footwear design features between selected groups of individuals. These purposes focus exclusively on reducing running-related risk factors for overuse injuries. We included studies in the English language on adults that analyzed: (1) potential interaction effects between footwear design features and subgroups of runners or covariates (e.g., age, gender) for running-related biomechanical risk factors or injury incidences; (2) footwear perception for a systematically modified footwear design feature. Most of the included articles (n = 107) analyzed male runners. Several footwear design features (e.g., midsole characteristics, upper, outsole profile) show potential for individualization. However, the overall body of literature addressing individualized footwear solutions and the potential to reduce biomechanical risk factors is limited. Future studies should leverage more extensive data collections considering relevant covariates and subgroups while systematically modifying isolated footwear design features to inform footwear individualization.
Additive manufacturing (AM) and in particular the application of 3D multi material printing offers completely new production technologies thanks to the degree of freedom in design and the simultaneous processing of several materials in one component. Today's CAD systems for product development are volume-based and therefore cannot adequately implement the multi-material approach. Voxel-based CAD systems offer the advantage that a component can be divided into many voxels and different materials and functions can be assigned to these voxels. In this contribution two voxel-based CAD systems will be analyzed in order to simplify the AM on voxel level with different materials. Thus, a number of suitable criteria for evaluating voxel-based CAD systems are being developed and applied. The results of a technical-economic comparison show the differences between the voxel-based systems and disclose their disadvantages compared to conventional CAD systems. In order to overcome these disadvantages, a new method is therefore presented as an approach that enables the voxelization of a component in a simple way based on a conventional CAD model. The process chain of this new method is demonstrated using a typical component from product design. The results of this implementation of the new method are illustrated and analyzed.
SchulverwaltungSpezial
(2021)
Die Corona-Krise ist eine Herausforderung, bei der Schulleitungen nicht nur im Rahmen des Krisenmanagements und insbesondere der Krisenkommunikation gefordert sind, sondern darüber hinaus, ausgehend von der akuten Krisenbewältigung, auch ein proaktives Risikomanagement vornehmen müssen. Die Prinzipien Klarheit, Transparenz und Partizipation sowie die günstige Kombination von Zentralität und Dezentralität im Rahmen des Krisenmanagements sind die Voraussetzung für den Übergang in ein strategisch orientiertes proaktives Transformationsmanagement.
Die Mehrheit der deutschen Unternehmen verspricht sich aus KI-gestützter Datenanalyse einen großen Geschäftsvorteil. Doch gerade das Thema Datenbestand ist eine der größten, immer noch häufig unterschätzten Hürde beim Trainieren und Einführen von KI-Algorithmen. Im Folgenden sind vier konkrete Erfahrungen und Tipps für KI- & Datenanalyseprojekte in Unternehmen aufgeführt.
Künstliche Intelligenz (KI) kommt laut einer Interxion-Studie bei 96 Prozent der Schweizer Unternehmen zum Einsatz. Allerdings gaben nur 22 Prozent der Schweizer IT-Entscheider an, dass sie KI bereits für einen ersten Anwendungsfall einsetzen. Dabei ist KI etwa im Datenmanagement sehr hilfreich – sofern Qualität und Quantität der Trainingsdaten stimmen.
Im Jahr 2020 sollten für den Zeitungssektor im Rahmen der coronabedingten Neuordnung der Bundesförderungen40 Mio. Euro für die Zustellförderung bereitgestellt werden. Im Rahmen der kontroversen Diskussion um diese direkte staatliche Förderung der Zeitungsbranche wandelte sich die geplante Förderung in ein 220 Mio. Euro-Pogramm zur Unterstützung der digitalen Transformation von Presseverlagen (Deutscher Bundestag 2020c). Im April 2021 erklärte das Bundeswirtschaftsministerium die geplante 220-Millionen-Presseförderung für gescheitert – es wolle das Hilfspaket „nach intensiver Prüfung“ nicht weiterverfolgen. Der vorliegende Beitrag gibt Einblick in die kontroverse Diskussion um die Frage einer direkten staatlichen Pressförderung und stellt sie in den Kontext der wirtschaftlichen und medienpolitischen Kernfrage, „wie sich publizisitsche Inhalte in Zeiten der Disruption etablierter Geschäftsmodelle noch finanzieren lassen“ (Jarren, Künzler & Puppis 2019: 421).
Die Entwicklung der Cyber-Bedrohungslandschaft zwingt Unternehmen zur Auseinandersetzung mit neuen funktionalen Herausforderungen. Da sich die Angriffsoberflächen genauso dynamisch verändern wie die Taktiken und Techniken, sollte die Corporate Governance für ein integratives Cyber-Risikomanagement sorgen, um das Cybersicherheitsmanagement differenziert einzubetten. Dadurch leistet die Corporate Governance einen Beitrag zur Steigerung der Cyber-Resilienz.
Das vermutlich wichtigste Tatbestandsmerkmal der Business Judgment Rule ist das Vorliegen einer angemessenen Informationsgrundlage. Sie gilt dann als erreicht, wenn ein Geschäftsleiter vernünftigerweise annehmen darf, dass die Verbesserung einer gegebenen Informationsqualität den dafür erforderlichen Aufwand an Zeit bzw. Geld nicht rechtfertigt. Implizit wird hierbei vorausgesetzt, dass man verschiedene Ausmaße an Zeit, Geld und Informationsqualität unterscheiden kann. Für den Zeit- und Geldaufwand stimmt das auch, aber wie stuft man die Informationsqualität ab? Im Beitrag wird für prognosebezogene Informationen ein entsprechender Vorschlag gemacht.
Zum Kern der Aufsichtsratstätigkeit gehört die Begutachtung der Qualität wichtiger Vorstandsentscheidungen. Hierbei ist nicht nur zu prüfen, ob es klar formulierte Entscheidungsziele gibt und alternative Handlungsmöglichkeiten in Betracht gezogen wurden. Zu beurteilen ist insbesondere auch die Qualität der Prognosen, auf denen die behaupteten Zielbeeinflussungen basieren. Woran erkennen Aufsichtsräte kritische Prognosen?
JARDIN GLOCAL
(2021)
Das künstlerische Forschungsprojekt DE/GLOBALIZE ist eine medienökologische Suchbewegung nach dem Terrestrischen. Im abschließenden Kapitel JARDIN GLOCAL schwenkt der Fokus von den Matters of Fact in Indien, über Matters of Concern in Ägypten hin zu Matter of Care am Oberrhein. Von Matter, Materie, über Mater, die Mutter-Erde, hin zum Garten – als eine Welt innerhalb von Welten, die einem zu Füßen liegt. Wir verstehen JARDIN GLOCAL als ein Labor, in dem der Mensch mit sich in Beziehung tritt. Ein Ort, der sich zwischen Hu- manisierung und Ausbeutung bewegt; der oft überraschende Gewächse, Eingriffe und Prozesse hervorbringt. Vor allem aber als einen Topos, der besondere Beobachtungen in Gang setzt.
In order to make material design processes more efficient in the future, the underlying multidimensional process parameter spaces must be systematically explored using digitalisation techniques such as machine learning (ML) and digital simulation. In this paper we shortly review essential concepts for the digitalisation of electrodeposition processes with a special focus on chromium plating from trivalent electrolytes.
Smarte Technologien ermöglichen eine engmaschige Kontrolle und Steuerung der Schülerinnen und Schüler. Die entscheidende Frage zu IT in Schulen ist daher: Folgen wir der Logik der technischen Systeme oder besinnen wir uns auf den pädagogischen Auftrag der Erziehung zu Mündigkeit und Selbstverantwortung?
Objective: To identify and evaluate the evidence of the most relevant running-related risk factors (RRRFs) for running-related overuse injuries (ROIs) and to suggest future research directions.
Design: Systematic review considering prospective and retrospective studies. (PROSPERO_ID: 236832)
Data sources: Pubmed. Connected Papers. The search was performed in February 2021.
Eligibility criteria: English language. Studies on participants whose primary sport is running addressing the risk for the seven most common ROIs and at least one kinematic, kinetic (including pressure measurements), or electromyographic RRRF. An RRRF needed to be identified in at least one prospective or two retrospective studies.
Results: Sixty-two articles fulfilled our eligibility criteria. Levels of evidence for specific ROIs ranged from conflicting to moderate evidence. Running populations and methods applied varied considerably between studies. While some RRRFs appeared for several ROIs, most RRRFs were specific for a particular ROI. The biomechanical measurements performed in many studies would have allowed for consideration of many more RRRFs than have been reported, highlighting a potential for more effective data usage in the future.
Conclusion: This study offers a comprehensive overview of RRRFs for the most common ROIs, which might serve as a starting point to develop ROI-specific risk profiles of individual runners. Future work should use macroscopic (big data) approaches involving long-term data collections in the real world and microscopic approaches involving precise stress calculations using recent developments in biomechanical modelling. However, consensus on data collection standards (including the quantification of workload and stress tolerance variables and the reporting of injuries) is warranted.
Über zwei Jahrzehnte hat sich an der Hochschule Offenburg im Umfeld von Professor Elmar Bollin eine Forschungsgruppe etabliert, die die Bereiche Gebäudeautomation und nachhaltige Energietechnik zusammenführten. Anfänglich ging es darum die Potenziale der internetbasierten Wetterprognostik und modell-basierten Anlagensteuerung für die Verbesserung des Komforts und der Energieeffizienz im Gebäude zu nutzen. Im Rahmen von Forschungs- und Entwicklungsarbeiten mit Einsatz von dynamischen Gebäudesimulationen konnte schließlich ein Algorithmus gefunden werden, der es ermöglichte auf Basis von prognostizierter Außentemperatur und Sonneneinstrahlung den Energiebedarf eines Bürogebäudes für den Folgetag vorherzusagen. In Verbindung mit der Gebäudeautomation entstand so die adaptive und prädiktive TABS-Steuerung AMLR.
Über zwei Jahrzehnte hat sich an der Hochschule Offenburg eine Forschungsgruppe etabliert, die die beiden Bereiche Gebäudeautomation und nachhaltige Energietechnik zusammenführte. Anfangs ging es darum, Potentiale der internetbasierten Wetterprognostik und modell-basierten Anlagensteuerung für die Verbesserung des Komforts und der Energieeffizienz im Gebäude zu nutzen. Im Rahmen von Forschungs- und Entwicklungsarbeiten mit Einsatz von dynamischen Gebäudesimulationen konnte ein Algorithmus gefunden werden, der es ermöglichte auf Basis von prognostizierter Außentemperatur und Sonneneinstrahlung den Energiebedarf eines Bürogebäudes für den Folgetag vorherzusagen. In Verbindung mit der Gebäudeautomation entstand so die adaptive und prädiktive TABS-Steuerung AMLR.
In the modern knowledge-based and digital economy, the value of knowledge is growing relative to other assets and new intellectual property is being created at an ever-increasing rate. Therefore, the ability to find non-trivial solutions, systematically generate new concepts, and create intellectual property rapidly become crucial to achieving competitive advantage and leveraging the intellectual potential of organizations.
Im Archiv für Kriminologie wurden bislang drei Arbeiten zur 3-D-CAD-Rekonstruktion der ersten "Eisernen Hand" des berühmten Reichsritters Gottfried ("Götz") von Berlichingen (1480-1562) vorgestellt. Mittlerweile sind einige neue Gesichtspunkte herausgearbeitet worden, die hier kurz als Ergänzung mitgeteilt werden sollen.
With economic weight shifting toward net zero, now is the time for ECAs, Exim-Banks, and PRIs to lead. Despite previous success, aligning global economic governance to climate goals requires additional activities across export finance and investment insurance institutions. The new research project initiated by Oxford University, ClimateWorks Foundation, and Mission 2020 including other practitioners and academics from institutions such as Atradius DSB, Columbia University, EDC, FMO and Offenburg University focuses on reshaping future trade and investment governance in light of climate action. The idea of a ‘Berne Union Net Zero Club’ is an important item in a potential package of reforms. This can include realigning mandates and corporate strategies, principles of intervention, as well as ECA, Exim-Bank and PRI operating models in order to accelerate net zero transformation. Full transparency regarding Berne Union members’ activities would be an excellent starting point. We invite all interested parties in the sector to come together to chart our own path to net zero
The term attribute transfer refers to the tasks of altering images in such a way, that the semantic interpretation of a given input image is shifted towards an intended direction, which is quantified by semantic attributes. Prominent example applications are photo realistic changes of facial features and expressions, like changing the hair color, adding a smile, enlarging the nose or altering the entire context of a scene, like transforming a summer landscape into a winter panorama. Recent advances in attribute transfer are mostly based on generative deep neural networks, using various techniques to manipulate images in the latent space of the generator.
In this paper, we present a novel method for the common sub-task of local attribute transfers, where only parts of a face have to be altered in order to achieve semantic changes (e.g. removing a mustache). In contrast to previous methods, where such local changes have been implemented by generating new (global) images, we propose to formulate local attribute transfers as an inpainting problem. Removing and regenerating only parts of images, our Attribute Transfer Inpainting Generative Adversarial Network (ATI-GAN) is able to utilize local context information to focus on the attributes while keeping the background unmodified resulting in visually sound results.
Generative adversarial networks (GANs) provide state-of-the-art results in image generation. However, despite being so powerful, they still remain very challenging to train. This is in particular caused by their highly non-convex optimization space leading to a number of instabilities. Among them, mode collapse stands out as one of the most daunting ones. This undesirable event occurs when the model can only fit a few modes of the data distribution, while ignoring the majority of them. In this work, we combat mode collapse using second-order gradient information. To do so, we analyse the loss surface through its Hessian eigenvalues, and show that mode collapse is related to the convergence towards sharp minima. In particular, we observe how the eigenvalues of the G are directly correlated with the occurrence of mode collapse. Finally, motivated by these findings, we design a new optimization algorithm called nudged-Adam (NuGAN) that uses spectral information to overcome mode collapse, leading to empirically more stable convergence properties.
Multiple Object Tracking (MOT) is a long-standing task in computer vision. Current approaches based on the tracking by detection paradigm either require some sort of domain knowledge or supervision to associate data correctly into tracks. In this work, we present an unsupervised multiple object tracking approach based on visual features and minimum cost lifted multicuts. Our method is based on straight-forward spatio-temporal cues that can be extracted from neighboring frames in an image sequences without superivison. Clustering based on these cues enables us to learn the required appearance invariances for the tracking task at hand and train an autoencoder to generate suitable latent representation. Thus, the resulting latent representations can serve as robust appearance cues for tracking even over large temporal distances where no reliable spatio-temporal features could be extracted. We show that, despite being trained without using the provided annotations, our model provides competitive results on the challenging MOT Benchmark for pedestrian tracking.
We introduce an open source python framework named PHS-Parallel Hyperparameter Search to enable hyperparameter optimization on numerous compute instances of any arbitrary python function. This is achieved with minimal modifications inside the target function. Possible applications appear in expensive to evaluate numerical computations which strongly depend on hyperparameters such as machine learning. Bayesian optimization is chosen as a sample efficient method to propose the next query set of parameters.
Anmerkung zu ArbG Düsseldorf v. 5.3.2020 – 9 Ca 6557/18 – nicht rechtskräftig
Das ArbG Düsseldorf hat einem ehemaligen Arbeitnehmer einen immateriellen Schadensersatz von 5 000 Euro wegen einer verspäteten und teilweise unrichtigen datenschutzrechtlichen Auskunft seitens seines vormaligen Arbeitgebers zugesprochen. Der Beitrag setzt sich mit dieser Entscheidung grundsätzlich auseinander.
Unternehmerische Entscheidungen sind im Regelfall riskant. Um das Ausmaß des Risikos deutlich zu machen, hat sich in der Praxis die Anfertigung von Szenarioanalysen durchgesetzt. Damit jedoch werden vorliegende Risiken systematisch unterschätzt. Bei wichtigen Entscheidungen sollte besser eine Sensitivitätsanalyse oder eine Simulation durchgeführt werden.
Beinahe jeder Online-Anbieter wünscht sich ausgiebiges Feedback, also möglichst viele Produktbewertungen, Likes u.Ä. Denn Feedback erzeugt Popularität und diese wiederum bringt neue Kunden. Die lauterkeitsrechtlichen Probleme von Incentives zur Steigerung der Feedback-Rate sind Thema dieses Beitrags.
… nicht nur in der Energiewirtschaft, sondern auch im positiven und wahrsten Sinne des Wortes in der Fachgruppe PM Windenergie. In über 40 Jahren GPM wurde immer wieder deutlich, dass Projekte und Programme in Wirtschaft und Gesellschaft nicht nur begleitet, sondern auch aus der GPM heraus mitgestaltet werden. Die Entwicklung und die Ergebnisse der Fachgruppe Windenergie machen dies besonders deutlich.