Refine
Year of publication
Document Type
- Article (unreviewed) (558) (remove)
Has Fulltext
- no (558) (remove)
Is part of the Bibliography
- yes (558)
Keywords
- Schule (10)
- Bildung (8)
- Arbeitszeugnis (7)
- Digitalisierung (6)
- Energieversorgung (6)
- Export (6)
- Nachhaltigkeit (6)
- Recht (6)
- Datenschutz (5)
- Dünnschichtchromatographie (5)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (188)
- Fakultät Wirtschaft (W) (117)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (96)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (94)
- Fakultät Medien (M) (ab 22.04.2021) (33)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (27)
- INES - Institut für nachhaltige Energiesysteme (20)
- IMLA - Institute for Machine Learning and Analytics (16)
- IfTI - Institute for Trade and Innovation (13)
- IUAS - Institute for Unmanned Aerial Systems (4)
Open Access
- Closed Access (156)
- Open Access (125)
- Closed (70)
- Diamond (16)
- Bronze (14)
- Gold (1)
- Hybrid (1)
Die Weltwirtschaftskrise 2008 hat mit ihrer zeitweisen Verknappung von Acetonitril eindringlich gezeigt, dass man nicht nur auf eine einzige chromatographische Methode setzten sollte. Genau dies wird aber im Augenblick getan, denn Industrie und Forschung setzen mehrheitlich auf die High Performance Liquid Chromatography (HPLC) als die Trennmethode ihrer Wahl. Für viele Anwendungen in der Pharmazie, in der Umweltanalytik, der Lebensmittelanalytik, aber auch in der Inprozesskontrolle gibt es mit der Dünnschichtchromatografie eine Alternative.
Dos and Don’ts im Dashboard-Design: Wie Eyetracking-Verfahren bei der Datenvisualisierung helfen
(2016)
Assessing the robustness of deep neural networks against out-of-distribution inputs is crucial, especially in safety-critical domains like autonomous driving, but also in safety systems where malicious actors can digitally alter inputs to circumvent safety guards. However, designing effective out-of-distribution tests that encompass all possible scenarios while preserving accurate label information is a challenging task. Existing methodologies often entail a compromise between variety and constraint levels for attacks and sometimes even both. In a first step towards a more holistic robustness evaluation of image classification models, we introduce an attack method based on image solarization that is conceptually straightforward yet avoids jeopardizing the global structure of natural images independent of the intensity. Through comprehensive evaluations of multiple ImageNet models, we demonstrate the attack's capacity to degrade accuracy significantly, provided it is not integrated into the training augmentations. Interestingly, even then, no full immunity to accuracy deterioration is achieved. In other settings, the attack can often be simplified into a black-box attack with model-independent parameters. Defenses against other corruptions do not consistently extend to be effective against our specific attack.
Project website: https://github.com/paulgavrikov/adversarial_solarization