Refine
Year of publication
Document Type
- Article (unreviewed) (566) (remove)
Is part of the Bibliography
- yes (566) (remove)
Keywords
- Schule (11)
- Bildung (8)
- Arbeitszeugnis (7)
- Export (7)
- Digitalisierung (6)
- Energieversorgung (6)
- Nachhaltigkeit (6)
- Recht (6)
- Datenschutz (5)
- Dünnschichtchromatographie (5)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (189)
- Fakultät Wirtschaft (W) (120)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (97)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (95)
- Fakultät Medien (M) (ab 22.04.2021) (35)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (27)
- INES - Institut für nachhaltige Energiesysteme (21)
- IMLA - Institute for Machine Learning and Analytics (16)
- IfTI - Institute for Trade and Innovation (13)
- IUAS - Institute for Unmanned Aerial Systems (4)
- Zentrale Einrichtungen (4)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (4)
- ACI - Affective and Cognitive Institute (3)
- IBMS - Institute for Advanced Biomechanics and Motion Studies (ab 16.11.2022) (2)
- CRT - Campus Research & Transfer (1)
- WLRI - Work-Life Robotics Institute (1)
Open Access
- Closed Access (156)
- Open Access (131)
- Closed (71)
- Diamond (17)
- Bronze (15)
- Gold (1)
- Grün (1)
- Hybrid (1)
Projektmanagement und mit ihm die PM-Prozesse, Methoden und Werkzeuge entwickeln sich stetig weiter, in kleinen, kaum spürbaren Schritten oder in großen unübersehbaren Veränderungen. In den letzten Jahren war der Diskurs über das Pro & Contra agiler Vorgehensweisen so allgegenwärtig, dass andere Aspekte nicht immer die notwendige Aufmerksamkeit bekamen. Erkannte Notwendigkeiten der PM-Entwicklung konnten noch nicht in spürbare Fortschritte umgewandelt werden. Einflüsse der Globalisierung und der IT, aber auch die aus der zunehmenden Forderung nach Nachhaltigkeit resultierenden Veränderungen in der Projektarbeit sollen daher genauer betrachtet werden. Ist erst einmal die Sensibilität für relevante Trends beim Projektpersonal geschaffen, rücken ein aktualisiertes Kompetenzprofil und ein erweiterter Methodenkanon in greifbare Nähe.
Das Zeitalter der Digitalisierung ist geprägt durch einen erhöhten Wettbewerb. Eine Chance, bei steigendem Wettbewerb erfolgreich zu bestehen, liegt daher nur in der durchgängigen Digitalisierung von Produktionsunternehmen. Dieser Beitrag stellt eine dreistufige generische Unternehmensmodellplattform Industrie 4.0 vor, die die Durchgängigkeit von Prozessen vom Kunden bis zum Lieferanten auf allen Unternehmensebenen in den Mittelpunkt stellt. Die Schritte zur Bewertung und Gestaltung des Fortschritts auf dem Weg zum digitalisierten Produktionsunternehmen werden aufgezeigt.
Die fortschreitende Digitalisierung der Schulen macht es möglich, die Lerndaten der Schülerinnen und Schüler in einer zentralen Cloud zu speichern. Die Befürworter versprechen sich davon eine bessere individuelle Förderung und fordern eine bundesweite Lösung, um möglichst viele Daten auswerten zu können. Die Gegner befürchten eine automatisierte Steuerung des Lernens.
CNN-based deep learning models for disease detection have become popular recently. We compared the binary classification performance of eight prominent deep learning models: DenseNet 121, DenseNet 169, DenseNet 201, EffecientNet b0, EffecientNet lite4, GoogleNet, MobileNet, and ResNet18 for their binary classification performance on combined Pulmonary Chest Xrays dataset. Despite the widespread application in different fields in medical images, there remains a knowledge gap in determining their relative performance when applied to the same dataset, a gap this study aimed to address. The dataset combined Shenzhen, China (CH) and Montgomery, USA (MC) data. We trained our model for binary classification, calculated different parameters of the mentioned models, and compared them. The models were trained to keep in mind all following the same training parameters to maintain a controlled comparison environment. End of the study, we found a distinct difference in performance among the other models when applied to the pulmonary chest Xray image dataset, where DenseNet169 performed with 89.38 percent and MobileNet with 92.2 percent precision.
The COVID19 pandemic, a unique and devastating respiratory disease outbreak, has affected global populations as the disease spreads rapidly. Recent Deep Learning breakthroughs may improve COVID19 prediction and forecasting as a tool of precise and fast detection, however, current methods are still being examined to achieve higher accuracy and precision. This study analyzed the collection contained 8055 CT image samples, 5427 of which were COVID cases and 2628 non COVID. The 9544 Xray samples included 4044 COVID patients and 5500 non COVID cases. The most accurate models are MobileNet V3 (97.872 percent), DenseNet201 (97.567 percent), and GoogleNet Inception V1 (97.643 percent). High accuracy indicates that these models can make many accurate predictions, as well as others, are also high for MobileNetV3 and DenseNet201. An extensive evaluation using accuracy, precision, and recall allows a comprehensive comparison to improve predictive models by combining loss optimization with scalable batch normalization in this study. Our analysis shows that these tactics improve model performance and resilience for advancing COVID19 prediction and detection and shows how Deep Learning can improve disease handling. The methods we suggest would strengthen healthcare systems, policymakers, and researchers to make educated decisions to reduce COVID19 and other contagious diseases.
This paper presents the new Deep Reinforcement Learning (DRL) library RL-X and its application to the RoboCup Soccer Simulation 3D League and classic DRL benchmarks. RL-X provides a flexible and easy-to-extend codebase with self-contained single directory algorithms. Through the fast JAX-based implementations, RL-X can reach up to 4.5x speedups compared to well-known frameworks like Stable-Baselines3.
With the rising necessity of explainable artificial intelligence (XAI), we see an increase in task-dependent XAI methods on varying abstraction levels. XAI techniques on a global level explain model behavior and on a local level explain sample predictions. We propose a visual analytics workflow to support seamless transitions between global and local explanations, focusing on attributions and counterfactuals on time series classification. In particular, we adapt local XAI techniques (attributions) that are developed for traditional datasets (images, text) to analyze time series classification, a data type that is typically less intelligible to humans. To generate a global overview, we apply local attribution methods to the data, creating explanations for the whole dataset. These explanations are projected onto two dimensions, depicting model behavior trends, strategies, and decision boundaries. To further inspect the model decision-making as well as potential data errors, a what-if analysis facilitates hypothesis generation and verification on both the global and local levels. We constantly collected and incorporated expert user feedback, as well as insights based on their domain knowledge, resulting in a tailored analysis workflow and system that tightly integrates time series transformations into explanations. Lastly, we present three use cases, verifying that our technique enables users to (1)~explore data transformations and feature relevance, (2)~identify model behavior and decision boundaries, as well as, (3)~the reason for misclassifications.
Modern CNNs are learning the weights of vast numbers of convolutional operators. In this paper, we raise the fundamental question if this is actually necessary. We show that even in the extreme case of only randomly initializing and never updating spatial filters, certain CNN architectures can be trained to surpass the accuracy of standard training. By reinterpreting the notion of pointwise ($1\times 1$) convolutions as an operator to learn linear combinations (LC) of frozen (random) spatial filters, we are able to analyze these effects and propose a generic LC convolution block that allows tuning of the linear combination rate. Empirically, we show that this approach not only allows us to reach high test accuracies on CIFAR and ImageNet but also has favorable properties regarding model robustness, generalization, sparsity, and the total number of necessary weights. Additionally, we propose a novel weight sharing mechanism, which allows sharing of a single weight tensor between all spatial convolution layers to massively reduce the number of weights.
During pyrolysis, biomass is carbonised in the absence of oxygen to produce biochar with heat and/or electricity as co-products making pyrolysis one of the promising negative emission technologies to reach climate goals worldwide. This paper presents a simplified representation of pyrolysis and analyses the impact of this technology on the energy system. Results show that the use of pyrolysis can allow getting zero emissions with lower costs by making changes in the unit commitment of the power plants, e.g. conventional power plants are used differently, as the emissions will be compensated by biochar. Additionally, the process of pyrolysis can enhance the flexibility of energy systems, as it shows a correlation between the electricity generated by pyrolysis and the hydrogen installation capacity, being hydrogen used less when pyrolysis appears. The results indicate that pyrolysis, which is available on the market, integrates well into the energy system with a promising potential to sequester carbon.
Socially assistive robots (SARs) are becoming more prevalent in everyday life, emphasizing the need to make them socially acceptable and aligned with users' expectations. Robots' appearance impacts users' behaviors and attitudes towards them. Therefore, product designers choose visual qualities to give the robot a character and to imply its functionality and personality. In this work, we sought to investigate the effect of cultural differences on Israeli and German designers' perceptions and preferences regarding the suitable visual qualities of SARs in four different contexts: a service robot for an assisted living/retirement residence facility, a medical assistant robot for a hospital environment, a COVID-19 officer robot, and a personal assistant robot for domestic use. Our results indicate that Israeli and German designers share similar perceptions of visual qualities and most of the robotics roles. However, we found differences in the perception of the COVID-19 officer robot's role and, by that, its most suitable visual design. This work indicates that context and culture play a role in users' perceptions and expectations; therefore, they should be taken into account when designing new SARs for diverse contexts.
Recent advances in spiked shoe design, characterized by increased longitudinal stiffness, thicker midsole foams, and reconfigured geometry are considered to improve sprint performance. However, so far there is no empirical data on the effects of advanced spikes technology on maximal sprinting speed (MSS) published yet. Consequently, we assessed MSS via ‘flying 30m’ sprints of 44 trained male (PR: 10.32 s - 12.08 s) and female (PR: 11.56 s - 14.18 s) athletes, wearing both traditional and advanced spikes in a randomized, repeated measures design. The results revealed a statistically significant increase in MSS by 1.21% on average when using advanced spikes technology. Notably, 87% of participants showed improved MSS with the use of advanced spikes. A cluster analysis unveiled that athletes with higher MSS may benefit to a greater extent. However, individual responses varied widely, suggesting the influence of multiple factors that need detailed exploration. Therefore, coaches and athletes are advised to interpret the promising performance enhancements cautiously and evaluate the appropriateness of the advanced spike technology for their athletes critically.
High-tech running shoes and spikes ("super-footwear") are currently being debated in sports. There is direct evidence that distance running super shoes improve running economy; however, it is not well established to which extent world-class performances are affected over the range of track and road running events.
This study examined publicly available performance datasets of annual best track and road performances for evidence of potential systematic performance effects following the introduction of super footwear. The analysis was based on the 100 best performances per year for men and women in outdoor events from 2010 to 2022, provided by the world governing body of athletics (World Athletics).
We found evidence of progressing improvements in track and road running performances after the introduction of super distance running shoes in 2016 and super spike technology in 2019. This evidence is more pronounced for distances longer than 1500 m in women and longer than 5000 m in men. Women seem to benefit more from super footwear in distance running events than men.
While the observational study design limits causal inference, this study provides a database on potential systematic performance effects following the introduction of super shoes/spikes in track and road running events in world-class athletes. Further research is needed to examine the underlying mechanisms and, in particular, potential sex differences in the performance effects of super footwear.
Following the traditional paradigm of convolutional neural networks (CNNs), modern CNNs manage to keep pace with more recent, for example transformer-based, models by not only increasing model depth and width but also the kernel size. This results in large amounts of learnable model parameters that need to be handled during training. While following the convolutional paradigm with the according spatial inductive bias, we question the significance of \emph{learned} convolution filters. In fact, our findings demonstrate that many contemporary CNN architectures can achieve high test accuracies without ever updating randomly initialized (spatial) convolution filters. Instead, simple linear combinations (implemented through efficient 1×1 convolutions) suffice to effectively recombine even random filters into expressive network operators. Furthermore, these combinations of random filters can implicitly regularize the resulting operations, mitigating overfitting and enhancing overall performance and robustness. Conversely, retaining the ability to learn filter updates can impair network performance. Lastly, although we only observe relatively small gains from learning 3×3 convolutions, the learning gains increase proportionally with kernel size, owing to the non-idealities of the independent and identically distributed (\textit{i.i.d.}) nature of default initialization techniques.
We have developed a methodology for the systematic generation of a large image dataset of macerated wood references, which we used to generate image data for nine hardwood genera. This is the basis for a substantial approach to automate, for the first time, the identification of hardwood species in microscopic images of fibrous materials by deep learning. Our methodology includes a flexible pipeline for easy annotation of vessel elements. We compare the performance of different neural network architectures and hyperparameters. Our proposed method performs similarly well to human experts. In the future, this will improve controls on global wood fiber product flows to protect forests.
State-of-the-art models for pixel-wise prediction tasks such as image restoration, image segmentation, or disparity estimation, involve several stages of data resampling, in which the resolution of feature maps is first reduced to aggregate information and then sequentially increased to generate a high-resolution output. Several previous works have investigated the effect of artifacts that are invoked during downsampling and diverse cures have been proposed that facilitate to improve prediction stability and even robustness for image classification. However, equally relevant, artifacts that arise during upsampling have been less discussed. This is significantly relevant as upsampling and downsampling approaches face fundamentally different challenges. While during downsampling, aliases and artifacts can be reduced by blurring feature maps, the emergence of fine details is crucial during upsampling. Blurring is therefore not an option and dedicated operations need to be considered. In this work, we are the first to explore the relevance of context during upsampling by employing convolutional upsampling operations with increasing kernel size while keeping the encoder unchanged. We find that increased kernel sizes can in general improve the prediction stability in tasks such as image restoration or image segmentation, while a block that allows for a combination of small-size kernels for fine details and large-size kernels for artifact removal and increased context yields the best results.
Fix your downsampling ASAP! Be natively more robust via Aliasing and Spectral Artifact free Pooling
(2023)
Convolutional neural networks encode images through a sequence of convolutions, normalizations and non-linearities as well as downsampling operations into potentially strong semantic embeddings. Yet, previous work showed that even slight mistakes during sampling, leading to aliasing, can be directly attributed to the networks' lack in robustness. To address such issues and facilitate simpler and faster adversarial training, [12] recently proposed FLC pooling, a method for provably alias-free downsampling - in theory. In this work, we conduct a further analysis through the lens of signal processing and find that such current pooling methods, which address aliasing in the frequency domain, are still prone to spectral leakage artifacts. Hence, we propose aliasing and spectral artifact-free pooling, short ASAP. While only introducing a few modifications to FLC pooling, networks using ASAP as downsampling method exhibit higher native robustness against common corruptions, a property that FLC pooling was missing. ASAP also increases native robustness against adversarial attacks on high and low resolution data while maintaining similar clean accuracy or even outperforming the baseline.
Motivated by the recent trend towards the usage of larger receptive fields for more context-aware neural networks in vision applications, we aim to investigate how large these receptive fields really need to be. To facilitate such study, several challenges need to be addressed, most importantly: (i) We need to provide an effective way for models to learn large filters (potentially as large as the input data) without increasing their memory consumption during training or inference, (ii) the study of filter sizes has to be decoupled from other effects such as the network width or number of learnable parameters, and (iii) the employed convolution operation should be a plug-and-play module that can replace any conventional convolution in a Convolutional Neural Network (CNN) and allow for an efficient implementation in current frameworks. To facilitate such models, we propose to learn not spatial but frequency representations of filter weights as neural implicit functions, such that even infinitely large filters can be parameterized by only a few learnable weights. The resulting neural implicit frequency CNNs are the first models to achieve results on par with the state-of-the-art on large image classification benchmarks while executing convolutions solely in the frequency domain and can be employed within any CNN architecture. They allow us to provide an extensive analysis of the learned receptive fields. Interestingly, our analysis shows that, although the proposed networks could learn very large convolution kernels, the learned filters practically translate into well-localized and relatively small convolution kernels in the spatial domain.
Assessing the robustness of deep neural networks against out-of-distribution inputs is crucial, especially in safety-critical domains like autonomous driving, but also in safety systems where malicious actors can digitally alter inputs to circumvent safety guards. However, designing effective out-of-distribution tests that encompass all possible scenarios while preserving accurate label information is a challenging task. Existing methodologies often entail a compromise between variety and constraint levels for attacks and sometimes even both. In a first step towards a more holistic robustness evaluation of image classification models, we introduce an attack method based on image solarization that is conceptually straightforward yet avoids jeopardizing the global structure of natural images independent of the intensity. Through comprehensive evaluations of multiple ImageNet models, we demonstrate the attack's capacity to degrade accuracy significantly, provided it is not integrated into the training augmentations. Interestingly, even then, no full immunity to accuracy deterioration is achieved. In other settings, the attack can often be simplified into a black-box attack with model-independent parameters. Defenses against other corruptions do not consistently extend to be effective against our specific attack.
Project website: https://github.com/paulgavrikov/adversarial_solarization
Entity Matching (EM) defines the task of learning to group objects by transferring semantic concepts from example groups (=entities) to unseen data. Despite the general availability of image data in the context of many EM-problems, most currently available EM-algorithms solely rely on (textual) meta data. In this paper, we introduce the first publicly available large-scale dataset for "visual entity matching", based on a production level use case in the retail domain. Using scanned advertisement leaflets, collected over several years from different European retailers, we provide a total of ~786k manually annotated, high resolution product images containing ~18k different individual retail products which are grouped into ~3k entities. The annotation of these product entities is based on a price comparison task, where each entity forms an equivalence class of comparable products. Following on a first baseline evaluation, we show that the proposed "visual entity matching" constitutes a novel learning problem which can not sufficiently be solved using standard image based classification and retrieval algorithms. Instead, novel approaches which allow to transfer example based visual equivalent classes to new data are needed to address the proposed problem. The aim of this paper is to provide a benchmark for such algorithms.
Information about the dataset, evaluation code and download instructions are provided under https://www.retail-786k.org/.
Wirtschaftliche Krisenzeiten implizieren häufig Liquiditätsengpässe und bei kompletter Zahlungsunfähigkeit auch Insolvenzen. Das Instrument des Working Capital Management hilft bei der schnelleren Freisetzung von gebundenem Kapital. Sofern ein datengetriebenes Management unter Einsatz von Business-Analytics-Techniken und mit der dafür notwendigen technisch-organisatorischen Infrastruktur eingesetzt wird, entstehen neue Möglichkeiten von Einsichten in die Prozesslandschaft und die Optimierung von Durchlaufzeiten. Das Ziel ist der Aufbau eines Working-Capital- Analytics-Ansatzes.
Elektrische Wärmepumpen sind eine Schlüsseltechnologie für klimafreundliche Gebäude. In Mehrfamilienhäusern ist ihr Einsatz noch eine Herausforderung und entsprechend wenig verbreitet. Im Rahmen des Verbundprojekts "HEAVEN" haben Forschende nun ein Mehrquellen-Wärmepumpensystem entwickelt, das an die Anforderungen größerer Wohngebäude angepasst ist. Getestet wurde es im Rahmen des Verbundprojekts "Smartes Quartier Durlach" in einem Karlsruher Gebäude. Daten zum ersten Betriebsjahr liegen nun vor.
Diese Metadaten wurden zur Verfügung gestellt von der Literaturdatenbank RSWB®plus
Wärmepumpen sind eine Schlüsseltechnologie der Wärmewende. Durch die Nutzbarmachung von Umweltwärme und den Antrieb mit Elektrizität, die zunehmend aus erneuerbaren Energien gewonnen wird, kann die CO2-Intensität der Wärmeversorgung gesenkt werden. Eine Herausforderung besteht in der Anwendung in größeren Mehrfamilienbestandsgebäuden. Lösungsansätze und beispielhafte Umsetzungen werden hierzu vorgestellt.
In Zeiten großer Veränderungen haben genossenschaftlich organisierte KMU die Möglichkeit, auf komplexe Herausforderungen mit kooperativen Lösungsansätzen zu reagieren, vor allem wenn dabei die Kraft und Kreativität der Gemeinschaft genutzt wird. Getreu dem Motto „Was einer alleine nicht schafft, das schaffen viele“ des Genossenschaftsvorreiters Friedrich Wilhelm Raiffeisen ist gemeinschaftliches unternehmerisches Handeln identitätsstiftend und motivierend, woraus wiederum eine sich selbst verstärkende Eigendynamik entstehen kann. Wie Mittelstand, Politik und Gesellschaft davon profitieren, stellen Prof. Dr. Tobias Popovic und Prof. Dr. Thomas Baumgärtler in diesem Beitrag dar.
IT-Governance
(2023)
Die Dynamik der technologischen Entwicklungen übt einen großen Druck auf die Leitungs- und Überwachungsorgane eines Unternehmens aus. Die Hyperkonnektivität impliziert, dass die interne IT und OT Anknüpfungspunkte an den externen Kontext besitzen, wodurch die Komplexität aufgrund eines Nebeneinanders einer Vielzahl von Hard- und Software exponentiell steigt. Die gesetzlichen Notwendigkeiten zusammen mit den geschäftspolitischen Anforderungen sollten zur Überlegung führen, eine IT-Governance im Unternehmen zu etablieren. Das System der Wahl und die Dichte der Regulierung ist den Verantwortlichen unter Berücksichtigung des Unternehmensinteresses überlassen, lautete das Fazit des ersten Teils des Beitrags (ZCG 4/23). Im zweiten Teil werden nun konkret die ISO Standards 38500 et al. als eine Möglichkeit zur Umsetzung näher betrachtet. Dabei geht es um die einzelnen Komponenten in Form der zehn zur Verfügung stehenden Standards und deren integrative Top-Down-Gestaltung. Es zeigt sich, dass Themen wie die Daten-Governance und die KI-Governance ausreichend Berücksichtigung finden.
IT-Governance (Teil 1)
(2023)
Unabhängig von den gelieferten Ergebnissen hat ChatGPT die KI-Anwendungen auf ein neues Level gehoben. Aber auch digitalwirtschaftliche Geschäftsmodelle wie Ökosystem-Plattformen verändern die Art und Weise des Wirtschaftens. Eine Rahmung mittels einer IT-Governance wird dadurch nicht nur erforderlich, sondern bietet eine große Chance, die exponentiellen Entwicklungen strukturiert angehen und begleiten zu können. Ausgehend vom Deutschen Corporate Governance Kodex (DCGK) beleuchtet der erste Teil den Bezug dazu.
Sofern ein Rahmenwerk für den risikoorientierten Umgang mit Ransomware-Angriffen existiert, sollten die Verantwortlichen in Unternehmen darauf zurückgreifen und in die unternehmensweite Systematik einbetten. Das ermöglicht die Steuerung und das Management von Risiken, die zuvor von hoher Unsicherheit geprägt waren und Organisationen unerwartet treffen. Ferner ist zu berücksichtigen, dass das Social Engineering eine bedeutende Rolle bei der Lieferung von schadhafter Software spielt und frühzeitig in den Analyseprozess einzubeziehen ist.
Die moderne Erpressung von Unternehmen nach erfolgreichen Ransomware-Attacken ist sowohl ein monetäres als auch nicht-monetäres Problem. Angreifende erhalten über einen initialen, häufig menschlichen Endpunkt Zugang zur Organisation und können die Schadsoftware platzieren. Die beiden Angriffsvektoren Social Engineering und Ransomware nutzen die organisatorischen und technischen Schwachstellen, um auf diverse Vermögensgegenstände zuzugreifen. In diesem ersten Beitrag der zweiteiligen Serie wird das Verständnis für dieses Vorgehen entwickelt.
Ausreißer in Datenreihen geben einen Hinweis auf mögliche Risiken. Die empirischen Daten bestimmen weitestgehend die anzuwendenden Methoden. Dabei helfen Klassifikationssysteme, um zielorientiert zu einer Auswahl gelangen zu können. Die einfachste Form bilden univariate Datenreihen, deren Ausreißer mittels Häufigkeitsverteilungen, Konfidenzintervalle um den Mittelwert und Boxplots bestimmt werden.
The mathematical representations of data in the Spherical Harmonic (SH) domain has recently regained increasing interest in the machine learning community. This technical report gives an in-depth introduction to the theoretical foundation and practical implementation of SH representations, summarizing works on rotation invariant and equivariant features, as well as convolutions and exact correlations of signals on spheres. In extension, these methods are then generalized from scalar SH representations to Vectorial Harmonics (VH), providing the same capabilities for 3d vector fields on spheres.
In an extensive research project, we have assessed the application of different service models by export credit agencies (ECAs) and export-import banks (EXIMs). We conducted interviews with 35 representatives of ECAs and EXIMs from 27 countries. The question guiding this study is: How do ECAs and EXIMs adopt public service models for supporting exporters? We conducted a holistic multiple case study, investigating if and how these organisations apply public service models developed by Schedler and Guenduez, and which roles of the state are relevant. We find that there is a variety of different service models used by ECAs and EXIMs, and that the service model approaches have great potential to learn from each other and innovate existing services.
Wissenschaftler treten als Berater auf und nehmen nicht nur Einfluss auf wirtschaftliche, sondern auch auf politische Entscheidungen. Welche Anforderungen sind an diese Art der Entscheidungsunterstützung zu stellen? Lassen sich für Wissenschaftler zulässige und unzulässige Einflussmöglichkeiten identifizieren? Der Beitrag beantwortet diese Frage unter Rückgriff auf Erkenntnisse aus Soziologie und Entscheidungslehre.
Staatliche Exportkreditagenturen und Export-Import-Banken finanzieren, versichern und garantieren jährlich fast 1 Bio. US-Dollar – mehr als 3 % der globalen Güterexporte. Ihre Interventionen sind an internationale Rahmenbedingungen gebunden, insbesondere an das WTO-Subventionsübereinkommen (ASCM) und den OECD-Konsensus. Das komplexe Zusammenspiel beider Rechtsrahmen sorgt seit langem für Herausforderungen, vor allem hinsichtlich des Anwendungsbereichs des “safe haven” des ASCM und des “Matching”-Mechanismus der OECD. In den vergangenen Jahren hinzugekommen ist die Problematik neuer Instrumente der Exportvor- sowie der Klimafinanzierung. Der folgende Beitrag erörtert Herausforderungen und Lösungsansätze. Er zeigt auf, dass der neue OECD-Konsensus trotz zahlreicher Verbesserungen zentrale rechtliche Probleme nicht behebt.
This article provides an overview of the legal framework for website marketing. The presentation of the numerous legal provisions, which are spread over several areas of law, is oriented towards business challenges and measures. After placing the website in the context of marketing, the article focuses on the legal framework relating to the establishment, design and operation of a website. If, in addition to its communication function, a website also has a sales function, i. e. in e-commerce (online trade), additional specific legal conditions must be taken into account.
Seit mehr als 40 Jahren wiederholen sich Diskussionen und Kontroversen über Sinn und Unsinn von Informationstechnik (IT) in Bildungseinrichtungen. Wurde bislang über das Arbeiten an und mit PC, Laptop oder Tablet debattiert, drehen sich aktuelle Diskussionen verstärkt um netzbasierte Anwendungen mit Rückkanal für Schülerdaten. Das Schüler*innenverhalten wird per Software ausgewertet, um Lehrinhalte automatisiert und „individualisiert“ anzupassen. Ergänzt werden solche Lernprogramme um Anwendungen der sogenannten „Künstliche Intelligenz“ (KI), die als „Lernbegleiter“ fungieren und zumindest perspektivisch fehlende Lehrkräfte ersetzen (sollen). Damit werden technische Systeme in Schulen etabliert, von denen nicht einmal mehr die Entwickler wissen, was diese Algorithmen genau tun.
Das erfordert einen kritisch-reflektierenden Diskurs. Dafür vertritt Ralf Lankau im vorliegenden Aufsatz die These, dass essenzielle Elemente der Bildung, wie die Erziehung zu Selbstbewusstsein, Reflexion und einer kritischen Bürgerschaft, mit solchen Lernprogrammen verloren gehen.
Es wird ein Verfahren zur Auswertung von Dehnungsmessungen an Biegetraegern aus punktgeschweissten duennwandigen Blechprofilen vorgestellt, das fuer beliebige Spannungsverteilungen anwendbar ist und es erlaubt, fuer jeden Steg und jede Punktschweissnaht getrennt die Biege- und Schubbeanspruchung zu ermitteln. Eine Kontrollrechnung gestattet Rueckschluesse auf die erzielte Genauigkeit.
Um eine gleichbleibende Mahrspalthoehe und gleichmaessige Lastverteilung waehrend des Betriebes zu erreichen, werden Mahlwalzen bombiert hergestellt. Das theoretische Bombierungsprofil wird aus der elastischen Walzenverformung bei gegebener Belastung abgeleitet. Die Verformung kann mit Finiten Elementen berechnet werden. Werden zwei Walzen mit zylindrischer Oberflaeche gegeneinander gedrueckt, so ergibt sich ein nichtlinearer Kontakt. Die Druckverteilung laengs der Walze laesst sich unter Hinzunahme von Einflusszahlen mit Hilfe eines linearen Gleichungssystems ermitteln. Die Autoren untersuchen mit diesem Berechnungsverfahren die Wirkungen unterschiedlicher Bombierungen und den Einfluss von veraenderter Anpresskraft. (Rohlf)
Voraussetzung fuer eine menschengerechte Arbeitsgestaltung ist die Beruecksichtigung ergonomischer Erkenntnisse. Bewertungskriterien sind Ausfuehrbarkelt, Ertraeglichkeit, Zumutbarkeit und Zufriedenheit. Die Herzschlagfrequenz ist ein Mass fuer die Gesamtbeanspruchung des arbeitenden Menschen. Aus dem Verlauf der Herzschlagfrequenz ergibt sich die Arbeitspulsfrequenz als Erhoehung gegenueber der Ruhepulsfrequenz und als ein Indikator fuer Beanspruchung und Ermuedung. Prozessorgesteuerte Systeme bestehen aus einem taschenrechnergrossen, mehrkanaligen Signalspeicher und einem Software-gesteuerten Auswerter und reduzieren die biologischen Ursprungssignale auf das wesentliche. (Sehm)
In diesem Beitrag wird die Funktionsweise und Eigenschaften des IM-Bus der Firma Intermetall erläutert. Dieser geräteinterne Bus wird eingesetzt, wenn eine Ansammlung von Peripheriebausteinen und Signalprozessoren gesteuert, überwacht und parametriert werden muß. Universelle Bussysteme müssen neben einer hohen Datenübertragungsrate auch die Multimaster-Fähigkeit aufweisen.
Die Bestimmung von Emissionen aus Abgaskaminen mit grossen Querschnitten ist ein Problem, da dort Inhomogenitaeten sowohl der Konzentration als auch der linearen Abgasgeschwindigkeit vorliegen. Die VDI 2066, Bl. 1, schreibt vor, welche Punkte zu waehlen sind, und wenn man dann noch isokinetisch die Abgasproben entnimmt, sollte man zum richtigen Ergebnis kommen. Anm. d.Ref.: Die Hessische Landesanstalt fuer Umwelt ist da schon frueher auf recht komplizierte Loesungen gekommen. Und diese Linie wird in der vorliegenden Arbeit konsequent eingehalten. - Es mag sein, dass der angekuendigte Ergebnisbericht mehr Licht in die Angelegenheit bringt. Aus den hier gemachten Angaben kann man eigentlich nur entnehmen, dass bisher alles falsch gemacht worden ist. (H. -D. Papendick).
Wahlweise Lichtleiter oder Zweidraht-Leitungen: Ringbus-System zur flexiblen Messdatenerfassung
(1986)
In diesem Beitrag wird ein Messdatenerfassungssystem vorgestellt, bei dem die Datenuebertragung je nach den Anforderungen entweder auf Zweidrahtleitung oder via Lichtleiter erfolgen kann. Es handelt sich um ein ringfoermiges serielles Bussystem fuer das eine universelle Interfacekarte mit Mikroprozessor aufgebaut wurde. Nach Beschreibung der Struktur des Systems wird auf den Uebertragungscode und das Datenprotokoll eingegangen. Anschliessend wird der Aufbau der Interfacekarte gezeigt. Einige Bemerkungen zu den Software-Modulen fuer die Interfacekarte, zum Programmablauf auf ihr und zur Synchronisierung der Interface-Karte runden den Beitrag ab.
Die Folgen ungenügender Entlüftung wurden durch Umfragen bei Konstrukteuren und Werkzeugmachern aus sechs Betrieben ermittelt und sind für Formteil, Werkzeug, Spritzgießprozeß ebenso tabellarisch wie die Gestaltungsmöglichkeiten von Entlüftungen (in der Trennebene und Kavität) dargestellt. Im Rahmen einer Diplomarbeit wurden mit Hilfe eines speziellen Versuchswerkzeuges die Auswirkungen der Entlüftung auf den Spritzgießablauf, das Formteil und das Verhalten bei teilevakuierter Kavität (der Einfluß des Evakuierungsgrades auf die gemittelte Füllhöhe wird anhand einer Kurve erläutert) untersucht. Die Konstanz der Werkzeuginnendrücke, die Berechenbarkeit der Druckabfälle (Tabelle mit Druckabfällen in Abhängigkeit der Entlüftungsspaltgeometrie), die Entlüftungselemente (bewegliche haben den Vorzug der Selbstreinigung) und das Einspritzen unter teilevakuierter Kavität werden beschrieben. Der Einfluß der Werkzeugentlüftung umfaßt die Spalttiefe des Entlüftungskanals, die Größe des Expansionsraumes und den Anschluß an die Dichtkante des Expansionsraumes.
Kosten und Leistung von Zeitarbeitnehmerinnen fuer Bueroarbeiten wurden mit denen von festangestellten Mitarbeiterinnen verglichen. Die absoluten Kosten, die ein Unternehmen fuer eine Zeitarbeitnehmerin aufbringen muss, sind geringer als fuer eine festangestellte Springerin. Doch ist deren Leistungsfaehigkeit groesser, da sie die betriebliche Organisation kennt und ihre Faehigkeiten bekannt sind. Somit ergeben sich fuer anspruchsvollere Taetigkeiten keine Vorteile beim Einsatz von Zeitarbeitnehmerinnen. Weitere rechnerisch nicht erfassbare Aspekte sprechen teils fuer Zeitarbeit teils fuer Springerarbeit. Die Entscheidung faellt je nach Gesamtzusammenhang verschieden aus. (Hasper)
Dieser Beitrag befaßt sich mit der optischen Meßtechnik, mit der man geometrische Dimensionen berührungslos und mit hoher Genauigkeit vermessen kann. Durch eine konkrete industrielle Aufgabenstellung angeregt, wurde im Labor für Optoelektronik der FH Offenburg eine einfache, aber universelle und PC-steuerbare Linear-CCD-Kamera entwickelt. Entscheidend für die Auslegung der Kamera ist die Auswahl des geeigneten Sensors.
Im folgenden Beitrag wird ein programmierbarer Logikbaustein vorgestellt, der zur Datensicherung erforderlich ist, wenn eine CCD-Linearkamera über eine längere Leitung an einen PC angeschlossen werden soll. Damit die Verbindung zum PC sehr lang werden kann, sollen die Meßdaten bitseriell über einen Lichtwellenleiter übertragen werden. Der geringe zur Verfügung stehende Einbauraum in der Kamera faßt die erforderliche Digitalisier- und Codierschaltung auf einem LCA-Chip zusammen.
Die Abmahnung ist tariflich oder gesetzlich nicht geregelt; sie ist eine Entwicklung der Arbeitsgerichtsbarkeit (Richterrecht). Der für den Praktiker bestimmte Aufsatz enthält anhand von Beispielen eine ausführliche, umfassende und leicht verständliche Darstellung dessen, welches Verhalten wie (z.B. kein Gebrauch von Schlagworten, möglichst Schriftform), wann (sind Fristen zu beachten?) und von wem abgemahnt werden kann. Ferner werden z.B. Fragen nach der Beteiligung des Betriebsrates und der Entfernung überholter Abmahnungen aus der Personalakte ebenso beantwortet wie diejenigen, welche und wie lange eine vorausgegangene Abmahnung für eine Kündigung herangezogen werden kann (Wirkungslosigkeit durch Zeitablauf), wer im Falle einer verhaltensbedingten Kündigung die Beweislast trägt, und ob, ggf. wann, ein vom Arbeitgeber verlorener Kündigungsschutzprozeß einer Abmahnung gleichgesetzt werden kann.
Prozeßrechner und Automatisierungstechnik gehören heute zur Standardausrüstung im Bereich der Energie-, Verfahrens- und Fertigungstechnik. In der Antriebstechnik sind jedoch noch umfangreiche Aufgaben zu lösen. Für Einzelantriebe stehen leistungsfähige Steuerungs- und Regelungseinheiten zur Verfügung. Die Hauptaufgabe liegt heute in der Leittechnik für gekoppelte Antriebe. Hier muß ein Leitsystem die übergeordneten Aufgaben übernehmen. Eine vordringliche Aufgabe besteht darin, geeignete Strategien und Algorithmen zu finden, um mechanisch verkoppelte Antriebssysteme leittechnisch zu entkoppeln. Diese Theorien können nur mit leistungsfähigen Rechnern und hochdynamischen Echtzeit-Bussystemen zur Kommunikation praktisch umgesetzt werden. Abschließend wird auf die wichtige Aufgabe der Hochschulen hingewiesen, den Studenten neben der Grundausbildung im Elektromaschinenbau auch solide Kenntnisse in der Leittechnik, Informatik und in der Regelungstechnik zu vermitteln.
Asynchronmaschinen mit Kaefiglaeufer benoetigen waehrend ihres Hochlaufs das 3- bis 8fache des Bemessungsstroms. Dieser hohe Anlaufstrom geht erst zurueck, wenn der Kippschlupf erreicht ist (bei etwa 90% der Bemessungsdrehzahl). Wenn die Kurzschlussleistung des einspeisenden Netzes zum Zeitpunkt der Motorzuschaltung gering ist, koennen durch Spannungseinbrueche Anlaufprobleme einer Kaefiglaeufermaschine auftreten. Bei der Planung eines solchen Antriebs muessen deshalb genauere Simulationsrechnungen ueber die Zusammenhaenge von Hochlaufzeit, Spannungseinbruch und zulaessigen Grenzwerten durchgefuehrt werden. Ergebnisse derartiger Anlaufsimulationen eines 800-kW- und eines 1,13-MW-Hochspannungsmotors bei Anschaltung an einen 10-MVA- und einen 2-MVA-Generator wurden fuer verschiedene Zuschaltungssituationen in Oszillogrammen festgehalten. Durch genauere mathematische Angaben verdeutlicht werden die Faelle des Motorhochlaufs bei Inselbetrieb mit geringer Kurzschlussleistung sowie die Zuschaltung der Asynchronmotoren auf den Generator vor und nach Anhebung der Netzspannung behandelt. Angaben werden ferner gemacht zur Zuschaltung des 1,13-MW-Motors auf die Parallelschaltung des 10-MVA- und des 2-MVA-Generators. Aus den Simulationsoszillogrammen der Faelle von Hochlauf und Motorzuschaltung sind die zeitabhaengigen Aenderungen von Ankerstrom, Wirkleistungsaufnahme, Blindleistungsaufnahme, Klemmenspannung, Drehzahlabweichung, Antriebsmoment und Lastdrehmoment zu entnehmen.
Zur Erkennung bestimmter Fehler, wie zum Beispiel Ätzfehler, Oberflächen-Fremdkörper, Verschmutzungen, bei der Leiterplattenherstellung ist eine Echtfarben-Bildverarbeitung notwendig, über die hier ein Überblick gegeben wird. Zur Farbsegmentierungs sind verschiedene Methoden geeignet, die einmal im Rot-Grün-Blau-Raum oder im HSI-Raum (Hue, Saturation, Intensity - Färbung, Sättigung, Intensität) untersucht und verglichen werden. Clusterfindungsverfahren und Lookup-Tabelle bereiten Schwierigkeiten bei der Erfassung der Farbkanten, zum Beispiel der Kante zwischen dem Kupfer und dem Beschichtungsmaterial. Hier hilft ein geeigneter Algorithmus, der mit Vorsegmentierung arbeitet. Eine Verfeinerung ist mit Hilfe von Kantenfiltern möglich, zum Beispiel das Color-Sobel-Magnitude-Filter.
Als Grenztaster und zur Erfassung kleinster Wege werden in der Industrie induktive Wegaufnehmer in Meßvorrichtungen eingesetzt. Die Verwendung diskret aufgebauter Elektronik verursacht hierbei neben erheblichem Raumbedarf auch unakzeptabel hohe Kosten. Daher entschloß man sich zur Entwicklung einer in den Aufnehmer integrierten Elektronik. Eine Prüfung der auf dem Markt angebotenen ICs deckt jedoch die Forderungen für diesen Anwendungsbereich nicht ab. Dieser Beitrag erläutert den Schaltungsentwurf und das Layout eines ASICs, der an der FH Offenburg für diesen Anwendungsbereich entwickelt wurde und befaßt sich besonders mit dem integrierten Vierquadranten-Multiplizierer.
In Verbindung mit geeigneten Sensoren, können Korrelatoren aus völlig regellosen Signalströmen hochpräzise Daten gewinnen. Diese Meßgeräte werden zur Messung von Durchflüssen, Mengenströmen und Geschwindigkeiten benötigt. Durch die Geschwindigkeitssteigerung bei Rechnern und deren Preisverfall werden Korrelatoren nicht mehr wie in der Vergangenheit nur im Bereich der Forschung und der Entwicklung eingesetzt, sondern in zunehmendem Maße auch als Betriebsmeßgeräte.
Beim Betrieb von Maschinen mit großen Trägheitsmomenten treten bei Asynchronmaschinen mit Käfigläufer als Antriebsmotor teilweise Probleme beim Hochlauf des Aggregats auf. Es werden Maßnahmen zur Verbesserung des Anlaufs erläutert sowie mit Hilfe von Näherungsrechnungen und Simulationen untersucht. Aus den Simulationsergebnissen lassen sich Voraussagen über das Gelingen des Hochlaufs und die Tauglichkeit verschiedener Hilfsmaßnahmen ableiten.
Es wird ein zeitoptimiertes Scanning-Verfahren zur Leckortung an Reinraum-Filterdecken auf der Basis der Richtlinie VDI 2083 Bl. 3 vorgestellt. Aufgabe des Verfahrens ist, die Positionen in der Meßebene liegender Flächen mit dem Querschnitt der isokinetischen Sondenöffnung zu bestimmen. Dabei wird eine vorab zu bestimmende Wahrscheinlichkeit zugrundegelegt, bei der die mittlere auftretende Konzentration von Partikeln höher ist, als die nach VDI 2083 Bl.3 zulässige. Die Verhältnisse beim Sondendurchgang über einem Kontaminationsbereich werden unter Beachtung aller Randbedingungen berechnet, wobei der sich für die Leckerkennung ungünstigste Fall, der bei einer homogenen Verteilung der durch das Leck austretenden Partikel auf der nachzuweisenden Fläche liegt, angenommen wird. Der Sondendurchgang wird als Bewegungsablauf definiert, zeitlich bestimmt vom Eintritt der Sondenvorderkante in die Kontaminationsfläche bis zum Verlassen derselben mit der Sondenhinterkante. Als Ergebnis der Berechnungen werden Vorschubgeschwindigkeit der Sonde beim Scanverfahren, Flächenleistung des Scanverfahrens, Sondendurchgangszeit und Leckerkennungskriterium, ausgewiesen. (Otto)
Turbulenzarme Verdrängungsströmungen (TAV), häufig auch als Laminarflow (LF) bezeichnet, werden in hochreinen Reinraumbereichen eingesetzt, um die Versorgung des kritischen Bereiches (offenes Produkt) mit schwebstoffgefilterter bzw. partikelfreier Luft zu gewährleisten. Die TAV kann durch Störgrößen, wie Thermikströme, Personeneingriffe, Strömungshindernisse, Materialtransport usw. gestört werden, womit eine unerwünschte Kontamination des kritischen Bereiches einhergehen kann.
Durch den Einsatz von Torschleieranlagen zwischen zwei Zonen mit unterschiedlichen Temperaturen kann der Luftaustausch aufgrund freier Konvektion verhindert werden. Der Einfluß unterschiedlicher Betriebsfälle auf den Energieverbrauch und die thermische Behaglichkeit wurde im Labor untersucht. Die Effizienz von Torschleieranlagen wurde zusätzlich im Praxisbetrieb beim Einsatz an einer Kühlzelle überprüft. Bei diesem Anwendungsfall steht nicht die thermische Behaglichkeit sondern der Energieverbrauch, die Gefahr der Kühlguterwärmung und die der Eisbildung vor dem Kühlzelleneingang im Vordergrund.
Das in diesem Beitrag beschriebene Meßsystem besteht aus einem Steuerteil zur Eingabe der Befehle, einem digitalen Display zur Anzeige der Meßwerte und einer davon stationierten Sonde, welche die Meßwerte aufnimmt und digitalisiert. Beide Teile sind über zwei Lichtwellenleiter miteinander verbunden. Die zur Versorgung nötige Energie und die Steuersignale zur Meßsonde überträgt einer der beiden Lichtwellenleiter. Eine Laserdiode in der Steuereinheit liefert dazu eine optische Ausgangsleistung, die in die Faser eingekoppelt wird. In der Meßsonde wandelt ein 'Power-Converter' die optische Leistung wieder in elektrische Energie zurück. Über den zweiten Lichtwellenleiter sendet die Meßsonde die aufgenommenen Daten an das Steuergerät. In der Meßsonde sitzt ein Mikrorechner, der die Signale erfaßt, digitalisiert und an die Steuereinheit sendet. Dort ermittelt der andere Mikrorechner daraus die Meßgröße und zeigt sie auf einem LC-Display an.
Die quantitative Dünnschichtchromatographie (HPTLC) mit einem Graustufen-Handscanner ist eine preiswerte, schnelle und präzise Methode zur Schwermetallbestimmung. Als Alternative zu teuren Densitometern wird ein Grünlichtscanner mit einer Auflösung von 256 Graustufen benutzt. Die Ortsauflösung beträgt maximal 400 dpi (dots per inch). Die Chromatogramme werden mit 300 dpi aufgenommen. Zur Entwicklung wird eine Camag-Linearkammer verwendet. Zur Probenvorbereitung werden die zu bestimmenden Schwermetallionen bei pH 4,2 mit Dithizon komplexiert. Nur die Metallkationen Zn(2+), Co(2+), Hg(2+), Cd(2+) und Ni(2+) reagieren zu einem farbigen Metallkomplex, wobei sich Zn(2+)- und Co(2+)-Komplexe chromatographisch abtrennen lassen. Nach Komplexierung der Wasserprobe wird mit Essigsäureethylester ausgeschüttelt, Probe- und Standardlösung auf eine Platte aus Kieselgel SI-60 aufgetragen, mit Essigsäureethylester fokussiert und nach der Trocknung der Platte mit Toluol entwickelt. Die HPTLC-Platte wird mit scannereigener Software eingelesen und im PCX-Format (PC PaintBrusch der Fa. ZSoft) auf die Festplatte abgelegt. Zur Auswertung wird eine Leseroutine benutzt. Die ganze Chromatographiebahn ist mit 150 Einzeldioden aufgenommen, die eine Strecke von 48 mm in 564 Einzelmessungen auflösen. Die Summe aller 150 Einzelaufnahmen liefert das Densitogramm aus dem der Schwermetallgehalt bestimmt wird.
Es wird der Einsatz von Doppelschichtkondensatoren mit Kapazitäten bis zu 1500 F für den Einsatz in der Kraftfahrzeugtechnik und der Umwelttechnik diskutiert. Dabei werden sowohl die Verwendung zur Entlastung der Batterie bei Stromspitzen wie auch die Einsatzmöglichkeiten in alltagstauglichen Hybridfahrzeugen beleuchtet. Voraussetzung ist die Kombination mit einer ausgereiften Leistungselektronik. Doppelschichtkondensatoren verfügen über eine Leistungsdichte von derzeit etwa 2 Wh/kg, wobei weitere Steigerungen zu erwarten sind. Damit sind sie als Ergänzung oder sogar als Ersatz für Akkumulatoren einsetzbar. Da die Spannung vom Ladezustand abhängig ist, muß eine genaue Überwachung und Regelung stattfinden, andererseits wird dadurch die Ladezustandsdiagnose erheblich vereinfacht. Durch Kondensatorpufferung mittels Stellglied kann die Batterie bei starken Lastwechseln entlastet werden. In Elektrofahrzeugen läßt sich so die hohe Beschleunigungsleistung erbringen, die Batterie kann dann schwächer ausgelegt werden. Auch kann sich die Bremsenergie durch Kondensatoren besser zurückgewonnen werden. Die Möglichkeit der Entladung bis auf 0 V eröffnet ein wesentlich größeres Spannungsfenster. Der Einsatz in Hybridfahrzeugen mit kombiniertem Elektroantrieb/Verbrennungsmotor wird noch untersucht. Zur Untersuchung der elektronischen Systeme wurde ein Simulationsprogramm entwickelt, mit dem u. a. die Abhängigkeit von Energiedichte und spezifischer Konstantleistung als Ragone-Diagramm dargestellt werden kann.
Eine einfache Bestimmung von Mineraloel-KWstoffen - Ersatz des FCKW-haltigen Extraktionsmittels
(1996)
Die Messung von KWstoffen in Abwaessern nach DIN ist eine in der Umweltanalytik haeufig geforderte Bestimmung. Die Abwasserprobe wird dabei mit 1,1,2-Trichlortrifluorethan extrahiert. Anschliessend wird der Extrakt mittels IR-Spektroskopie vermessen. Neben einigen Schwaechen ist bei dieser Bestimmungsmethode besonders die Verwendung des ozonschaedigenden FCKW-Loesemittels heute nicht mehr zeitgemaess. - Die Verf. beschreiben ein schnelles robustes Bestimmungsverfahren, das alle Schwaechen der alten Methode vermeidet.
Nativ-organische Abfälle bilden mit ca. 30 Gew. % den Hauptteil des Hausmülls. Daher leistet die Bioabfallkompostierung einen bedeutenden Schritt hin zu einer sinnvollen Abfallverwertung. Bundesweit werden derzeit jährlich etwa 750 000 t Bioabfallkompost erzeugt. Mit Ausnahme von sieben Land- und Stadtkreisen planen die Landkreise Baden-Württembergs die getrennte Sammlung von Bioabfällen: Einwohner von 23 Landkreisen waren 1993, zum Teil versuchsweise, an Biotonnen angeschlossen. Die Notwendigkeit der Bioabfallkompostierung scheint außer Frage zu stehen, intensiv erörtert werden jedoch die Verfahrenskonzepte, die der Bioabfallkompostierung zugrunde liegen. Kern der Diskussion ist, ob einfache Kompostierungsverfahren wie die dezentrale Kompostierung den technisch aufwendigeren Verfahren zentraler Anlagen gleichwertig sind.
Als erster Landkreis in Baden Württemberg hat der Landkreis Sigmaringen bei der Entsorgung des bei 120 000 Einwohnern im Kreis anfallenden organischen Abfalls neue Wege beschritten und die Landwirtschaft in den Stoffkreislauf miteinbezogen, anstatt das anfallende Material zu deponieren. Auf dem Hintergrund der TA-Siedlungsabfall, die vorschreibt, daß nach einer Übergangszeit organische Abfälle nicht mehr deponiert werden dürfen, sondern kompostiert oder thermisch behandelt werden müssen, hat der Landkreis Sigmaringen im Jahr 1992 ein Konzept zur dezentralen Kompostierung verabschiedet.
Schulen müssen bei ihrer Profilbildung mehr leisten als die reine Marketingpositionierung erfordert. Sie müssen für alle am Schulleben Beteiligten einen Sinn stiften. Es geht letztlich um eine Veränderung der Schulkultur, indem die Grundüberzeugungen und der Sinn und Zweck der Schule klar herausgearbeitet werden. Methoden aus dem Bereich der Entwicklung von Unternehmens- und Organisationskultur können hier wirksam zum Einsatz kommen.
Kleine Anlagen zur dezentralen Strom- und Waermeerzeugung (Block(heiz)kraftwerke) gewinnen auf Grund ihrer vielfaeltigen Einsatzmoeglichkeiten zunehmend an Bedeutung. Die CO2-Bilanz mit Deponiegas bzw. Erdgas betriebenen Blockkraft- und Block(heiz)kraftwerken wird gegenuebergestellt. Es zeigt sich, dass durch den Einsatz von Deponie-Blockkraftwerken bzw. von Blockheizkraftwerken CO2-Einsparungen von ueber 100 kg CO2/MWh im Vergleich zur getrennten Waerme- und Stromerzeugung erzielt werden koennen.
Läßt sich durch das Einholen von Referenzen die Qualität der Personalauswahl verbessern? Wie kann der geeignete Referenzgeber ermittelt werden? Welche Wege werden bei der Referenzeinholung beschritten und wie kann ein Referenzgespräch gestaltet werden? Diese und eine Reihe anderer Fragen beantwortet eine Studie, die im Jahr 1994 an der Fachhochschule Offenburg durchgeführt wurde, und an der sich 238 von 1000 angeschriebenen Personalberatern beteiligten. Die wichtigsten Ergebnisse der Untersuchung werden im nachfolgenden Beitrag dargelegt.
What would you do if?
(1995)
In Stellenanzeigen wird oft durch eine Aussage wie: "Für eine telefonische Vorabinformation steht Ihnen Herr/Frau X ab Montag in der Zeit von/bis zur Verfügung" auf die Möglichkeit eines telefonischen Vorabkontakts hingewiesen. Interessenten wird so angeboten, vor einer Bewerbung telefonisch weitere Informationen einzuholen. Der Beitrag nennt die wichtigsten Ergebnisse einer schriftlichen Unternehmensbefragung sowie fünf persönlicher Interviews und zehn Testanrufen. Abschließend werden praktische Empfehlungen für Unternehmen und Bewerber zum Angebot und zur Handhabung eines Telefonkontaktes sowie zur Vorbereitung auf einen und zum Verhalten bei einem Telefonkontakt gegeben.
Risiko und Sicherheit sind Begriffe, die nur im Zusammenhang mit dem Menschen gesehen werden können, wobei bei der Risikoabschätzung die Fragen beantwortet werden müssen, was passieren kann und was passieren darf. Ausgehend von der Vornorm DIN V 19250 wird im Detail auf folgende Punkte eingegangen: Risikoparameter, Schadensausmaß, Häufigkeit, Aufenthaltsdauer im Gefahrenbereich, Gefahrenabwendung, Eintrittswahrscheinlichkeit, Bewertung der Eintrittsmöglichkeiten von Ereignissen, Restrisikoverkleinerung, Vorhersage von Schadensereignissen einschließlich Störfallauslöser. Die Demonstration erfolgt an Beispielen aus der Chemie.
Eine gewichtige Komponente in Arbeitszeugnissen ist die Positions- und Aufgabenbeschreibung. In einer Befragung von 369 Unternehmen gaben 37,4 Prozent sogar an, für sie sei die Aufgabenbeschreibung die wichtigste Zeugniskomponente. Diese Wertschätzung gründet auf der wohl richtigen Annahme, dass die Beurteilung in Zeugnissen oft geschönt sei, die Aufgabendarstellung aber vergleichsweise wahrheitsgerechte Angaben enthalte. Es kommt wohl nicht so oft vor, dass Arbeitnehmer die Aufnahme von Tätigkeiten ins Zeugnis fordern und durchsetzen, die sie gar nicht ausgeübt haben. Demnach konzentrieren sich manche Leser auf diesen Zeugnisteil, um einen Eindruck von der Berufserfahrung eines Bewerbers zu gewinnen.
Vorgestellt wird die Dioden-Array-Dünnschichtchromatographie als eine moderne und preiswerte Messmethode zur densitometrischen Erfassung von Substanzen auf einer DC- oder einer HPTLC-Platte. Sicher identifizierbar sind auch Substanzen mit schwachem Chromophor. Die Kubelka-Munk-Gleichung beschreibt einen linearen Zusammenhang zwischen Remissionslicht und lichtabsorbierender Stoffmenge auf der Platte. Die Auswertung im Spektralbereich von 316 bis 334 nm zeigt den Zusammenhang zwischen transformiertem Messsignal und aufgetragener Substanzmasse. Die schnelle Aufnahme von UV/vis-Spektren eröffnet der HPTLC den gesamten Bereich der Methodenvalidierung auf dem Niveau, auf welchem heute die HPLC-Analytik durchgeführt wird.
Zwischen den Zeilen
(2005)
Der Gesetzgeber verfolgt mit dem Gesetz über den Vorrang Erneuerbarer Energien (EEG) anders als die Vorläuferregelung das Ziel, den Anteil Erneuerbarer Energien an der Stromversorgung deutlich zu erhöhen. Unternehmen mit einem hohen Strombedarf sind von den damit verbundenen Kosten besonders betroffen.
Durch die Besondere Ausgleichsregelung des § 16 EEG sollen die Stromkosten von privilegierten Unternehmen mit einem hohen Strombedarf reduziert werden. Sie können unter bestimmten Voraussetzungen weitgehend von den durch die Vergütung des EEG entstehenden Kosten befreit werden.
Der nachfolgende Beitrag verdeutlicht am Beispiel von Unternehmen des produzierenden Gewerbes, dass dieses Regelungsziel für neu gegründete Unternehmen nachhaltig verfehlt wird. Entgegen der Ankündigung des Bundesumweltministeriums ist davon auszugehen, dass auch die geplante Novellierung des EEG diesbezüglich keine geeignete Abhilfe schaffen wird.
Im Fahrzeug stehen große Wärmeströme zur Verfügung, die nicht genutzt werden. Die Energie des Abgases weist gegenüber der des Motor/Kühlsystems eine wesentlich höhere Arbeitsfähigkeit auf. Untersuchungen zielen dahin, diese thermische Energie zum Beispiel mithilfe eines thermoelektrischen Generators wieder in das System einzukoppeln und als Energiequelle für Verbraucher zu nutzen.
Objective: This paper deals with the design and the optimization of mechatronic devices.
Introduction: Comparing with existing works, the design approach presented in this paper aims to integrate optimization in the design phase of complex mechatronic systems in order to increase the efficiency of this method.
Methods: To solve this problem, a novel mechatronic system design approach has been developed in order to take the multidisciplinary aspect and to consider optimization as a tool that can be used within the embodiment design process to build mechatronic solutions from a set of solution concepts designed with innovative or routine design methods.
Conclusions: This approach has then been applied to the design and optimization of a wind turbine system that can be implemented to autonomously supply a mountain cottage.
In dem Maße, in dem sich die industrielle Automatisierung verändert, verändern sich auch die Anforderungen an die Sicherheit. Neben der funktionalen Sicherheit rückt dabei immer mehr die Datensicherheit in den Mittelpunkt. Als „best practice“ bietet es sich an, bewährte Sicherungstechniken aus der IT auch in der industriellen Kommunikation einzusetzen.
Während neue Komponenten für „Short Range Wireless Networks“ längere Zeit eher moderate technische Fortschritte gebracht haben, sind in jüngerer Zeit einige außerordentlich interessante strategische Entwicklungslinien deutlich geworden, die in diesem Beitrag an Hand von konkreten Produktbeispielen vorgestellt werden.
Veränderte Umweltbedingungen für Organisationen haben die Notwendigkeit für Anpassungen und Weiterentwicklungen zur Folge. Das ist bei Unternehmen bereits ein etablierter Prozess und wird auf Ebene der Schulen im Rahmen der Schulentwicklung thematisiert. Die lang- und kurzfristigen Veränderungen, ob Migrationsentwicklungen oder Pandemie, sorgen für die Notwendigkeit, auch die Führungskultur als das Selbstverständnis einer professionellen Führung und Zusammenarbeit im Kollegialsystem Schule entsprechend weiterzuentwickeln. Hier können Leitbilder zu Führung und Zusammenarbeit und gezielte umsetzungsorientierte Entwicklungsprozesse dem Transformationsprozess an Schulen dauerhaft Schub verleihen.
Convolutional neural networks (CNN) define the state-of-the-art solution on many perceptual tasks. However, current CNN approaches largely remain vulnerable against adversarial perturbations of the input that have been crafted specifically to fool the system while being quasi-imperceptible to the human eye. In recent years, various approaches have been proposed to defend CNNs against such attacks, for example by model hardening or by adding explicit defence mechanisms. Thereby, a small “detector” is included in the network and trained on the binary classification task of distinguishing genuine data from data containing adversarial perturbations. In this work, we propose a simple and light-weight detector, which leverages recent findings on the relation between networks’ local intrinsic dimensionality (LID) and adversarial attacks. Based on a re-interpretation of the LID measure and several simple adaptations, we surpass the state-of-the-art on adversarial detection by a significant margin and reach almost perfect results in terms of F1-score for several networks and datasets. Sources available at: https://github.com/adverML/multiLID
Running shoes were categorized either as motion control, cushioned, or minimal footwear in the past. Today, these categories blur and are not as clearly defined. Moreover, with the advances in manufacturing processes, it is possible to create individualized running shoes that incorporate features that meet individual biomechanical and experiential needs. However, specific ways to individualize footwear to reduce individual injury risk are poorly understood. Therefore, the purpose of this scoping review was to provide an overview of (1) footwear design features that have the potential for individualization; (2) human biomechanical variability as a theoretical foundation for individualization; (3) the literature on the differential responses to footwear design features between selected groups of individuals. These purposes focus exclusively on reducing running-related risk factors for overuse injuries. We included studies in the English language on adults that analyzed: (1) potential interaction effects between footwear design features and subgroups of runners or covariates (e.g., age, gender) for running-related biomechanical risk factors or injury incidences; (2) footwear perception for a systematically modified footwear design feature. Most of the included articles (n = 107) analyzed male runners. Several footwear design features (e.g., midsole characteristics, upper, outsole profile) show potential for individualization. However, the overall body of literature addressing individualized footwear solutions and the potential to reduce biomechanical risk factors is limited. Future studies should leverage more extensive data collections considering relevant covariates and subgroups while systematically modifying isolated footwear design features to inform footwear individualization.
Featherweight Generic Go (FGG) is a minimal core calculus modeling the essential features of the programming language Go. It includes support for overloaded methods, interface types, structural subtyping and generics. The most straightforward semantic description of the dynamic behavior of FGG programs is to resolve method calls based on runtime type information of the receiver.
This article shows a different approach by defining a type-directed translation from FGG to an untyped lambda-calculus. The translation of an FGG program provides evidence for the availability of methods as additional dictionary parameters, similar to the dictionary-passing approach known from Haskell type classes. Then, method calls can be resolved by a simple lookup of the method definition in the dictionary.
Every program in the image of the translation has the same dynamic semantics as its source FGG program. The proof of this result is based on a syntactic, step-indexed logical relation. The step-index ensures a well-founded definition of the relation in the presence of recursive interface types and recursive methods.
The identification of vulnerabilities is an important element in the software development life cycle to ensure the security of software. While vulnerability identification based on the source code is a well studied field, the identification of vulnerabilities on basis of a binary executable without the corresponding source code is more challenging. Recent research has shown, how such detection can be achieved by deep learning methods. However, that particular approach is limited to the identification of only 4 types of vulnerabilities. Subsequently, we analyze to what extent we could cover the identification of a larger variety of vulnerabilities. Therefore, a supervised deep learning approach using recurrent neural networks for the application of vulnerability detection based on binary executables is used. The underlying basis is a dataset with 50,651 samples of vulnerable code in the form of a standardized LLVM Intermediate Representation. The vectorised features of a Word2Vec model are used to train different variations of three basic architectures of recurrent neural networks (GRU, LSTM, SRNN). A binary classification was established for detecting the presence of an arbitrary vulnerability, and a multi-class model was trained for the identification of the exact vulnerability, which achieved an out-of-sample accuracy of 88% and 77%, respectively. Differences in the detection of different vulnerabilities were also observed, with non-vulnerable samples being detected with a particularly high precision of over 98%. Thus, the methodology presented allows an accurate detection of 23 (compared to 4) vulnerabilities.
Initially developed as a student project, a mobile ‘farm shop’ retail and freight service using a converted tram-train is being proposed for use on the regional rail network around Karlsruhe. This in turn could offer a more viable business model for other cargo tram initiatives.
Beuys-Gespräch
(2022)
Die neuen Realitäten digitalwirtschaftlicher Geschäftsmodelle stellen die Verfügbarkeit und Verwendung großer Datenmengen in den Mittelpunkt unternehmerischer Aktivitäten. Das Risikomanagement, das bereits intensiv stochastische Methoden anwendet, sollte an dieser Entwicklung teilhaben. Im vorliegenden Beitrag geht es um die angemessene Rahmung und Einordnung von Analytics-Projekten.