Refine
Year of publication
- 2013 (68)
- 2015 (52)
- 2014 (44)
- 2016 (44)
- 2019 (41)
- 2023 (38)
- 2020 (36)
- 2017 (33)
- 2018 (26)
- 2022 (23)
- 2012 (22)
- 2021 (20)
- 2009 (16)
- 2010 (16)
- 2011 (12)
- 2006 (10)
- 2005 (9)
- 1995 (8)
- 1990 (5)
- 2004 (5)
- 2008 (5)
- 1996 (4)
- 2000 (4)
- 2001 (4)
- 2003 (4)
- 1983 (2)
- 1986 (2)
- 1992 (2)
- 1993 (2)
- 2007 (2)
- 1972 (1)
- 1977 (1)
- 1991 (1)
- 1994 (1)
- 1998 (1)
- 1999 (1)
- 2024 (1)
Document Type
- Article (unreviewed) (566) (remove)
Is part of the Bibliography
- yes (566) (remove)
Keywords
- Schule (11)
- Bildung (8)
- Arbeitszeugnis (7)
- Export (7)
- Digitalisierung (6)
- Energieversorgung (6)
- Nachhaltigkeit (6)
- Recht (6)
- Datenschutz (5)
- Dünnschichtchromatographie (5)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (189)
- Fakultät Wirtschaft (W) (120)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (97)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (95)
- Fakultät Medien (M) (ab 22.04.2021) (35)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (27)
- INES - Institut für nachhaltige Energiesysteme (21)
- IMLA - Institute for Machine Learning and Analytics (16)
- IfTI - Institute for Trade and Innovation (13)
- IUAS - Institute for Unmanned Aerial Systems (4)
Open Access
- Closed Access (156)
- Open Access (131)
- Closed (71)
- Diamond (17)
- Bronze (15)
- Gold (1)
- Grün (1)
- Hybrid (1)
Projektmanagement und mit ihm die PM-Prozesse, Methoden und Werkzeuge entwickeln sich stetig weiter, in kleinen, kaum spürbaren Schritten oder in großen unübersehbaren Veränderungen. In den letzten Jahren war der Diskurs über das Pro & Contra agiler Vorgehensweisen so allgegenwärtig, dass andere Aspekte nicht immer die notwendige Aufmerksamkeit bekamen. Erkannte Notwendigkeiten der PM-Entwicklung konnten noch nicht in spürbare Fortschritte umgewandelt werden. Einflüsse der Globalisierung und der IT, aber auch die aus der zunehmenden Forderung nach Nachhaltigkeit resultierenden Veränderungen in der Projektarbeit sollen daher genauer betrachtet werden. Ist erst einmal die Sensibilität für relevante Trends beim Projektpersonal geschaffen, rücken ein aktualisiertes Kompetenzprofil und ein erweiterter Methodenkanon in greifbare Nähe.
Das Zeitalter der Digitalisierung ist geprägt durch einen erhöhten Wettbewerb. Eine Chance, bei steigendem Wettbewerb erfolgreich zu bestehen, liegt daher nur in der durchgängigen Digitalisierung von Produktionsunternehmen. Dieser Beitrag stellt eine dreistufige generische Unternehmensmodellplattform Industrie 4.0 vor, die die Durchgängigkeit von Prozessen vom Kunden bis zum Lieferanten auf allen Unternehmensebenen in den Mittelpunkt stellt. Die Schritte zur Bewertung und Gestaltung des Fortschritts auf dem Weg zum digitalisierten Produktionsunternehmen werden aufgezeigt.
Die fortschreitende Digitalisierung der Schulen macht es möglich, die Lerndaten der Schülerinnen und Schüler in einer zentralen Cloud zu speichern. Die Befürworter versprechen sich davon eine bessere individuelle Förderung und fordern eine bundesweite Lösung, um möglichst viele Daten auswerten zu können. Die Gegner befürchten eine automatisierte Steuerung des Lernens.
CNN-based deep learning models for disease detection have become popular recently. We compared the binary classification performance of eight prominent deep learning models: DenseNet 121, DenseNet 169, DenseNet 201, EffecientNet b0, EffecientNet lite4, GoogleNet, MobileNet, and ResNet18 for their binary classification performance on combined Pulmonary Chest Xrays dataset. Despite the widespread application in different fields in medical images, there remains a knowledge gap in determining their relative performance when applied to the same dataset, a gap this study aimed to address. The dataset combined Shenzhen, China (CH) and Montgomery, USA (MC) data. We trained our model for binary classification, calculated different parameters of the mentioned models, and compared them. The models were trained to keep in mind all following the same training parameters to maintain a controlled comparison environment. End of the study, we found a distinct difference in performance among the other models when applied to the pulmonary chest Xray image dataset, where DenseNet169 performed with 89.38 percent and MobileNet with 92.2 percent precision.
The COVID19 pandemic, a unique and devastating respiratory disease outbreak, has affected global populations as the disease spreads rapidly. Recent Deep Learning breakthroughs may improve COVID19 prediction and forecasting as a tool of precise and fast detection, however, current methods are still being examined to achieve higher accuracy and precision. This study analyzed the collection contained 8055 CT image samples, 5427 of which were COVID cases and 2628 non COVID. The 9544 Xray samples included 4044 COVID patients and 5500 non COVID cases. The most accurate models are MobileNet V3 (97.872 percent), DenseNet201 (97.567 percent), and GoogleNet Inception V1 (97.643 percent). High accuracy indicates that these models can make many accurate predictions, as well as others, are also high for MobileNetV3 and DenseNet201. An extensive evaluation using accuracy, precision, and recall allows a comprehensive comparison to improve predictive models by combining loss optimization with scalable batch normalization in this study. Our analysis shows that these tactics improve model performance and resilience for advancing COVID19 prediction and detection and shows how Deep Learning can improve disease handling. The methods we suggest would strengthen healthcare systems, policymakers, and researchers to make educated decisions to reduce COVID19 and other contagious diseases.
This paper presents the new Deep Reinforcement Learning (DRL) library RL-X and its application to the RoboCup Soccer Simulation 3D League and classic DRL benchmarks. RL-X provides a flexible and easy-to-extend codebase with self-contained single directory algorithms. Through the fast JAX-based implementations, RL-X can reach up to 4.5x speedups compared to well-known frameworks like Stable-Baselines3.
With the rising necessity of explainable artificial intelligence (XAI), we see an increase in task-dependent XAI methods on varying abstraction levels. XAI techniques on a global level explain model behavior and on a local level explain sample predictions. We propose a visual analytics workflow to support seamless transitions between global and local explanations, focusing on attributions and counterfactuals on time series classification. In particular, we adapt local XAI techniques (attributions) that are developed for traditional datasets (images, text) to analyze time series classification, a data type that is typically less intelligible to humans. To generate a global overview, we apply local attribution methods to the data, creating explanations for the whole dataset. These explanations are projected onto two dimensions, depicting model behavior trends, strategies, and decision boundaries. To further inspect the model decision-making as well as potential data errors, a what-if analysis facilitates hypothesis generation and verification on both the global and local levels. We constantly collected and incorporated expert user feedback, as well as insights based on their domain knowledge, resulting in a tailored analysis workflow and system that tightly integrates time series transformations into explanations. Lastly, we present three use cases, verifying that our technique enables users to (1)~explore data transformations and feature relevance, (2)~identify model behavior and decision boundaries, as well as, (3)~the reason for misclassifications.
Modern CNNs are learning the weights of vast numbers of convolutional operators. In this paper, we raise the fundamental question if this is actually necessary. We show that even in the extreme case of only randomly initializing and never updating spatial filters, certain CNN architectures can be trained to surpass the accuracy of standard training. By reinterpreting the notion of pointwise ($1\times 1$) convolutions as an operator to learn linear combinations (LC) of frozen (random) spatial filters, we are able to analyze these effects and propose a generic LC convolution block that allows tuning of the linear combination rate. Empirically, we show that this approach not only allows us to reach high test accuracies on CIFAR and ImageNet but also has favorable properties regarding model robustness, generalization, sparsity, and the total number of necessary weights. Additionally, we propose a novel weight sharing mechanism, which allows sharing of a single weight tensor between all spatial convolution layers to massively reduce the number of weights.
During pyrolysis, biomass is carbonised in the absence of oxygen to produce biochar with heat and/or electricity as co-products making pyrolysis one of the promising negative emission technologies to reach climate goals worldwide. This paper presents a simplified representation of pyrolysis and analyses the impact of this technology on the energy system. Results show that the use of pyrolysis can allow getting zero emissions with lower costs by making changes in the unit commitment of the power plants, e.g. conventional power plants are used differently, as the emissions will be compensated by biochar. Additionally, the process of pyrolysis can enhance the flexibility of energy systems, as it shows a correlation between the electricity generated by pyrolysis and the hydrogen installation capacity, being hydrogen used less when pyrolysis appears. The results indicate that pyrolysis, which is available on the market, integrates well into the energy system with a promising potential to sequester carbon.
Socially assistive robots (SARs) are becoming more prevalent in everyday life, emphasizing the need to make them socially acceptable and aligned with users' expectations. Robots' appearance impacts users' behaviors and attitudes towards them. Therefore, product designers choose visual qualities to give the robot a character and to imply its functionality and personality. In this work, we sought to investigate the effect of cultural differences on Israeli and German designers' perceptions and preferences regarding the suitable visual qualities of SARs in four different contexts: a service robot for an assisted living/retirement residence facility, a medical assistant robot for a hospital environment, a COVID-19 officer robot, and a personal assistant robot for domestic use. Our results indicate that Israeli and German designers share similar perceptions of visual qualities and most of the robotics roles. However, we found differences in the perception of the COVID-19 officer robot's role and, by that, its most suitable visual design. This work indicates that context and culture play a role in users' perceptions and expectations; therefore, they should be taken into account when designing new SARs for diverse contexts.
Recent advances in spiked shoe design, characterized by increased longitudinal stiffness, thicker midsole foams, and reconfigured geometry are considered to improve sprint performance. However, so far there is no empirical data on the effects of advanced spikes technology on maximal sprinting speed (MSS) published yet. Consequently, we assessed MSS via ‘flying 30m’ sprints of 44 trained male (PR: 10.32 s - 12.08 s) and female (PR: 11.56 s - 14.18 s) athletes, wearing both traditional and advanced spikes in a randomized, repeated measures design. The results revealed a statistically significant increase in MSS by 1.21% on average when using advanced spikes technology. Notably, 87% of participants showed improved MSS with the use of advanced spikes. A cluster analysis unveiled that athletes with higher MSS may benefit to a greater extent. However, individual responses varied widely, suggesting the influence of multiple factors that need detailed exploration. Therefore, coaches and athletes are advised to interpret the promising performance enhancements cautiously and evaluate the appropriateness of the advanced spike technology for their athletes critically.
High-tech running shoes and spikes ("super-footwear") are currently being debated in sports. There is direct evidence that distance running super shoes improve running economy; however, it is not well established to which extent world-class performances are affected over the range of track and road running events.
This study examined publicly available performance datasets of annual best track and road performances for evidence of potential systematic performance effects following the introduction of super footwear. The analysis was based on the 100 best performances per year for men and women in outdoor events from 2010 to 2022, provided by the world governing body of athletics (World Athletics).
We found evidence of progressing improvements in track and road running performances after the introduction of super distance running shoes in 2016 and super spike technology in 2019. This evidence is more pronounced for distances longer than 1500 m in women and longer than 5000 m in men. Women seem to benefit more from super footwear in distance running events than men.
While the observational study design limits causal inference, this study provides a database on potential systematic performance effects following the introduction of super shoes/spikes in track and road running events in world-class athletes. Further research is needed to examine the underlying mechanisms and, in particular, potential sex differences in the performance effects of super footwear.
Following the traditional paradigm of convolutional neural networks (CNNs), modern CNNs manage to keep pace with more recent, for example transformer-based, models by not only increasing model depth and width but also the kernel size. This results in large amounts of learnable model parameters that need to be handled during training. While following the convolutional paradigm with the according spatial inductive bias, we question the significance of \emph{learned} convolution filters. In fact, our findings demonstrate that many contemporary CNN architectures can achieve high test accuracies without ever updating randomly initialized (spatial) convolution filters. Instead, simple linear combinations (implemented through efficient 1×1 convolutions) suffice to effectively recombine even random filters into expressive network operators. Furthermore, these combinations of random filters can implicitly regularize the resulting operations, mitigating overfitting and enhancing overall performance and robustness. Conversely, retaining the ability to learn filter updates can impair network performance. Lastly, although we only observe relatively small gains from learning 3×3 convolutions, the learning gains increase proportionally with kernel size, owing to the non-idealities of the independent and identically distributed (\textit{i.i.d.}) nature of default initialization techniques.
We have developed a methodology for the systematic generation of a large image dataset of macerated wood references, which we used to generate image data for nine hardwood genera. This is the basis for a substantial approach to automate, for the first time, the identification of hardwood species in microscopic images of fibrous materials by deep learning. Our methodology includes a flexible pipeline for easy annotation of vessel elements. We compare the performance of different neural network architectures and hyperparameters. Our proposed method performs similarly well to human experts. In the future, this will improve controls on global wood fiber product flows to protect forests.
State-of-the-art models for pixel-wise prediction tasks such as image restoration, image segmentation, or disparity estimation, involve several stages of data resampling, in which the resolution of feature maps is first reduced to aggregate information and then sequentially increased to generate a high-resolution output. Several previous works have investigated the effect of artifacts that are invoked during downsampling and diverse cures have been proposed that facilitate to improve prediction stability and even robustness for image classification. However, equally relevant, artifacts that arise during upsampling have been less discussed. This is significantly relevant as upsampling and downsampling approaches face fundamentally different challenges. While during downsampling, aliases and artifacts can be reduced by blurring feature maps, the emergence of fine details is crucial during upsampling. Blurring is therefore not an option and dedicated operations need to be considered. In this work, we are the first to explore the relevance of context during upsampling by employing convolutional upsampling operations with increasing kernel size while keeping the encoder unchanged. We find that increased kernel sizes can in general improve the prediction stability in tasks such as image restoration or image segmentation, while a block that allows for a combination of small-size kernels for fine details and large-size kernels for artifact removal and increased context yields the best results.
Fix your downsampling ASAP! Be natively more robust via Aliasing and Spectral Artifact free Pooling
(2023)
Convolutional neural networks encode images through a sequence of convolutions, normalizations and non-linearities as well as downsampling operations into potentially strong semantic embeddings. Yet, previous work showed that even slight mistakes during sampling, leading to aliasing, can be directly attributed to the networks' lack in robustness. To address such issues and facilitate simpler and faster adversarial training, [12] recently proposed FLC pooling, a method for provably alias-free downsampling - in theory. In this work, we conduct a further analysis through the lens of signal processing and find that such current pooling methods, which address aliasing in the frequency domain, are still prone to spectral leakage artifacts. Hence, we propose aliasing and spectral artifact-free pooling, short ASAP. While only introducing a few modifications to FLC pooling, networks using ASAP as downsampling method exhibit higher native robustness against common corruptions, a property that FLC pooling was missing. ASAP also increases native robustness against adversarial attacks on high and low resolution data while maintaining similar clean accuracy or even outperforming the baseline.
Motivated by the recent trend towards the usage of larger receptive fields for more context-aware neural networks in vision applications, we aim to investigate how large these receptive fields really need to be. To facilitate such study, several challenges need to be addressed, most importantly: (i) We need to provide an effective way for models to learn large filters (potentially as large as the input data) without increasing their memory consumption during training or inference, (ii) the study of filter sizes has to be decoupled from other effects such as the network width or number of learnable parameters, and (iii) the employed convolution operation should be a plug-and-play module that can replace any conventional convolution in a Convolutional Neural Network (CNN) and allow for an efficient implementation in current frameworks. To facilitate such models, we propose to learn not spatial but frequency representations of filter weights as neural implicit functions, such that even infinitely large filters can be parameterized by only a few learnable weights. The resulting neural implicit frequency CNNs are the first models to achieve results on par with the state-of-the-art on large image classification benchmarks while executing convolutions solely in the frequency domain and can be employed within any CNN architecture. They allow us to provide an extensive analysis of the learned receptive fields. Interestingly, our analysis shows that, although the proposed networks could learn very large convolution kernels, the learned filters practically translate into well-localized and relatively small convolution kernels in the spatial domain.
Assessing the robustness of deep neural networks against out-of-distribution inputs is crucial, especially in safety-critical domains like autonomous driving, but also in safety systems where malicious actors can digitally alter inputs to circumvent safety guards. However, designing effective out-of-distribution tests that encompass all possible scenarios while preserving accurate label information is a challenging task. Existing methodologies often entail a compromise between variety and constraint levels for attacks and sometimes even both. In a first step towards a more holistic robustness evaluation of image classification models, we introduce an attack method based on image solarization that is conceptually straightforward yet avoids jeopardizing the global structure of natural images independent of the intensity. Through comprehensive evaluations of multiple ImageNet models, we demonstrate the attack's capacity to degrade accuracy significantly, provided it is not integrated into the training augmentations. Interestingly, even then, no full immunity to accuracy deterioration is achieved. In other settings, the attack can often be simplified into a black-box attack with model-independent parameters. Defenses against other corruptions do not consistently extend to be effective against our specific attack.
Project website: https://github.com/paulgavrikov/adversarial_solarization
Entity Matching (EM) defines the task of learning to group objects by transferring semantic concepts from example groups (=entities) to unseen data. Despite the general availability of image data in the context of many EM-problems, most currently available EM-algorithms solely rely on (textual) meta data. In this paper, we introduce the first publicly available large-scale dataset for "visual entity matching", based on a production level use case in the retail domain. Using scanned advertisement leaflets, collected over several years from different European retailers, we provide a total of ~786k manually annotated, high resolution product images containing ~18k different individual retail products which are grouped into ~3k entities. The annotation of these product entities is based on a price comparison task, where each entity forms an equivalence class of comparable products. Following on a first baseline evaluation, we show that the proposed "visual entity matching" constitutes a novel learning problem which can not sufficiently be solved using standard image based classification and retrieval algorithms. Instead, novel approaches which allow to transfer example based visual equivalent classes to new data are needed to address the proposed problem. The aim of this paper is to provide a benchmark for such algorithms.
Information about the dataset, evaluation code and download instructions are provided under https://www.retail-786k.org/.
Wirtschaftliche Krisenzeiten implizieren häufig Liquiditätsengpässe und bei kompletter Zahlungsunfähigkeit auch Insolvenzen. Das Instrument des Working Capital Management hilft bei der schnelleren Freisetzung von gebundenem Kapital. Sofern ein datengetriebenes Management unter Einsatz von Business-Analytics-Techniken und mit der dafür notwendigen technisch-organisatorischen Infrastruktur eingesetzt wird, entstehen neue Möglichkeiten von Einsichten in die Prozesslandschaft und die Optimierung von Durchlaufzeiten. Das Ziel ist der Aufbau eines Working-Capital- Analytics-Ansatzes.
Elektrische Wärmepumpen sind eine Schlüsseltechnologie für klimafreundliche Gebäude. In Mehrfamilienhäusern ist ihr Einsatz noch eine Herausforderung und entsprechend wenig verbreitet. Im Rahmen des Verbundprojekts "HEAVEN" haben Forschende nun ein Mehrquellen-Wärmepumpensystem entwickelt, das an die Anforderungen größerer Wohngebäude angepasst ist. Getestet wurde es im Rahmen des Verbundprojekts "Smartes Quartier Durlach" in einem Karlsruher Gebäude. Daten zum ersten Betriebsjahr liegen nun vor.
Diese Metadaten wurden zur Verfügung gestellt von der Literaturdatenbank RSWB®plus
Wärmepumpen sind eine Schlüsseltechnologie der Wärmewende. Durch die Nutzbarmachung von Umweltwärme und den Antrieb mit Elektrizität, die zunehmend aus erneuerbaren Energien gewonnen wird, kann die CO2-Intensität der Wärmeversorgung gesenkt werden. Eine Herausforderung besteht in der Anwendung in größeren Mehrfamilienbestandsgebäuden. Lösungsansätze und beispielhafte Umsetzungen werden hierzu vorgestellt.
In Zeiten großer Veränderungen haben genossenschaftlich organisierte KMU die Möglichkeit, auf komplexe Herausforderungen mit kooperativen Lösungsansätzen zu reagieren, vor allem wenn dabei die Kraft und Kreativität der Gemeinschaft genutzt wird. Getreu dem Motto „Was einer alleine nicht schafft, das schaffen viele“ des Genossenschaftsvorreiters Friedrich Wilhelm Raiffeisen ist gemeinschaftliches unternehmerisches Handeln identitätsstiftend und motivierend, woraus wiederum eine sich selbst verstärkende Eigendynamik entstehen kann. Wie Mittelstand, Politik und Gesellschaft davon profitieren, stellen Prof. Dr. Tobias Popovic und Prof. Dr. Thomas Baumgärtler in diesem Beitrag dar.
IT-Governance
(2023)
Die Dynamik der technologischen Entwicklungen übt einen großen Druck auf die Leitungs- und Überwachungsorgane eines Unternehmens aus. Die Hyperkonnektivität impliziert, dass die interne IT und OT Anknüpfungspunkte an den externen Kontext besitzen, wodurch die Komplexität aufgrund eines Nebeneinanders einer Vielzahl von Hard- und Software exponentiell steigt. Die gesetzlichen Notwendigkeiten zusammen mit den geschäftspolitischen Anforderungen sollten zur Überlegung führen, eine IT-Governance im Unternehmen zu etablieren. Das System der Wahl und die Dichte der Regulierung ist den Verantwortlichen unter Berücksichtigung des Unternehmensinteresses überlassen, lautete das Fazit des ersten Teils des Beitrags (ZCG 4/23). Im zweiten Teil werden nun konkret die ISO Standards 38500 et al. als eine Möglichkeit zur Umsetzung näher betrachtet. Dabei geht es um die einzelnen Komponenten in Form der zehn zur Verfügung stehenden Standards und deren integrative Top-Down-Gestaltung. Es zeigt sich, dass Themen wie die Daten-Governance und die KI-Governance ausreichend Berücksichtigung finden.
IT-Governance (Teil 1)
(2023)
Unabhängig von den gelieferten Ergebnissen hat ChatGPT die KI-Anwendungen auf ein neues Level gehoben. Aber auch digitalwirtschaftliche Geschäftsmodelle wie Ökosystem-Plattformen verändern die Art und Weise des Wirtschaftens. Eine Rahmung mittels einer IT-Governance wird dadurch nicht nur erforderlich, sondern bietet eine große Chance, die exponentiellen Entwicklungen strukturiert angehen und begleiten zu können. Ausgehend vom Deutschen Corporate Governance Kodex (DCGK) beleuchtet der erste Teil den Bezug dazu.
Sofern ein Rahmenwerk für den risikoorientierten Umgang mit Ransomware-Angriffen existiert, sollten die Verantwortlichen in Unternehmen darauf zurückgreifen und in die unternehmensweite Systematik einbetten. Das ermöglicht die Steuerung und das Management von Risiken, die zuvor von hoher Unsicherheit geprägt waren und Organisationen unerwartet treffen. Ferner ist zu berücksichtigen, dass das Social Engineering eine bedeutende Rolle bei der Lieferung von schadhafter Software spielt und frühzeitig in den Analyseprozess einzubeziehen ist.
Die moderne Erpressung von Unternehmen nach erfolgreichen Ransomware-Attacken ist sowohl ein monetäres als auch nicht-monetäres Problem. Angreifende erhalten über einen initialen, häufig menschlichen Endpunkt Zugang zur Organisation und können die Schadsoftware platzieren. Die beiden Angriffsvektoren Social Engineering und Ransomware nutzen die organisatorischen und technischen Schwachstellen, um auf diverse Vermögensgegenstände zuzugreifen. In diesem ersten Beitrag der zweiteiligen Serie wird das Verständnis für dieses Vorgehen entwickelt.
Ausreißer in Datenreihen geben einen Hinweis auf mögliche Risiken. Die empirischen Daten bestimmen weitestgehend die anzuwendenden Methoden. Dabei helfen Klassifikationssysteme, um zielorientiert zu einer Auswahl gelangen zu können. Die einfachste Form bilden univariate Datenreihen, deren Ausreißer mittels Häufigkeitsverteilungen, Konfidenzintervalle um den Mittelwert und Boxplots bestimmt werden.
The mathematical representations of data in the Spherical Harmonic (SH) domain has recently regained increasing interest in the machine learning community. This technical report gives an in-depth introduction to the theoretical foundation and practical implementation of SH representations, summarizing works on rotation invariant and equivariant features, as well as convolutions and exact correlations of signals on spheres. In extension, these methods are then generalized from scalar SH representations to Vectorial Harmonics (VH), providing the same capabilities for 3d vector fields on spheres.
In an extensive research project, we have assessed the application of different service models by export credit agencies (ECAs) and export-import banks (EXIMs). We conducted interviews with 35 representatives of ECAs and EXIMs from 27 countries. The question guiding this study is: How do ECAs and EXIMs adopt public service models for supporting exporters? We conducted a holistic multiple case study, investigating if and how these organisations apply public service models developed by Schedler and Guenduez, and which roles of the state are relevant. We find that there is a variety of different service models used by ECAs and EXIMs, and that the service model approaches have great potential to learn from each other and innovate existing services.
Wissenschaftler treten als Berater auf und nehmen nicht nur Einfluss auf wirtschaftliche, sondern auch auf politische Entscheidungen. Welche Anforderungen sind an diese Art der Entscheidungsunterstützung zu stellen? Lassen sich für Wissenschaftler zulässige und unzulässige Einflussmöglichkeiten identifizieren? Der Beitrag beantwortet diese Frage unter Rückgriff auf Erkenntnisse aus Soziologie und Entscheidungslehre.
Staatliche Exportkreditagenturen und Export-Import-Banken finanzieren, versichern und garantieren jährlich fast 1 Bio. US-Dollar – mehr als 3 % der globalen Güterexporte. Ihre Interventionen sind an internationale Rahmenbedingungen gebunden, insbesondere an das WTO-Subventionsübereinkommen (ASCM) und den OECD-Konsensus. Das komplexe Zusammenspiel beider Rechtsrahmen sorgt seit langem für Herausforderungen, vor allem hinsichtlich des Anwendungsbereichs des “safe haven” des ASCM und des “Matching”-Mechanismus der OECD. In den vergangenen Jahren hinzugekommen ist die Problematik neuer Instrumente der Exportvor- sowie der Klimafinanzierung. Der folgende Beitrag erörtert Herausforderungen und Lösungsansätze. Er zeigt auf, dass der neue OECD-Konsensus trotz zahlreicher Verbesserungen zentrale rechtliche Probleme nicht behebt.
This article provides an overview of the legal framework for website marketing. The presentation of the numerous legal provisions, which are spread over several areas of law, is oriented towards business challenges and measures. After placing the website in the context of marketing, the article focuses on the legal framework relating to the establishment, design and operation of a website. If, in addition to its communication function, a website also has a sales function, i. e. in e-commerce (online trade), additional specific legal conditions must be taken into account.
Seit mehr als 40 Jahren wiederholen sich Diskussionen und Kontroversen über Sinn und Unsinn von Informationstechnik (IT) in Bildungseinrichtungen. Wurde bislang über das Arbeiten an und mit PC, Laptop oder Tablet debattiert, drehen sich aktuelle Diskussionen verstärkt um netzbasierte Anwendungen mit Rückkanal für Schülerdaten. Das Schüler*innenverhalten wird per Software ausgewertet, um Lehrinhalte automatisiert und „individualisiert“ anzupassen. Ergänzt werden solche Lernprogramme um Anwendungen der sogenannten „Künstliche Intelligenz“ (KI), die als „Lernbegleiter“ fungieren und zumindest perspektivisch fehlende Lehrkräfte ersetzen (sollen). Damit werden technische Systeme in Schulen etabliert, von denen nicht einmal mehr die Entwickler wissen, was diese Algorithmen genau tun.
Das erfordert einen kritisch-reflektierenden Diskurs. Dafür vertritt Ralf Lankau im vorliegenden Aufsatz die These, dass essenzielle Elemente der Bildung, wie die Erziehung zu Selbstbewusstsein, Reflexion und einer kritischen Bürgerschaft, mit solchen Lernprogrammen verloren gehen.
Es wird ein Verfahren zur Auswertung von Dehnungsmessungen an Biegetraegern aus punktgeschweissten duennwandigen Blechprofilen vorgestellt, das fuer beliebige Spannungsverteilungen anwendbar ist und es erlaubt, fuer jeden Steg und jede Punktschweissnaht getrennt die Biege- und Schubbeanspruchung zu ermitteln. Eine Kontrollrechnung gestattet Rueckschluesse auf die erzielte Genauigkeit.
Um eine gleichbleibende Mahrspalthoehe und gleichmaessige Lastverteilung waehrend des Betriebes zu erreichen, werden Mahlwalzen bombiert hergestellt. Das theoretische Bombierungsprofil wird aus der elastischen Walzenverformung bei gegebener Belastung abgeleitet. Die Verformung kann mit Finiten Elementen berechnet werden. Werden zwei Walzen mit zylindrischer Oberflaeche gegeneinander gedrueckt, so ergibt sich ein nichtlinearer Kontakt. Die Druckverteilung laengs der Walze laesst sich unter Hinzunahme von Einflusszahlen mit Hilfe eines linearen Gleichungssystems ermitteln. Die Autoren untersuchen mit diesem Berechnungsverfahren die Wirkungen unterschiedlicher Bombierungen und den Einfluss von veraenderter Anpresskraft. (Rohlf)
Voraussetzung fuer eine menschengerechte Arbeitsgestaltung ist die Beruecksichtigung ergonomischer Erkenntnisse. Bewertungskriterien sind Ausfuehrbarkelt, Ertraeglichkeit, Zumutbarkeit und Zufriedenheit. Die Herzschlagfrequenz ist ein Mass fuer die Gesamtbeanspruchung des arbeitenden Menschen. Aus dem Verlauf der Herzschlagfrequenz ergibt sich die Arbeitspulsfrequenz als Erhoehung gegenueber der Ruhepulsfrequenz und als ein Indikator fuer Beanspruchung und Ermuedung. Prozessorgesteuerte Systeme bestehen aus einem taschenrechnergrossen, mehrkanaligen Signalspeicher und einem Software-gesteuerten Auswerter und reduzieren die biologischen Ursprungssignale auf das wesentliche. (Sehm)
In diesem Beitrag wird die Funktionsweise und Eigenschaften des IM-Bus der Firma Intermetall erläutert. Dieser geräteinterne Bus wird eingesetzt, wenn eine Ansammlung von Peripheriebausteinen und Signalprozessoren gesteuert, überwacht und parametriert werden muß. Universelle Bussysteme müssen neben einer hohen Datenübertragungsrate auch die Multimaster-Fähigkeit aufweisen.
Die Bestimmung von Emissionen aus Abgaskaminen mit grossen Querschnitten ist ein Problem, da dort Inhomogenitaeten sowohl der Konzentration als auch der linearen Abgasgeschwindigkeit vorliegen. Die VDI 2066, Bl. 1, schreibt vor, welche Punkte zu waehlen sind, und wenn man dann noch isokinetisch die Abgasproben entnimmt, sollte man zum richtigen Ergebnis kommen. Anm. d.Ref.: Die Hessische Landesanstalt fuer Umwelt ist da schon frueher auf recht komplizierte Loesungen gekommen. Und diese Linie wird in der vorliegenden Arbeit konsequent eingehalten. - Es mag sein, dass der angekuendigte Ergebnisbericht mehr Licht in die Angelegenheit bringt. Aus den hier gemachten Angaben kann man eigentlich nur entnehmen, dass bisher alles falsch gemacht worden ist. (H. -D. Papendick).
Wahlweise Lichtleiter oder Zweidraht-Leitungen: Ringbus-System zur flexiblen Messdatenerfassung
(1986)
In diesem Beitrag wird ein Messdatenerfassungssystem vorgestellt, bei dem die Datenuebertragung je nach den Anforderungen entweder auf Zweidrahtleitung oder via Lichtleiter erfolgen kann. Es handelt sich um ein ringfoermiges serielles Bussystem fuer das eine universelle Interfacekarte mit Mikroprozessor aufgebaut wurde. Nach Beschreibung der Struktur des Systems wird auf den Uebertragungscode und das Datenprotokoll eingegangen. Anschliessend wird der Aufbau der Interfacekarte gezeigt. Einige Bemerkungen zu den Software-Modulen fuer die Interfacekarte, zum Programmablauf auf ihr und zur Synchronisierung der Interface-Karte runden den Beitrag ab.
Die Folgen ungenügender Entlüftung wurden durch Umfragen bei Konstrukteuren und Werkzeugmachern aus sechs Betrieben ermittelt und sind für Formteil, Werkzeug, Spritzgießprozeß ebenso tabellarisch wie die Gestaltungsmöglichkeiten von Entlüftungen (in der Trennebene und Kavität) dargestellt. Im Rahmen einer Diplomarbeit wurden mit Hilfe eines speziellen Versuchswerkzeuges die Auswirkungen der Entlüftung auf den Spritzgießablauf, das Formteil und das Verhalten bei teilevakuierter Kavität (der Einfluß des Evakuierungsgrades auf die gemittelte Füllhöhe wird anhand einer Kurve erläutert) untersucht. Die Konstanz der Werkzeuginnendrücke, die Berechenbarkeit der Druckabfälle (Tabelle mit Druckabfällen in Abhängigkeit der Entlüftungsspaltgeometrie), die Entlüftungselemente (bewegliche haben den Vorzug der Selbstreinigung) und das Einspritzen unter teilevakuierter Kavität werden beschrieben. Der Einfluß der Werkzeugentlüftung umfaßt die Spalttiefe des Entlüftungskanals, die Größe des Expansionsraumes und den Anschluß an die Dichtkante des Expansionsraumes.
Kosten und Leistung von Zeitarbeitnehmerinnen fuer Bueroarbeiten wurden mit denen von festangestellten Mitarbeiterinnen verglichen. Die absoluten Kosten, die ein Unternehmen fuer eine Zeitarbeitnehmerin aufbringen muss, sind geringer als fuer eine festangestellte Springerin. Doch ist deren Leistungsfaehigkeit groesser, da sie die betriebliche Organisation kennt und ihre Faehigkeiten bekannt sind. Somit ergeben sich fuer anspruchsvollere Taetigkeiten keine Vorteile beim Einsatz von Zeitarbeitnehmerinnen. Weitere rechnerisch nicht erfassbare Aspekte sprechen teils fuer Zeitarbeit teils fuer Springerarbeit. Die Entscheidung faellt je nach Gesamtzusammenhang verschieden aus. (Hasper)
Dieser Beitrag befaßt sich mit der optischen Meßtechnik, mit der man geometrische Dimensionen berührungslos und mit hoher Genauigkeit vermessen kann. Durch eine konkrete industrielle Aufgabenstellung angeregt, wurde im Labor für Optoelektronik der FH Offenburg eine einfache, aber universelle und PC-steuerbare Linear-CCD-Kamera entwickelt. Entscheidend für die Auslegung der Kamera ist die Auswahl des geeigneten Sensors.
Im folgenden Beitrag wird ein programmierbarer Logikbaustein vorgestellt, der zur Datensicherung erforderlich ist, wenn eine CCD-Linearkamera über eine längere Leitung an einen PC angeschlossen werden soll. Damit die Verbindung zum PC sehr lang werden kann, sollen die Meßdaten bitseriell über einen Lichtwellenleiter übertragen werden. Der geringe zur Verfügung stehende Einbauraum in der Kamera faßt die erforderliche Digitalisier- und Codierschaltung auf einem LCA-Chip zusammen.
Die Abmahnung ist tariflich oder gesetzlich nicht geregelt; sie ist eine Entwicklung der Arbeitsgerichtsbarkeit (Richterrecht). Der für den Praktiker bestimmte Aufsatz enthält anhand von Beispielen eine ausführliche, umfassende und leicht verständliche Darstellung dessen, welches Verhalten wie (z.B. kein Gebrauch von Schlagworten, möglichst Schriftform), wann (sind Fristen zu beachten?) und von wem abgemahnt werden kann. Ferner werden z.B. Fragen nach der Beteiligung des Betriebsrates und der Entfernung überholter Abmahnungen aus der Personalakte ebenso beantwortet wie diejenigen, welche und wie lange eine vorausgegangene Abmahnung für eine Kündigung herangezogen werden kann (Wirkungslosigkeit durch Zeitablauf), wer im Falle einer verhaltensbedingten Kündigung die Beweislast trägt, und ob, ggf. wann, ein vom Arbeitgeber verlorener Kündigungsschutzprozeß einer Abmahnung gleichgesetzt werden kann.
Prozeßrechner und Automatisierungstechnik gehören heute zur Standardausrüstung im Bereich der Energie-, Verfahrens- und Fertigungstechnik. In der Antriebstechnik sind jedoch noch umfangreiche Aufgaben zu lösen. Für Einzelantriebe stehen leistungsfähige Steuerungs- und Regelungseinheiten zur Verfügung. Die Hauptaufgabe liegt heute in der Leittechnik für gekoppelte Antriebe. Hier muß ein Leitsystem die übergeordneten Aufgaben übernehmen. Eine vordringliche Aufgabe besteht darin, geeignete Strategien und Algorithmen zu finden, um mechanisch verkoppelte Antriebssysteme leittechnisch zu entkoppeln. Diese Theorien können nur mit leistungsfähigen Rechnern und hochdynamischen Echtzeit-Bussystemen zur Kommunikation praktisch umgesetzt werden. Abschließend wird auf die wichtige Aufgabe der Hochschulen hingewiesen, den Studenten neben der Grundausbildung im Elektromaschinenbau auch solide Kenntnisse in der Leittechnik, Informatik und in der Regelungstechnik zu vermitteln.