Refine
Year of publication
Document Type
- Article (unreviewed) (566) (remove)
Is part of the Bibliography
- yes (566) (remove)
Keywords
- Schule (11)
- Bildung (8)
- Arbeitszeugnis (7)
- Export (7)
- Digitalisierung (6)
- Energieversorgung (6)
- Nachhaltigkeit (6)
- Recht (6)
- Datenschutz (5)
- Dünnschichtchromatographie (5)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (189)
- Fakultät Wirtschaft (W) (120)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (97)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (95)
- Fakultät Medien (M) (ab 22.04.2021) (35)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (27)
- INES - Institut für nachhaltige Energiesysteme (21)
- IMLA - Institute for Machine Learning and Analytics (16)
- IfTI - Institute for Trade and Innovation (13)
- IUAS - Institute for Unmanned Aerial Systems (4)
Open Access
- Closed Access (156)
- Open Access (131)
- Closed (71)
- Diamond (17)
- Bronze (15)
- Gold (1)
- Grün (1)
- Hybrid (1)
In Zeiten großer Veränderungen haben genossenschaftlich organisierte KMU die Möglichkeit, auf komplexe Herausforderungen mit kooperativen Lösungsansätzen zu reagieren, vor allem wenn dabei die Kraft und Kreativität der Gemeinschaft genutzt wird. Getreu dem Motto „Was einer alleine nicht schafft, das schaffen viele“ des Genossenschaftsvorreiters Friedrich Wilhelm Raiffeisen ist gemeinschaftliches unternehmerisches Handeln identitätsstiftend und motivierend, woraus wiederum eine sich selbst verstärkende Eigendynamik entstehen kann. Wie Mittelstand, Politik und Gesellschaft davon profitieren, stellen Prof. Dr. Tobias Popovic und Prof. Dr. Thomas Baumgärtler in diesem Beitrag dar.
Entity Matching (EM) defines the task of learning to group objects by transferring semantic concepts from example groups (=entities) to unseen data. Despite the general availability of image data in the context of many EM-problems, most currently available EM-algorithms solely rely on (textual) meta data. In this paper, we introduce the first publicly available large-scale dataset for "visual entity matching", based on a production level use case in the retail domain. Using scanned advertisement leaflets, collected over several years from different European retailers, we provide a total of ~786k manually annotated, high resolution product images containing ~18k different individual retail products which are grouped into ~3k entities. The annotation of these product entities is based on a price comparison task, where each entity forms an equivalence class of comparable products. Following on a first baseline evaluation, we show that the proposed "visual entity matching" constitutes a novel learning problem which can not sufficiently be solved using standard image based classification and retrieval algorithms. Instead, novel approaches which allow to transfer example based visual equivalent classes to new data are needed to address the proposed problem. The aim of this paper is to provide a benchmark for such algorithms.
Information about the dataset, evaluation code and download instructions are provided under https://www.retail-786k.org/.
Modern CNNs are learning the weights of vast numbers of convolutional operators. In this paper, we raise the fundamental question if this is actually necessary. We show that even in the extreme case of only randomly initializing and never updating spatial filters, certain CNN architectures can be trained to surpass the accuracy of standard training. By reinterpreting the notion of pointwise ($1\times 1$) convolutions as an operator to learn linear combinations (LC) of frozen (random) spatial filters, we are able to analyze these effects and propose a generic LC convolution block that allows tuning of the linear combination rate. Empirically, we show that this approach not only allows us to reach high test accuracies on CIFAR and ImageNet but also has favorable properties regarding model robustness, generalization, sparsity, and the total number of necessary weights. Additionally, we propose a novel weight sharing mechanism, which allows sharing of a single weight tensor between all spatial convolution layers to massively reduce the number of weights.
Rezension zu Rolf Ph. Illenberger (2013): Erfolgsfaktoren printmarkenbasierter Online-Angebote
(2013)
Risiko und Sicherheit sind Begriffe, die nur im Zusammenhang mit dem Menschen gesehen werden können, wobei bei der Risikoabschätzung die Fragen beantwortet werden müssen, was passieren kann und was passieren darf. Ausgehend von der Vornorm DIN V 19250 wird im Detail auf folgende Punkte eingegangen: Risikoparameter, Schadensausmaß, Häufigkeit, Aufenthaltsdauer im Gefahrenbereich, Gefahrenabwendung, Eintrittswahrscheinlichkeit, Bewertung der Eintrittsmöglichkeiten von Ereignissen, Restrisikoverkleinerung, Vorhersage von Schadensereignissen einschließlich Störfallauslöser. Die Demonstration erfolgt an Beispielen aus der Chemie.
Unternehmerische Entscheidungen sind im Regelfall riskant. Um das Ausmaß des Risikos deutlich zu machen, hat sich in der Praxis die Anfertigung von Szenarioanalysen durchgesetzt. Damit jedoch werden vorliegende Risiken systematisch unterschätzt. Bei wichtigen Entscheidungen sollte besser eine Sensitivitätsanalyse oder eine Simulation durchgeführt werden.
Risk aversion, financing and real servicThe Global CEO Survey was launched in 2015 by researchers from Offenburg University, the University of Westminster and the London School of Economics and Political Science (LSE) to better understand and discover what factors influence exporters’ demand for credit insurance. Although some scholars discussed aspects of corporate insurance demand with regard to exporters, there is limited research concerning the demand for export credit insurance associated with firm-specific factors. Only few empirical studies support existing theories on corporate insurance demand and export credits. This project investigates and fills the relevant gap of official export credit insurance demand.es
This paper presents the new Deep Reinforcement Learning (DRL) library RL-X and its application to the RoboCup Soccer Simulation 3D League and classic DRL benchmarks. RL-X provides a flexible and easy-to-extend codebase with self-contained single directory algorithms. Through the fast JAX-based implementations, RL-X can reach up to 4.5x speedups compared to well-known frameworks like Stable-Baselines3.
Objective: To identify and evaluate the evidence of the most relevant running-related risk factors (RRRFs) for running-related overuse injuries (ROIs) and to suggest future research directions.
Design: Systematic review considering prospective and retrospective studies. (PROSPERO_ID: 236832)
Data sources: Pubmed. Connected Papers. The search was performed in February 2021.
Eligibility criteria: English language. Studies on participants whose primary sport is running addressing the risk for the seven most common ROIs and at least one kinematic, kinetic (including pressure measurements), or electromyographic RRRF. An RRRF needed to be identified in at least one prospective or two retrospective studies.
Results: Sixty-two articles fulfilled our eligibility criteria. Levels of evidence for specific ROIs ranged from conflicting to moderate evidence. Running populations and methods applied varied considerably between studies. While some RRRFs appeared for several ROIs, most RRRFs were specific for a particular ROI. The biomechanical measurements performed in many studies would have allowed for consideration of many more RRRFs than have been reported, highlighting a potential for more effective data usage in the future.
Conclusion: This study offers a comprehensive overview of RRRFs for the most common ROIs, which might serve as a starting point to develop ROI-specific risk profiles of individual runners. Future work should use macroscopic (big data) approaches involving long-term data collections in the real world and microscopic approaches involving precise stress calculations using recent developments in biomechanical modelling. However, consensus on data collection standards (including the quantification of workload and stress tolerance variables and the reporting of injuries) is warranted.
SAP S/4HANA, das neue ERP-System der SAP SE, wird einem Funktionscheck im Bereich des Produktionscontrollings unterzogen. Ermittelte Anforderungen an die IT-Unterstützung eines modernen Produktionscontrolling-Konzeptes werden auf ihre Umsetzbarkeit mit SAP S/4HANA evaluiert und anschließend in einem realitätsnahen End-to-End-Szenario implementiert. Im aktuellen Release-Stand treten an mehreren Stellen noch funktionale Lücken auf, die nur über den Rückgriff auf Technologien und Oberflächen des Vorgängers SAP ECC geschlossen werden können.
Die Weltwirtschaftskrise 2008 hat mit ihrer zeitweisen Verknappung von Acetonitril eindringlich gezeigt, dass man nicht nur auf eine einzige chromatographische Methode setzten sollte. Genau dies wird aber im Augenblick getan, denn Industrie und Forschung setzen mehrheitlich auf die High Performance Liquid Chromatography (HPLC) als die Trennmethode ihrer Wahl. Für viele Anwendungen in der Pharmazie, in der Umweltanalytik, der Lebensmittelanalytik, aber auch in der Inprozesskontrolle gibt es mit der Dünnschichtchromatografie eine Alternative.
Es wird ein Verfahren zur Auswertung von Dehnungsmessungen an Biegetraegern aus punktgeschweissten duennwandigen Blechprofilen vorgestellt, das fuer beliebige Spannungsverteilungen anwendbar ist und es erlaubt, fuer jeden Steg und jede Punktschweissnaht getrennt die Biege- und Schubbeanspruchung zu ermitteln. Eine Kontrollrechnung gestattet Rueckschluesse auf die erzielte Genauigkeit.
SchulverwaltungSpezial
(2021)
Die Corona-Krise ist eine Herausforderung, bei der Schulleitungen nicht nur im Rahmen des Krisenmanagements und insbesondere der Krisenkommunikation gefordert sind, sondern darüber hinaus, ausgehend von der akuten Krisenbewältigung, auch ein proaktives Risikomanagement vornehmen müssen. Die Prinzipien Klarheit, Transparenz und Partizipation sowie die günstige Kombination von Zentralität und Dezentralität im Rahmen des Krisenmanagements sind die Voraussetzung für den Übergang in ein strategisch orientiertes proaktives Transformationsmanagement.
Recent studies have shown remarkable success in image-to-image translation for attribute transfer applications. However, most of existing approaches are based on deep learning and require an abundant amount of labeled data to produce good results, therefore limiting their applicability. In the same vein, recent advances in meta-learning have led to successful implementations with limited available data, allowing so-called few-shot learning.
In this paper, we address this limitation of supervised methods, by proposing a novel approach based on GANs. These are trained in a meta-training manner, which allows them to perform image-to-image translations using just a few labeled samples from a new target class. This work empirically demonstrates the potential of training a GAN for few shot image-to-image translation on hair color attribute synthesis tasks, opening the door to further research on generative transfer learning.
Mice and rats make up 95% of all animals used in medical research and drug discovery and development. Monitoring of physiological functions such as ECG, blood pressure, and body temperature over the entire period of an experiment is often required. Restraining of the animals in order to obtain this data can cause great inconvenience. The use of telemetric systems solves this problem and provides more reliable results. However, these devices are mostly equipped with batteries, which limit the time of operation or they use passive power supplies, which affects the operating range. The semi-passive telemetric implant being presented is based on RFID technology and overcomes these obstacles. The device is inductively powered using the magnetic field of a common RFID reader device underneath the cage, but is also able to operate for several hours autonomously. Being independent from the battery capacity, it is possible to use the implant over a long period of time or to re-use the device several times in different animals, thus avoiding the disadvantages of existing systems and reducing the costs of purchase and refurbishment.
Als Grenztaster und zur Erfassung kleinster Wege werden in der Industrie induktive Wegaufnehmer in Meßvorrichtungen eingesetzt. Die Verwendung diskret aufgebauter Elektronik verursacht hierbei neben erheblichem Raumbedarf auch unakzeptabel hohe Kosten. Daher entschloß man sich zur Entwicklung einer in den Aufnehmer integrierten Elektronik. Eine Prüfung der auf dem Markt angebotenen ICs deckt jedoch die Forderungen für diesen Anwendungsbereich nicht ab. Dieser Beitrag erläutert den Schaltungsentwurf und das Layout eines ASICs, der an der FH Offenburg für diesen Anwendungsbereich entwickelt wurde und befaßt sich besonders mit dem integrierten Vierquadranten-Multiplizierer.
In diesem Beitrag wird die Funktionsweise und Eigenschaften des IM-Bus der Firma Intermetall erläutert. Dieser geräteinterne Bus wird eingesetzt, wenn eine Ansammlung von Peripheriebausteinen und Signalprozessoren gesteuert, überwacht und parametriert werden muß. Universelle Bussysteme müssen neben einer hohen Datenübertragungsrate auch die Multimaster-Fähigkeit aufweisen.
Sharing Economy
(2019)
Sicher funken mit 2,45 GHz
(2015)
Silicon edges as one-dimensional waveguides for dispersion-free and supersonic leaky wedge waves
(2012)
Acoustic waves guided by the cleaved edge of a Si(111) crystal were studied using a laser-based angle-tunable transducer for selectively launching isolated wedge or surface modes. A supersonic leaky wedge wave and the fundamental wedge wave were observed experimentally and confirmed theoretically. Coupling of the supersonic wave to shear waves is discussed, and its leakage into the surface acoustic wave was observed directly. The velocity and penetration depth of the wedge waves were determined by contact-free optical probing. Thus, a detailed experimental and theoretical study of linear one-dimensional guided modes in silicon is presented.
Die fluktuierende Verfügbarkeit regenerativer Energiequellen stellt eine Herausforderung bei der Planung und Auslegung regenerativer Gebäudeenergiesysteme dar. Die in einem System benötigten Speicherkapazitäten hängen dabei sowohl von der eingesetzten Regelungsstrategie als auch von den temperaturabhängigen Wirkungsgraden der Anlagenkomponenten ab. Genauere Einblicke in das Betriebsverhalten eines Gesamtsystems können dynamische Simulationen liefern, die eine Analyse der Systemtemperaturen und von Teilenergiekennwerten ermöglichen.
Sind Mitglieder eine aussterbende Spezies? Der demografische Wandel zeigt dringenden Handlungsbedarf
(2012)
Smart Cities und Big Data
(2019)
Künstliche Intelligenz (KI) kommt laut einer Interxion-Studie bei 96 Prozent der Schweizer Unternehmen zum Einsatz. Allerdings gaben nur 22 Prozent der Schweizer IT-Entscheider an, dass sie KI bereits für einen ersten Anwendungsfall einsetzen. Dabei ist KI etwa im Datenmanagement sehr hilfreich – sofern Qualität und Quantität der Trainingsdaten stimmen.
Die moderne Erpressung von Unternehmen nach erfolgreichen Ransomware-Attacken ist sowohl ein monetäres als auch nicht-monetäres Problem. Angreifende erhalten über einen initialen, häufig menschlichen Endpunkt Zugang zur Organisation und können die Schadsoftware platzieren. Die beiden Angriffsvektoren Social Engineering und Ransomware nutzen die organisatorischen und technischen Schwachstellen, um auf diverse Vermögensgegenstände zuzugreifen. In diesem ersten Beitrag der zweiteiligen Serie wird das Verständnis für dieses Vorgehen entwickelt.
Sofern ein Rahmenwerk für den risikoorientierten Umgang mit Ransomware-Angriffen existiert, sollten die Verantwortlichen in Unternehmen darauf zurückgreifen und in die unternehmensweite Systematik einbetten. Das ermöglicht die Steuerung und das Management von Risiken, die zuvor von hoher Unsicherheit geprägt waren und Organisationen unerwartet treffen. Ferner ist zu berücksichtigen, dass das Social Engineering eine bedeutende Rolle bei der Lieferung von schadhafter Software spielt und frühzeitig in den Analyseprozess einzubeziehen ist.
Die Hochschule Offenburg begleitet seit Juli 2006 in Zusammenarbeit mit dem Fraunhofer ISE in Freiburg und der HfT Stuttgart die solar unterstützte Klimatisierung der Festo AG & Co. KG in Esslingen. Die Anlage wurde im Rahmen des Forschungsvorhabens „Solarthermie2000plus“ vom Bundesumweltministerium gefördert. Dabei wurde die bereits bestehende Adsorptionskälteanlage, die bisher mit Kompressorabwärme und Gaskesseln betrieben wurde, durch eine Solaranlage als drittem Wärmelieferanten ergänzt.
Die Hochschule Offenburg begleitet in Zusammenarbeit mit dem Fraunhofer ISE in Freiburg die solar unterstützte Klimatisierung der Deutschen Telekom in Rottweil. Die Anlage wurde im Rahmen des Forschungsvorhabens „Solarthermie2000plus“ vom Bundesumweltministerium gefördert. Inzwischen liegen erste Ergebnisse aus einem Langzeitmonitoring vor.
Soziale Medien und Marken
(2009)
Soziale Roboter unterscheiden sich von Servicerobotern, da sie auch komplexere Interaktionen und Kommunikation beherrschen. Einige können Emotionen simulieren oder sogar erkennen. Einsatzbereiche gibt es viele: vom Haushalt über die Pflege bis in den medizinischen Bereich. Wo liegen die Grenzen der aktuellen Systeme? Wie müssen soziale Roboter aussehen und interagieren, um als nützliche Helfer statt als Konkurrenten wahrgenommen zu werden? Dieser Artikel gibt einen kurzen Überblick bestehender sozialer Roboter. Er beleuchtet deren Akzeptanz im wichtigen Bereich Gesundheit und Pflege anhand der Ergebnisse einer Expertenstudie und gibt eine zeitliche Perspektive zur weiteren Entwicklung.
In this preliminary report, we present a simple but very effective technique to stabilize the training of CNN based GANs. Motivated by recently published methods using frequency decomposition of convolutions (e.g. Octave Convolutions), we propose a novel convolution scheme to stabilize the training and reduce the likelihood of a mode collapse. The basic idea of our approach is to split convolutional filters into additive high and low frequency parts, while shifting weight updates from low to high during the training. Intuitively, this method forces GANs to learn low frequency coarse image structures before descending into fine (high frequency) details. Our approach is orthogonal and complementary to existing stabilization methods and can simply plugged into any CNN based GAN architecture. First experiments on the CelebA dataset show the effectiveness of the proposed method.
Nach einem langen Vorlauf haben Bundestag und Bundesrat zum Ende der Legislatur 2021 einen Rechtsanspruch auf Ganztagsbildung in Grundschulen verabschiedet. Um aus diesem formalen Anspruch gute Angebote in der Rechtswirklichkeit schaffen zu können, bedarf es neben politischer und finanzieller Rahmenbedingungen auch eines gezielten Dialogs mit den relevanten Anspruchs- und Interessengruppen, weshalb dem Stakeholdermanagement vor allem der Akteure von Schulträgern und Schulen eine besondere Bedeutung zukommt.
Wie in Ausgabe 44 bereits angekündigt startet bwLehrpool im März 2017 offiziell als Landesdienst. Neben der originären Aufgabe der Bereitstellung virtueller Lehrumgebungen in PC-Räumen wurde der Dienst nun
um die Möglichkeit der einfachen und sicheren Durchführung von E-Prüfungen sowie des Pool Video Switch (PVS)-Systems erweitert. bwLehrpool wird bereits an zahlreichen Hochschulen und Universitäten in den unterschiedlichsten Fachberei-
chen erfolgreich eingesetzt.
Statt MOOC
(2013)
Über zwei Jahrzehnte hat sich an der Hochschule Offenburg im Umfeld von Professor Elmar Bollin eine Forschungsgruppe etabliert, die die Bereiche Gebäudeautomation und nachhaltige Energietechnik zusammenführten. Anfänglich ging es darum die Potenziale der internetbasierten Wetterprognostik und modell-basierten Anlagensteuerung für die Verbesserung des Komforts und der Energieeffizienz im Gebäude zu nutzen. Im Rahmen von Forschungs- und Entwicklungsarbeiten mit Einsatz von dynamischen Gebäudesimulationen konnte schließlich ein Algorithmus gefunden werden, der es ermöglichte auf Basis von prognostizierter Außentemperatur und Sonneneinstrahlung den Energiebedarf eines Bürogebäudes für den Folgetag vorherzusagen. In Verbindung mit der Gebäudeautomation entstand so die adaptive und prädiktive TABS-Steuerung AMLR.
Excellent organisations require targeted strategies to implement their vision and mission, deploying a stakeholder-focused approach. As part of evidence-based policy making, it is a common approach to measure government financing vehicles’ results. A state-of-the-art method in quantitative benchmarking to overcome the challenge of considering multiple inputs and outputs is Data Envelopment Analysis (DEA). Descriptive statistics and explorative-qualitative approaches are also applied in a modern ECA benchmarking model to substantiate DEA results and put them into perspective. This enabler-result model provides a holistic view and allows to identify top performing ECAs and Exim-Banks, providing the opportunity for inefficient institutions to learn from their most productive peers. This best practice approach for strategic benchmarking enables the senior management to develop and implement a cutting-edge strategy, and increase value for key stakeholders.
Turbulenzarme Verdrängungsströmungen (TAV), häufig auch als Laminarflow (LF) bezeichnet, werden in hochreinen Reinraumbereichen eingesetzt, um die Versorgung des kritischen Bereiches (offenes Produkt) mit schwebstoffgefilterter bzw. partikelfreier Luft zu gewährleisten. Die TAV kann durch Störgrößen, wie Thermikströme, Personeneingriffe, Strömungshindernisse, Materialtransport usw. gestört werden, womit eine unerwünschte Kontamination des kritischen Bereiches einhergehen kann.
Störerhaftung des beworbenen Unternehmens bei unverlangter E-Mail-Werbung durch beauftragten Dritten
(2019)
Leitsätze des Verfassers:
1. Ein Unternehmen, das einen Dritten mit der Durchführung von Werbeaktionen beauftragt, haftet für die unverlangte Zusendung von Werbe-E-Mails im Rahmen einer solchen Werbeaktion.
2. Der Adressat unverlangter E-Mail-Werbung hat auch dann einen datenschutzrechtlichen Auskunftsanspruch gegen das beworbene Unternehmen, wenn die Werbung durch eine Drittfirma durchgeführt wurde.
LG Frankenthal (Pfalz), Urteil vom 10.07.2018 – 6 O 322/17 (nicht rechtskräftig, Az. des OLG Zweibrücken 4 U 114/18)
Vorgestellt wird die Dioden-Array-Dünnschichtchromatographie als eine moderne und preiswerte Messmethode zur densitometrischen Erfassung von Substanzen auf einer DC- oder einer HPTLC-Platte. Sicher identifizierbar sind auch Substanzen mit schwachem Chromophor. Die Kubelka-Munk-Gleichung beschreibt einen linearen Zusammenhang zwischen Remissionslicht und lichtabsorbierender Stoffmenge auf der Platte. Die Auswertung im Spektralbereich von 316 bis 334 nm zeigt den Zusammenhang zwischen transformiertem Messsignal und aufgetragener Substanzmasse. Die schnelle Aufnahme von UV/vis-Spektren eröffnet der HPTLC den gesamten Bereich der Methodenvalidierung auf dem Niveau, auf welchem heute die HPLC-Analytik durchgeführt wird.
The European TRIZ Association ETRIA acts as a connecting link between scientific institutions, universities and other educational organizations, industrial companies and individuals concerned with conceptual and practical questions relating to organization of innovation process, invention methods, and innovation knowledge. In the meantime, more than TFC 1000 papers or presentation of scientists, educators, and practitioners from all over the world are available at the official ETRIA website. Numerous research projects were supported or funded by the European Commission.
Im folgenden Beitrag wird ein programmierbarer Logikbaustein vorgestellt, der zur Datensicherung erforderlich ist, wenn eine CCD-Linearkamera über eine längere Leitung an einen PC angeschlossen werden soll. Damit die Verbindung zum PC sehr lang werden kann, sollen die Meßdaten bitseriell über einen Lichtwellenleiter übertragen werden. Der geringe zur Verfügung stehende Einbauraum in der Kamera faßt die erforderliche Digitalisier- und Codierschaltung auf einem LCA-Chip zusammen.
The paper conceptualizes the systemic approach for enhancing innovative and competitive capacity of industrial companies (named as Advanced Innovation Design Approach – AIDA) including analysis, optimizations and further development of the innovation process and promoting the innovation climate in industrial companies. The innovation process is understood as a holistic stage-gate system comprising following typical phases with feedback loops and simultaneous auxiliary or follow-up processes: uncovering of solution-neutral customer needs, technology and market trends, identification of the needs and problems with high market potential and formulation of the innovation tasks and strategy, idea generation and problem solving, evaluation and enhancement of solution ideas, creation of innovation concepts based on solution ideas, evaluation of the innovation concepts as well as implementation, validation and market launch of chosen innovation concepts. The article presents the current state of innovation research and discusses the actual status of innovation process in the industrial environment. It defines the future research tasks for amplification of the innovation process with self-configuration, self-optimization, self-diagnostics and intelligent information processing and communication.
The aim of this data collection is to enforce evidence of SCS effectiveness in treating neuropathic chronic pain and the very low percentage of undesired side effects of complications reported in our case series suggests that all implants should be performed by similarly well-trained and experienced professionals.
In contrast to their traditional, non-interactive counterparts, interactive dynamic visualisations allow users to adapt their form and content to their individual cognitive skills and needs. Provided that the interactive features allow for intuitive use without increasing cognitive load, interactive videos should therefore lead to more efficient forms of learning. This notion was tested in an experimental study, where participants learned to tie four nautical knots of different complexity by watching either non-interactive or interactive videos. The results show that in the interactive condition, participants used the interactive features like stopping, replaying, reversing or changing speed to adapt the pace of the video demonstration. This led to an uneven distribution of their attention and cognitive resources across the videos, which was more pronounced for the difficult knots. Consequently users of non-interactive video presentations, needed substantially more time than users of the interactive videos to acquire the necessary skills for tying the knots.
Creating growth through trade is an important part of the policy approach of many economies. For decades, many member countries of the Organisation for Economic Co-operation and Development (OECD) have cooperated in a fair competition for the benefit of their national exporters. The countries’ official export credit agencies (ECAs) have established and jointly improved rules and regulations for export credit and political risk insurance. However, new players such as China, Russia or other fast developing countries have now joined the list of top exporting nations. As these countries have established their own ECAs, there is a need to introduce rules and regulations on global standards for financial terms as well as truly international norms ensuring ‘ethical’ trading behaviour.
But how will government support for foreign trade look like in the future? Will global standards for export credit and political risk insurance become reality by 2020? And how will strict rules and regulations for officially supported export credits and FDI regarding ethics, human rights and the environment impact growth through trade in general, or exporters in particular? These are questions addressed by the thirty eight contributions to Global Policy’s third eBook entitled ‘The Future of Foreign Trade Support – Setting Global Standards for Export Credit and Political Risk Insurance’, guest edited by Andreas Klasen and Fiona Bannert.
In order to make material design processes more efficient in the future, the underlying multidimensional process parameter spaces must be systematically explored using digitalisation techniques such as machine learning (ML) and digital simulation. In this paper we shortly review essential concepts for the digitalisation of electrodeposition processes with a special focus on chromium plating from trivalent electrolytes.
Following the traditional paradigm of convolutional neural networks (CNNs), modern CNNs manage to keep pace with more recent, for example transformer-based, models by not only increasing model depth and width but also the kernel size. This results in large amounts of learnable model parameters that need to be handled during training. While following the convolutional paradigm with the according spatial inductive bias, we question the significance of \emph{learned} convolution filters. In fact, our findings demonstrate that many contemporary CNN architectures can achieve high test accuracies without ever updating randomly initialized (spatial) convolution filters. Instead, simple linear combinations (implemented through efficient 1×1 convolutions) suffice to effectively recombine even random filters into expressive network operators. Furthermore, these combinations of random filters can implicitly regularize the resulting operations, mitigating overfitting and enhancing overall performance and robustness. Conversely, retaining the ability to learn filter updates can impair network performance. Lastly, although we only observe relatively small gains from learning 3×3 convolutions, the learning gains increase proportionally with kernel size, owing to the non-idealities of the independent and identically distributed (\textit{i.i.d.}) nature of default initialization techniques.
During pyrolysis, biomass is carbonised in the absence of oxygen to produce biochar with heat and/or electricity as co-products making pyrolysis one of the promising negative emission technologies to reach climate goals worldwide. This paper presents a simplified representation of pyrolysis and analyses the impact of this technology on the energy system. Results show that the use of pyrolysis can allow getting zero emissions with lower costs by making changes in the unit commitment of the power plants, e.g. conventional power plants are used differently, as the emissions will be compensated by biochar. Additionally, the process of pyrolysis can enhance the flexibility of energy systems, as it shows a correlation between the electricity generated by pyrolysis and the hydrogen installation capacity, being hydrogen used less when pyrolysis appears. The results indicate that pyrolysis, which is available on the market, integrates well into the energy system with a promising potential to sequester carbon.
Mit längerfristigen Nutzerbefragungen in zwei unmittelbar benachbarten Bürogebäuden in Freiburg wurden das Temperaturempfinden der Nutzer und deren Zufriedenheit mit dem thermischen Raumkomfort zweimal täglich erfasst. Ein Bürogebäude wird im Sommer mit einem maschinellen Nachtlüftungskonzept konditioniert und das zweite verfügt über eine Betonkerntemperierung und eine Zu- und Abluftanlage. Auf Basis der vorhandenen Daten aus der Erhebung wurde mit Hilfe von Regressionsanalysen ein Modell zur Vorhersage der Komforttemperatur berechnet und mit den Modellen in DIN EN 15251 verglichen.
Phenolic compounds, such as flavonoids and phenolic acids, are very important substances that occur in various medicinal plants. They show different pharmacological activities which might be useful in the therapy of many diseases. Phenolic compounds have achieved an increasing interest over the last years because these compounds are easily oxidized and, thus, act as strong antioxidants. We present the chemiluminescence of different phenolic compounds measured directly on high-performance thin-layer chromatography LiChrospher® plates using the oxalic acid derivative bis(2,4,6-trichlorophenyl) oxalate (TCPO) in conjunction with H2O2. Our results indicate that chemiluminescence intensity increases with an ascending number of phenolic groups in the molecule. The method can be used to detect phenolic compounds in beverages like coffee, tea, and wine.
Running shoes were categorized either as motion control, cushioned, or minimal footwear in the past. Today, these categories blur and are not as clearly defined. Moreover, with the advances in manufacturing processes, it is possible to create individualized running shoes that incorporate features that meet individual biomechanical and experiential needs. However, specific ways to individualize footwear to reduce individual injury risk are poorly understood. Therefore, the purpose of this scoping review was to provide an overview of (1) footwear design features that have the potential for individualization; (2) human biomechanical variability as a theoretical foundation for individualization; (3) the literature on the differential responses to footwear design features between selected groups of individuals. These purposes focus exclusively on reducing running-related risk factors for overuse injuries. We included studies in the English language on adults that analyzed: (1) potential interaction effects between footwear design features and subgroups of runners or covariates (e.g., age, gender) for running-related biomechanical risk factors or injury incidences; (2) footwear perception for a systematically modified footwear design feature. Most of the included articles (n = 107) analyzed male runners. Several footwear design features (e.g., midsole characteristics, upper, outsole profile) show potential for individualization. However, the overall body of literature addressing individualized footwear solutions and the potential to reduce biomechanical risk factors is limited. Future studies should leverage more extensive data collections considering relevant covariates and subgroups while systematically modifying isolated footwear design features to inform footwear individualization.
Convolutional neural networks (CNN) define the state-of-the-art solution on many perceptual tasks. However, current CNN approaches largely remain vulnerable against adversarial perturbations of the input that have been crafted specifically to fool the system while being quasi-imperceptible to the human eye. In recent years, various approaches have been proposed to defend CNNs against such attacks, for example by model hardening or by adding explicit defence mechanisms. Thereby, a small “detector” is included in the network and trained on the binary classification task of distinguishing genuine data from data containing adversarial perturbations. In this work, we propose a simple and light-weight detector, which leverages recent findings on the relation between networks’ local intrinsic dimensionality (LID) and adversarial attacks. Based on a re-interpretation of the LID measure and several simple adaptations, we surpass the state-of-the-art on adversarial detection by a significant margin and reach almost perfect results in terms of F1-score for several networks and datasets. Sources available at: https://github.com/adverML/multiLID
The COVID19 pandemic, a unique and devastating respiratory disease outbreak, has affected global populations as the disease spreads rapidly. Recent Deep Learning breakthroughs may improve COVID19 prediction and forecasting as a tool of precise and fast detection, however, current methods are still being examined to achieve higher accuracy and precision. This study analyzed the collection contained 8055 CT image samples, 5427 of which were COVID cases and 2628 non COVID. The 9544 Xray samples included 4044 COVID patients and 5500 non COVID cases. The most accurate models are MobileNet V3 (97.872 percent), DenseNet201 (97.567 percent), and GoogleNet Inception V1 (97.643 percent). High accuracy indicates that these models can make many accurate predictions, as well as others, are also high for MobileNetV3 and DenseNet201. An extensive evaluation using accuracy, precision, and recall allows a comprehensive comparison to improve predictive models by combining loss optimization with scalable batch normalization in this study. Our analysis shows that these tactics improve model performance and resilience for advancing COVID19 prediction and detection and shows how Deep Learning can improve disease handling. The methods we suggest would strengthen healthcare systems, policymakers, and researchers to make educated decisions to reduce COVID19 and other contagious diseases.
Deep generative models have recently achieved impressive results for many real-world applications, successfully generating high-resolution and diverse samples from complex datasets. Due to this improvement, fake digital contents have proliferated growing concern and spreading distrust in image content, leading to an urgent need for automated ways to detect these AI-generated fake images.
Despite the fact that many face editing algorithms seem to produce realistic human faces, upon closer examination, they do exhibit artifacts in certain domains which are often hidden to the naked eye. In this work, we present a simple way to detect such fake face images - so-called DeepFakes. Our method is based on a classical frequency domain analysis followed by basic classifier. Compared to previous systems, which need to be fed with large amounts of labeled data, our approach showed very good results using only a few annotated training samples and even achieved good accuracies in fully unsupervised scenarios. For the evaluation on high resolution face images, we combined several public datasets of real and fake faces into a new benchmark: Faces-HQ. Given such high-resolution images, our approach reaches a perfect classification accuracy of 100% when it is trained on as little as 20 annotated samples. In a second experiment, in the evaluation of the medium-resolution images of the CelebA dataset, our method achieves 100% accuracy supervised and 96% in an unsupervised setting. Finally, evaluating a low-resolution video sequences of the FaceForensics++ dataset, our method achieves 91% accuracy detecting manipulated videos.
Ausreißer in Datenreihen geben einen Hinweis auf mögliche Risiken. Die empirischen Daten bestimmen weitestgehend die anzuwendenden Methoden. Dabei helfen Klassifikationssysteme, um zielorientiert zu einer Auswahl gelangen zu können. Die einfachste Form bilden univariate Datenreihen, deren Ausreißer mittels Häufigkeitsverteilungen, Konfidenzintervalle um den Mittelwert und Boxplots bestimmt werden.
Die Identifikation und Einschätzung von Risiken werden stets von Unsicherheit begleitet. Auch die besten Risikomodelle und Wahrscheinlichkeitsberechnungen können diese Tatsache nicht komplett beseitigen. Mit dieser Kenntnis besteht aber die Möglichkeit, alle erfassbaren Sachverhalte besser einzuschätzen und Modelle anzuwenden, die zielorientiert Probleme angehen. Dadurch lässt sich die Unsicherheit zugunsten des Risikomanagements verringern.
Multiple Object Tracking (MOT) is a long-standing task in computer vision. Current approaches based on the tracking by detection paradigm either require some sort of domain knowledge or supervision to associate data correctly into tracks. In this work, we present an unsupervised multiple object tracking approach based on visual features and minimum cost lifted multicuts. Our method is based on straight-forward spatio-temporal cues that can be extracted from neighboring frames in an image sequences without superivison. Clustering based on these cues enables us to learn the required appearance invariances for the tracking task at hand and train an autoencoder to generate suitable latent representation. Thus, the resulting latent representations can serve as robust appearance cues for tracking even over large temporal distances where no reliable spatio-temporal features could be extracted. We show that, despite being trained without using the provided annotations, our model provides competitive results on the challenging MOT Benchmark for pedestrian tracking.