Refine
Year of publication
Document Type
- Article (unreviewed) (558) (remove)
Has Fulltext
- no (558) (remove)
Is part of the Bibliography
- yes (558)
Keywords
- Schule (10)
- Bildung (8)
- Arbeitszeugnis (7)
- Digitalisierung (6)
- Energieversorgung (6)
- Export (6)
- Nachhaltigkeit (6)
- Recht (6)
- Datenschutz (5)
- Dünnschichtchromatographie (5)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (188)
- Fakultät Wirtschaft (W) (117)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (96)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (94)
- Fakultät Medien (M) (ab 22.04.2021) (33)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (27)
- INES - Institut für nachhaltige Energiesysteme (20)
- IMLA - Institute for Machine Learning and Analytics (16)
- IfTI - Institute for Trade and Innovation (13)
- IUAS - Institute for Unmanned Aerial Systems (4)
Open Access
- Closed Access (156)
- Open Access (125)
- Closed (70)
- Diamond (16)
- Bronze (14)
- Gold (1)
- Hybrid (1)
In diesem Artikel wird die Entwicklung eines didaktischen Konzepts zur Verbesserung der Präsentationskompetenz und Teamfähigkeit beschrieben. Dabei wird über erste Erfahrungen aus der Umsetzung beispielhaft auf dem Gebiet CAD/CAE berichtet. Das Konzept lässt sich auf beliebige Ausbildungsformen übertragen und kann sowohl in Schulen, Berufsakademien als auch an Hochschulen eingesetzt werden. Die Lernenden erarbeiten in nach der Rundlitzenseilmethode strukturierten Gruppen technische Lösungen zum Entwickeln, Konstruieren und Berechnen einer technischen Aufgabe. Lösungsvorschläge werden in Form von 100-Sekunden-Vorträgen dargestellt. Die Bewertung der Leistungen erfolgt nach ausgewählten Kriterien. Eine Evaluation dieses didaktikschen Konzepts ist Ziel weiterführender Untersuchungen.
Die Heterogenität der Studienanfänger/innen erleben viele Lehrende unmittelbar in den Anfängerveranstaltungen, Heterogenität nicht nur in Bezug auf fachliche Vorbildung, sondern auch bezüglich verfügbaren Lernstrategien, Fertigkeiten, Motivation und
Selbstdisziplin. Schon allein einer 90-minütigen Vorlesung konzentriert zu folgen und die
Ergebnisse strukturiert zu sichern, ist für viele eine sehr große Herausforderung. In diesem Erfahrungsbericht wird das seit dem WS 2015/16
an der Hochschule Offenburg erprobte Potenzial moderner Tablets untersucht, Vorteile
von klassischem handschriftlichen An- und Mitschreiben mit einer Vorstruktur, wie sie
z.B. PPT-Slides ermöglichen, zu vereinen.
Es wird der Einsatz von Doppelschichtkondensatoren mit Kapazitäten bis zu 1500 F für den Einsatz in der Kraftfahrzeugtechnik und der Umwelttechnik diskutiert. Dabei werden sowohl die Verwendung zur Entlastung der Batterie bei Stromspitzen wie auch die Einsatzmöglichkeiten in alltagstauglichen Hybridfahrzeugen beleuchtet. Voraussetzung ist die Kombination mit einer ausgereiften Leistungselektronik. Doppelschichtkondensatoren verfügen über eine Leistungsdichte von derzeit etwa 2 Wh/kg, wobei weitere Steigerungen zu erwarten sind. Damit sind sie als Ergänzung oder sogar als Ersatz für Akkumulatoren einsetzbar. Da die Spannung vom Ladezustand abhängig ist, muß eine genaue Überwachung und Regelung stattfinden, andererseits wird dadurch die Ladezustandsdiagnose erheblich vereinfacht. Durch Kondensatorpufferung mittels Stellglied kann die Batterie bei starken Lastwechseln entlastet werden. In Elektrofahrzeugen läßt sich so die hohe Beschleunigungsleistung erbringen, die Batterie kann dann schwächer ausgelegt werden. Auch kann sich die Bremsenergie durch Kondensatoren besser zurückgewonnen werden. Die Möglichkeit der Entladung bis auf 0 V eröffnet ein wesentlich größeres Spannungsfenster. Der Einsatz in Hybridfahrzeugen mit kombiniertem Elektroantrieb/Verbrennungsmotor wird noch untersucht. Zur Untersuchung der elektronischen Systeme wurde ein Simulationsprogramm entwickelt, mit dem u. a. die Abhängigkeit von Energiedichte und spezifischer Konstantleistung als Ragone-Diagramm dargestellt werden kann.
Initially developed as a student project, a mobile ‘farm shop’ retail and freight service using a converted tram-train is being proposed for use on the regional rail network around Karlsruhe. This in turn could offer a more viable business model for other cargo tram initiatives.
Geothermal Energy in Germany
(2009)
During pyrolysis, biomass is carbonised in the absence of oxygen to produce biochar with heat and/or electricity as co-products making pyrolysis one of the promising negative emission technologies to reach climate goals worldwide. This paper presents a simplified representation of pyrolysis and analyses the impact of this technology on the energy system. Results show that the use of pyrolysis can allow getting zero emissions with lower costs by making changes in the unit commitment of the power plants, e.g. conventional power plants are used differently, as the emissions will be compensated by biochar. Additionally, the process of pyrolysis can enhance the flexibility of energy systems, as it shows a correlation between the electricity generated by pyrolysis and the hydrogen installation capacity, being hydrogen used less when pyrolysis appears. The results indicate that pyrolysis, which is available on the market, integrates well into the energy system with a promising potential to sequester carbon.
Wirtschaftliche Krisenzeiten implizieren häufig Liquiditätsengpässe und bei kompletter Zahlungsunfähigkeit auch Insolvenzen. Das Instrument des Working Capital Management hilft bei der schnelleren Freisetzung von gebundenem Kapital. Sofern ein datengetriebenes Management unter Einsatz von Business-Analytics-Techniken und mit der dafür notwendigen technisch-organisatorischen Infrastruktur eingesetzt wird, entstehen neue Möglichkeiten von Einsichten in die Prozesslandschaft und die Optimierung von Durchlaufzeiten. Das Ziel ist der Aufbau eines Working-Capital- Analytics-Ansatzes.
IT-Governance
(2023)
Die Dynamik der technologischen Entwicklungen übt einen großen Druck auf die Leitungs- und Überwachungsorgane eines Unternehmens aus. Die Hyperkonnektivität impliziert, dass die interne IT und OT Anknüpfungspunkte an den externen Kontext besitzen, wodurch die Komplexität aufgrund eines Nebeneinanders einer Vielzahl von Hard- und Software exponentiell steigt. Die gesetzlichen Notwendigkeiten zusammen mit den geschäftspolitischen Anforderungen sollten zur Überlegung führen, eine IT-Governance im Unternehmen zu etablieren. Das System der Wahl und die Dichte der Regulierung ist den Verantwortlichen unter Berücksichtigung des Unternehmensinteresses überlassen, lautete das Fazit des ersten Teils des Beitrags (ZCG 4/23). Im zweiten Teil werden nun konkret die ISO Standards 38500 et al. als eine Möglichkeit zur Umsetzung näher betrachtet. Dabei geht es um die einzelnen Komponenten in Form der zehn zur Verfügung stehenden Standards und deren integrative Top-Down-Gestaltung. Es zeigt sich, dass Themen wie die Daten-Governance und die KI-Governance ausreichend Berücksichtigung finden.
IT-Governance (Teil 1)
(2023)
Unabhängig von den gelieferten Ergebnissen hat ChatGPT die KI-Anwendungen auf ein neues Level gehoben. Aber auch digitalwirtschaftliche Geschäftsmodelle wie Ökosystem-Plattformen verändern die Art und Weise des Wirtschaftens. Eine Rahmung mittels einer IT-Governance wird dadurch nicht nur erforderlich, sondern bietet eine große Chance, die exponentiellen Entwicklungen strukturiert angehen und begleiten zu können. Ausgehend vom Deutschen Corporate Governance Kodex (DCGK) beleuchtet der erste Teil den Bezug dazu.
Sofern ein Rahmenwerk für den risikoorientierten Umgang mit Ransomware-Angriffen existiert, sollten die Verantwortlichen in Unternehmen darauf zurückgreifen und in die unternehmensweite Systematik einbetten. Das ermöglicht die Steuerung und das Management von Risiken, die zuvor von hoher Unsicherheit geprägt waren und Organisationen unerwartet treffen. Ferner ist zu berücksichtigen, dass das Social Engineering eine bedeutende Rolle bei der Lieferung von schadhafter Software spielt und frühzeitig in den Analyseprozess einzubeziehen ist.
Die moderne Erpressung von Unternehmen nach erfolgreichen Ransomware-Attacken ist sowohl ein monetäres als auch nicht-monetäres Problem. Angreifende erhalten über einen initialen, häufig menschlichen Endpunkt Zugang zur Organisation und können die Schadsoftware platzieren. Die beiden Angriffsvektoren Social Engineering und Ransomware nutzen die organisatorischen und technischen Schwachstellen, um auf diverse Vermögensgegenstände zuzugreifen. In diesem ersten Beitrag der zweiteiligen Serie wird das Verständnis für dieses Vorgehen entwickelt.
Ausreißer in Datenreihen geben einen Hinweis auf mögliche Risiken. Die empirischen Daten bestimmen weitestgehend die anzuwendenden Methoden. Dabei helfen Klassifikationssysteme, um zielorientiert zu einer Auswahl gelangen zu können. Die einfachste Form bilden univariate Datenreihen, deren Ausreißer mittels Häufigkeitsverteilungen, Konfidenzintervalle um den Mittelwert und Boxplots bestimmt werden.
Die Entwicklung der Cyber-Bedrohungslandschaft zwingt Unternehmen zur Auseinandersetzung mit neuen funktionalen Herausforderungen. Da sich die Angriffsoberflächen genauso dynamisch verändern wie die Taktiken und Techniken, sollte die Corporate Governance für ein integratives Cyber-Risikomanagement sorgen, um das Cybersicherheitsmanagement differenziert einzubetten. Dadurch leistet die Corporate Governance einen Beitrag zur Steigerung der Cyber-Resilienz.
Die Identifikation und Einschätzung von Risiken werden stets von Unsicherheit begleitet. Auch die besten Risikomodelle und Wahrscheinlichkeitsberechnungen können diese Tatsache nicht komplett beseitigen. Mit dieser Kenntnis besteht aber die Möglichkeit, alle erfassbaren Sachverhalte besser einzuschätzen und Modelle anzuwenden, die zielorientiert Probleme angehen. Dadurch lässt sich die Unsicherheit zugunsten des Risikomanagements verringern.
Die Modellierung von Risikoszenarien ist allgemein und mit Bezug auf Cyberrisiken eine herausfordernde Tätigkeit. Domain-Expertise und Methodenkenntnisse sind erforderlich, um ein Gesamtbild entwickeln zu können. Der vorliegende Beitrag greift auf die Cyber Threat Intelligence und das STIX-Rahmenwerk zurück und verbindet die Ergebnisse mit einer Szenariotechnik.
Die neuen Realitäten digitalwirtschaftlicher Geschäftsmodelle stellen die Verfügbarkeit und Verwendung großer Datenmengen in den Mittelpunkt unternehmerischer Aktivitäten. Das Risikomanagement, das bereits intensiv stochastische Methoden anwendet, sollte an dieser Entwicklung teilhaben. Im vorliegenden Beitrag geht es um die angemessene Rahmung und Einordnung von Analytics-Projekten.
Smart Cities und Big Data
(2019)
Sharing Economy
(2019)
Unternehmerische Resilienz
(2019)
Generative adversarial networks (GANs) provide state-of-the-art results in image generation. However, despite being so powerful, they still remain very challenging to train. This is in particular caused by their highly non-convex optimization space leading to a number of instabilities. Among them, mode collapse stands out as one of the most daunting ones. This undesirable event occurs when the model can only fit a few modes of the data distribution, while ignoring the majority of them. In this work, we combat mode collapse using second-order gradient information. To do so, we analyse the loss surface through its Hessian eigenvalues, and show that mode collapse is related to the convergence towards sharp minima. In particular, we observe how the eigenvalues of the G are directly correlated with the occurrence of mode collapse. Finally, motivated by these findings, we design a new optimization algorithm called nudged-Adam (NuGAN) that uses spectral information to overcome mode collapse, leading to empirically more stable convergence properties.
Generative adversarial networks are the state of the art approach towards learned synthetic image generation. Although early successes were mostly unsupervised, bit by bit, this trend has been superseded by approaches based on labelled data. These supervised methods allow a much finer-grained control of the output image, offering more flexibility and stability. Nevertheless, the main drawback of such models is the necessity of annotated data. In this work, we introduce an novel framework that benefits from two popular learning techniques, adversarial training and representation learning, and takes a step towards unsupervised conditional GANs. In particular, our approach exploits the structure of a latent space (learned by the representation learning) and employs it to condition the generative model. In this way, we break the traditional dependency between condition and label, substituting the latter by unsupervised features coming from the latent space. Finally, we show that this new technique is able to produce samples on demand keeping the quality of its supervised counterpart.
Deep generative models have recently achieved impressive results for many real-world applications, successfully generating high-resolution and diverse samples from complex datasets. Due to this improvement, fake digital contents have proliferated growing concern and spreading distrust in image content, leading to an urgent need for automated ways to detect these AI-generated fake images.
Despite the fact that many face editing algorithms seem to produce realistic human faces, upon closer examination, they do exhibit artifacts in certain domains which are often hidden to the naked eye. In this work, we present a simple way to detect such fake face images - so-called DeepFakes. Our method is based on a classical frequency domain analysis followed by basic classifier. Compared to previous systems, which need to be fed with large amounts of labeled data, our approach showed very good results using only a few annotated training samples and even achieved good accuracies in fully unsupervised scenarios. For the evaluation on high resolution face images, we combined several public datasets of real and fake faces into a new benchmark: Faces-HQ. Given such high-resolution images, our approach reaches a perfect classification accuracy of 100% when it is trained on as little as 20 annotated samples. In a second experiment, in the evaluation of the medium-resolution images of the CelebA dataset, our method achieves 100% accuracy supervised and 96% in an unsupervised setting. Finally, evaluating a low-resolution video sequences of the FaceForensics++ dataset, our method achieves 91% accuracy detecting manipulated videos.
The term attribute transfer refers to the tasks of altering images in such a way, that the semantic interpretation of a given input image is shifted towards an intended direction, which is quantified by semantic attributes. Prominent example applications are photo realistic changes of facial features and expressions, like changing the hair color, adding a smile, enlarging the nose or altering the entire context of a scene, like transforming a summer landscape into a winter panorama. Recent advances in attribute transfer are mostly based on generative deep neural networks, using various techniques to manipulate images in the latent space of the generator.
In this paper, we present a novel method for the common sub-task of local attribute transfers, where only parts of a face have to be altered in order to achieve semantic changes (e.g. removing a mustache). In contrast to previous methods, where such local changes have been implemented by generating new (global) images, we propose to formulate local attribute transfers as an inpainting problem. Removing and regenerating only parts of images, our Attribute Transfer Inpainting Generative Adversarial Network (ATI-GAN) is able to utilize local context information to focus on the attributes while keeping the background unmodified resulting in visually sound results.
Recent studies have shown remarkable success in image-to-image translation for attribute transfer applications. However, most of existing approaches are based on deep learning and require an abundant amount of labeled data to produce good results, therefore limiting their applicability. In the same vein, recent advances in meta-learning have led to successful implementations with limited available data, allowing so-called few-shot learning.
In this paper, we address this limitation of supervised methods, by proposing a novel approach based on GANs. These are trained in a meta-training manner, which allows them to perform image-to-image translations using just a few labeled samples from a new target class. This work empirically demonstrates the potential of training a GAN for few shot image-to-image translation on hair color attribute synthesis tasks, opening the door to further research on generative transfer learning.
In this preliminary report, we present a simple but very effective technique to stabilize the training of CNN based GANs. Motivated by recently published methods using frequency decomposition of convolutions (e.g. Octave Convolutions), we propose a novel convolution scheme to stabilize the training and reduce the likelihood of a mode collapse. The basic idea of our approach is to split convolutional filters into additive high and low frequency parts, while shifting weight updates from low to high during the training. Intuitively, this method forces GANs to learn low frequency coarse image structures before descending into fine (high frequency) details. Our approach is orthogonal and complementary to existing stabilization methods and can simply plugged into any CNN based GAN architecture. First experiments on the CelebA dataset show the effectiveness of the proposed method.
Zur Erkennung bestimmter Fehler, wie zum Beispiel Ätzfehler, Oberflächen-Fremdkörper, Verschmutzungen, bei der Leiterplattenherstellung ist eine Echtfarben-Bildverarbeitung notwendig, über die hier ein Überblick gegeben wird. Zur Farbsegmentierungs sind verschiedene Methoden geeignet, die einmal im Rot-Grün-Blau-Raum oder im HSI-Raum (Hue, Saturation, Intensity - Färbung, Sättigung, Intensität) untersucht und verglichen werden. Clusterfindungsverfahren und Lookup-Tabelle bereiten Schwierigkeiten bei der Erfassung der Farbkanten, zum Beispiel der Kante zwischen dem Kupfer und dem Beschichtungsmaterial. Hier hilft ein geeigneter Algorithmus, der mit Vorsegmentierung arbeitet. Eine Verfeinerung ist mit Hilfe von Kantenfiltern möglich, zum Beispiel das Color-Sobel-Magnitude-Filter.
Anmerkung zu ArbG Düsseldorf v. 5.3.2020 – 9 Ca 6557/18 – nicht rechtskräftig
Das ArbG Düsseldorf hat einem ehemaligen Arbeitnehmer einen immateriellen Schadensersatz von 5 000 Euro wegen einer verspäteten und teilweise unrichtigen datenschutzrechtlichen Auskunft seitens seines vormaligen Arbeitgebers zugesprochen. Der Beitrag setzt sich mit dieser Entscheidung grundsätzlich auseinander.
Beinahe jeder Online-Anbieter wünscht sich ausgiebiges Feedback, also möglichst viele Produktbewertungen, Likes u.Ä. Denn Feedback erzeugt Popularität und diese wiederum bringt neue Kunden. Die lauterkeitsrechtlichen Probleme von Incentives zur Steigerung der Feedback-Rate sind Thema dieses Beitrags.
Am 01.10.2019 beschäftigte sich der EuGH mit der Frage, wann und inwieweit das Setzen von Cookies ohne vorherige Einwilligung des Internet-Nutzers zulässig sein könnte. Das Ergebnis ist für die Werbeindustrie zwar eigentlich nicht überraschend, aber dennoch für diese höchst ärgerlich. Die praktischen Folgen hingegen sind bislang etwas irritierend, hat sich doch die Zahl von Pop-Up-Fenstern immens vervielfacht, was jedoch, wie hier gezeigt wird, zumeist entweder überflüssig oder aber nicht hinreichend ist.
Die meisten Angehörigen von beratenden Berufen - bis hin zu Rechtsanwälten - sind inzwischen um einen Auftritt im Internet nicht mehr "herumgekommen". Dass die Websites dabei in ihrer Qualität und Werbewirksamkeit weit schwanken, ist eine Sache. Dass zuweilen auch hier Unsicherheit über die richtige Gestaltung und über die Anwendbarkeit bestimmter Gesetze bestehen kann, mag aber überraschen. Welcher Rechtsanwalt etwa rechnet schon damit, dass ihm persönlich gegenüber Rechtsinstitute ins Feld geführt werden, die sich gewöhnlicherweise allein gegen Presse und Rundfunk richten.