Refine
Year of publication
Document Type
- Conference Proceeding (1253)
- Article (reviewed) (686)
- Bachelor Thesis (604)
- Article (unreviewed) (566)
- Part of a Book (459)
- Contribution to a Periodical (287)
- Book (242)
- Master's Thesis (208)
- Other (142)
- Working Paper (104)
Conference Type
- Konferenzartikel (950)
- Konferenz-Abstract (156)
- Konferenzband (77)
- Sonstiges (42)
- Konferenz-Poster (32)
Language
- German (2866)
- English (1979)
- Other language (5)
- Russian (3)
- Multiple languages (2)
- French (1)
- Spanish (1)
Keywords
- Mikroelektronik (62)
- Digitalisierung (48)
- Marketing (46)
- Social Media (39)
- COVID-19 (37)
- E-Learning (35)
- RoboCup (33)
- Kommunikation (32)
- Künstliche Intelligenz (32)
- Dünnschichtchromatographie (29)
Institute
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (1118)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (1103)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (917)
- Fakultät Wirtschaft (W) (648)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (565)
- Fakultät Medien (M) (ab 22.04.2021) (383)
- INES - Institut für nachhaltige Energiesysteme (245)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (161)
- Zentrale Einrichtungen (81)
- IMLA - Institute for Machine Learning and Analytics (78)
Open Access
- Closed Access (1708)
- Open Access (1691)
- Closed (755)
- Bronze (344)
- Diamond (92)
- Gold (77)
- Hybrid (49)
- Grün (16)
Diese Arbeit umfasst erste Tests und die Inbetriebnahme eines neuen Prüfplatzes bei der QMK-GmbH. Der Prüfplatz selbst soll in der Lage sein, Leistungsshuntwiderstände kalibrieren zu können. Leistungsshuntwiderstände sind meist eher groß und schwer, damit durch viel Material die Wärmeentwicklung kompensiert werden kann. Zudem sind die Kontaktflächen dementsprechend groß, damit der Übergangswiderstand an den Kontaktflächen möglichst gering ist. Der Widerstandswert selbst ist sehr klein. Standardmäßig liegen Widerstände hier im Bereich von 10 bis 100 Ω. Um so kleine Widerstände möglichst genau messen zu können, muss technisch viel Aufwand betrieben werden. In der Regel wird dies mit einer Vierleitermessung realisiert. Leistungsshuntwiderstände werden aber generell mit einem eher hohen Strom im Bereich von 100 bis 10 000 . Mit dem neuen Prüfplatz soll dies auch umgesetzt werden. Die Widerstände sollen mithilfe von hohen Strömen bis 2 kA kalibriert werden, damit der, für den Prüfling, zutreffende Arbeitsbereich unter Berücksichtigung seiner Eigenerwärmung abgebildet werden kann. Für diese Anwendung wurde ein Prüfplatz entwickelt, der 2 kA zur Verfügung stellen kann und mithilfe eines genauen und kalibrierten Referenzwiderstandes den Widerstand des Kalibriergegenstandes ermitteln kann. Würde man den Aufbau messtechnisch beschreiben, so wird durch eine Konstantstromquelle ein Gleichstrom erzeugt, der beide in Reihe geschalteten Widerstände durchströmt. Damit ist der Strom an beiden Widerständen identisch und kann ermittelt werden. An den Widerständen wird gleichzeitig dessen Spannungsabfall gemessen. Mit dem ermittelten Strom kann anschließend über das Ohmsche Gesetz der „unbekannte“ Widerstandswert des Kalibriergegenstandes ermittelt werden. Dieser wird mit dem Sollwert seines Datenblattes verglichen und in einem Protokoll unter Berücksichtigung der eigenen Messunsicherheit bewertet. Die Messergebnisse werden nach der Messung bzw. Kalibrierung in einem Zertifikat zusammen gefasst, und dem Kunden ausgestellt.
Ziel der Arbeit ist es, eine Kalibriereinrichtung zu entwickeln und zu bewerten, die den Richtlinien und Grundlangen der DAkkS entspricht oder zumindest als Grundlage für eine Akkreditierung bei der DAkkS dient. In erster Linie, soll es mit der Kalibriereinrichtung möglich sein, ISO-Kalibrierungen nach der 9001 Norm durchzuführen und zu bewerten.
Im Rahmen dieser Arbeit wird die Weiterentwicklung der Hinterradbaugruppe weiter vorangetrieben. Durch das genaue Betrachten verschiedener Sachverhalte entstehen neue Anpassungs- und Neukonstruktionen, mit dem Hauptaugenmerk der Antriebsfunktionalität und Elektrokomponentenbefestigung. Nach der Anpassung einer Ritzeladaption und einer Änderung der Elektromotoraufnahme wird der Antriebsstrang, in Form eines Kettentriebs, eingerichtet. Dazu wird der vorausgewählte Motor mit der angepassten Aufnahme verbunden und an die vordefinierte Stelle platziert. Zur Inbetriebnahme findet parallel eine Änderung der Radachsenaufnahme statt, um das Hinterrad mittig widerholbar ausrichten zu können. Unter dem Aspekt der der Sicherheit und Funktionalität erfolgt in Folge dessen die Konzipierung eines Radkatens und Kettenschutzes. Aus zeitlichen Gründen wird vorrangig das Konzept des Radkastens umgesetzt, weil diese Geometrie früher benötigt wird. Ein weiterer Bestandteil dieser Arbeit ist die Konzipierung eines Bremsenhalters. Dazu findet zu-nächst eine Bauraumanalyse statt, diese zu einem groben Bauraummodell führt. Daraufhin werden verschiedene Topologie- und Formoptimierungen, für die Erzielung eines robusten Bremsenhalters, durchgeführt. Im letzten Teil des Arbeitsumfangs erfolgt die Ermittlung verschiedene Aufnahmekonzepte für die Elektrokomponenten. Neben einer Schubladenlösung für die Energiebox findet parallel die Anfertigung einer Batteriebox mit Schiebedeckelvariante statt. Die angefertigten Boxen sind durch die vollständige Ausarbeitung bereit für die Erstellung eines Anbindungskonzepts an die, ebenfalls neuentwickelte, Elektrokomponentenaufnahme.
In dieser Arbeit wurde ein Getriebesteuergerät für ein Zweigang-Schaltgetriebe entwickelt. Dieses soll sowohl im manuellen als auch im autonomen Fahrbetriebe des Schluckspecht 5 einen Gangwechsel mittels eines Elektromotors ermöglichen. Da für den autonomen Fahrbetrieb eine rechnergestützte Ansteuerung der Drosselklappe erforderlich ist, wurde auch der Anschluss eines dafür gedachten Servomotors vorgesehen und die Auswertung des Motordrehzahlsensors realisiert. Für die eigentliche Getriebesteuerung wurden ein Raddrehzahlsensor, ein Getriebeeingangsdrehzahlsensor, Endlagensensoren für die beweglichen Teile sowie ein Stromsensor zum Schutz des Elektromotors und des Motortreibers vor thermischer Überlastung an den ausgewählten Mikrocontroller angeschlossen und der notwendige Source-Code zur Auswertung bzw. Ansteuerung geschrieben. Darüber hinaus wurden Zustandsautomaten für die Elektromotor- und die Getriebesteuerung vorbereitet.
In dieser Arbeit wird ein historischer Fallbericht des bis heute weit über seine Landesgrenzen bekannten italienischen Kriminalanthropologen Cesare Lombroso (1835–1909) vorgestellt. In diesem Fallbericht wird der berüchtigte und psychisch auffällige Dieb Pietro Bersone mit Hilfe eines sog. Hydrosphygmographen überführt, einem zur damaligen Zeit neuartigen technischen Gerät, das den Puls nicht-invasiv aufzeichnen konnte. Lombroso ist vermutlich einer der ersten, wenn nicht sogar der erste, der durch den Einsatz eines solchen Geräts die Idee zum „Lügendetektor“ vorweggenommen hat. Die vorgestellte Textstelle aus Lombrosos Buch „Neue Fortschritte in den Verbrecherstudien“ ist daher ein besonderes Fundstück auch für die Geschichte der Polygraphie.
eLetter zum Artikel "The Hannes hand prosthesis replicates the key biological properties of the human hand" von Matteo Laffranchi et al., veröffentlicht in Science Robotics, Vol. 5, Issue 46, eabb0467 (doi.org/10.1126/scirobotics.abb0467)
Die verstärkte Nachfrage des Marktes nach regelbaren EC-Antrieben mit erhöhten Leistungsdichten fordert das Einsetzen von höherwertigen Elektroblechsorten. Diese weisen durch ihren höheren Siliziumgehalt höhere Härten auf, was zu neue Herausforderungen bei der Montage führt. Das Fügen sogenannter gekerbter Wellen in das Rotorlamellenpaket kann zu Partikelbildung führen, wenn die Härtedifferenz zwischen den beiden Fügepartnern zu gering ausfällt. Dieser Umstand ist zur Einhaltung der steigenden Anforderungen bezüglich technischer Sauberkeit zu vermeiden, da ansonsten kostspielige Reinigungskonzepte in der Montagelinie installiert werden müssen. Für die Montage von Lagern werden die Rotorwellen selektiv induktiv randschichtgehärtet. Hierbei müssen bspw. Lagerstellen eine Mindesthärte erreichen und Kerbzonen unbehandelt bleiben, damit eine entsprechende Umformbarkeit beim Kerben erhalten bleibt sowie der Verschleiß der Kerbwerkzeuge möglichst geringgehalten wird.
Im Rahmen dieser Masterthesis wird die induktive Wärmebehandlung untersucht. Insbesondere wird hier das induktive Hochgeschwindigkeitsvergüten zur Weiterentwicklung der Welle-Nabe-Verbindung im Kerbbereich betrachtet, um bei gleichbleibender Taktzeit die erforderte Härtedifferenz zum Rotorlamellenwerkstoff zu ermöglichen. Hierbei wird der Kerbbereich wie für die Lagermontage induktiv randschichtgehärtet und anschließend bei höheren Temperaturen angelassen (vergütet).
Die Auswertung der Versuchsergebnisse zeigt, dass mit dem vorhandenen Maschinenfuhrpark nur das Anlassen mit Selbstabschreckung die geforderten Härtetoleranzen als Kompromiss zwischen Spanfreiheit beim Fügen und Werkzeugverschleiß ermöglicht. Diese wiederum zeigen aufgrund der ununterbrochene Wärmeleitung eine in Axialrichtung ausgeweiteten Wärmeeinflusszone, die zu unscharfen Härteübergängen im Vergleich zu nach dem Anlassen aktiv gekühlter Rotorwellen führt. Eine höhere Härte in der Kerbzone führt zu einem kleineren Kerbaufwurf unter gleichbleibenden Kerbbedingungen. Der Nachweis einer Prozessfähigkeit für die Härte ist nicht üblich und kann auch aufgrund der hohen Unsicherheit des Härteprüfverfahrens nicht erbracht werden. Das Anlassen verschlechtert nur geringfügig den Rundlauf. Die Einpresskräfte von Rotorlamellenpaketen hängt von der Höhe des Kerbaufwurfs ab und steigt entsprechend mit deren Zunahme. Für eine serientaugliche Umsetzung ist in Abhängigkeit des Anforderungsprofils eine Rücksprache mit der Designabteilung bezüglich axiale Härteübergang und Kerbeindringtiefe notwendig. Für eine dauerhafte Lösung wird die Verwendung eines Mittelfrequenzgenerators für den Anlassprozess empfohlen.
Wer sich mit dem Thema „Digitalisierung und Schule“ befasst, stellt fest, dass die Tragweite der intendierten Transformation von Bildungseinrichtungen zu möglichst automatisierten Lernfabriken durch Digitaltechnik nur von Wenigen realisiert wird. Selbst Begriffe wie „Lernen 4.0“ oder „Schule 4.0“ führen nicht dazu, die zugrunde liegenden Theorien und Automatisierungstechniken der „Industrie 4.0“-Projekte zu hinterfragen. Dann wäre sofort klar, dass diese an Technik-Geschichte und Software-Updates erinnernde Zählweise für Bildungseinrichtungen ebenso abwegig ist wie die Fiktion der Wissensproduktion.
Die „Digitalisierung“ scheint die aktuelle Heilslehre zu sein, die viele Menschen (ver-)blendet. Das „Vordringen der Digitaltechnik in alle Lebensbereiche“ sei alternativlos und unumkehrbar, heißt es allenthalben – als sei das Etablieren einer technischen Infrastruktur eine Naturgewalt und als stünden nicht ganz konkrete wirtschaftliche Interessen hinter diesen Netzwerkdiensten. Ausgeblendet wird, dass hinter Phrasen wie „die Digitalisierung verändert…“ oder „die Digitalisierung sorgt für… “ oder „die Digitalisierung führt zu ...“ ganz konkrete und benennbare Akteure bzw. Unternehmen und deren Geschäftsfelder stehen.
Wer als Pädagoge und Wissenschaftler das Thema „Digitalisierung und Unterricht“ kritisch reflektiert, stellt fest, dass nur Wenige die Tragweite der schon lange beabsichtigten Transformation von Bildungseinrichtungen zu IT-konformen, algorithmisch gesteuerten Lernfabriken realisieren. Die Corona-Pandemie ist nur der aktuelle Anlass, seit langem bekannte Digitalisierungsstrategien nur schneller umzusetzen. Dabei ist der Wechsel von ursprünglich pädagogischen Prämissen als Basis von Lehr- und Lernprozessen hin zum Paradigma der datengestützte Schulentwicklung und der empirischer Bildungsforschung wesentlich. Daten und Statistik dominieren das Individuum wie das Unterrichtsgeschehen. Es bedeutet sachlogisch, möglichst viele Daten der Schülerinnen und Schüler zu sammeln, auszuwerten und zur Grundlage von Entscheidungen über Lerninhalte und -prozessen zu machen. Lehren und Lernen wird wieder einmal als, heute digital, steuerbarer Prozess behauptet, wie schon beim programmierten Lernen in den 1950er Jahren. Was sind mögliche Alternativen?
Die Wertschöpfung vorherrschender Datenmengen scheitert, obgleich diese als der Treibstoff der Zukunft gelten, oftmals an den grundlegendsten Dingen. Das Digitalisierungs- und auch Verlagerungsverhalten werden für das Content Management (CM) zunehmend zu einem herausfordernden Fallstrick.
Die Unternehmen sind mit Fragestellungen traktiert, die sich darauf referenzieren, EchtzeitStröme unstrukturierter Daten aus heterogenen Quellen zu analysieren und zu speichern.
Trotz aller Bemühungen, die unaufhaltsam wachsende Menge an Daten- beziehungsweise Content im Rahmen eines effizienten Managements künftig manuell in den Griff zu bekommen, scheint es, als ob die Unternehmen an der kaum zu bewerkstelligenden Herausforderung scheitern werden.
Die vorliegende Arbeit untersucht, inwieweit es einer innovativen Technologie, wie der Künstlichen Intelligenz (KI) gelingen kann, das Content Management nachhaltig zu revolutionieren und damit den Content in seinem Umfang so zu organisieren und zu nutzen, um den Unternehmen eine Perspektive zu bieten, die steigende Welle an Big Data zu bewältigen.
Somit bewegt sich diese Arbeit auf dem Forschungsfeld der KI, als Teilgebiet der Informatik, die enorme Chancen und gleichzeitig Herausforderungen für die Wissenschaft und die Innovationsfähigkeit der Unternehmen mit sich bringt.
Im Rahmen qualitativer Expert*inneninterviews als Lösungsansatz wurde untersucht, inwiefern es KI-gestützten Systemen gelingen kann, Wissensmitarbeiter*innen entlang des Content Life Cycles zu unterstützen und den Nutzer*innen bezüglich der Ausspielung der Inhalte eine optimale Customer Experience zu bieten.
Die fehlende Nachvollziehbarkeit und das Missverständnis des KI-Begriffes sowie die Kluft zwischen der öffentlichen Debatte und der Realität der KI erweisen sich hierbei als die wohl größten Innovationsbremsen des KI-Einsatzes in der Content Management Umgebung.
Die Ergebnisse der Arbeit tragen im Wesentlichen dazu bei, das Verständnis für die KI zu schärfen und gleichzeitig das aufkommende Dilemma des Vertrauensdefizites der Mensch-Maschine-Kommunikation zu entschärfen.
Außerdem wird ein Grundverständnis dafür geschaffen, die KI als geeignetes Tool im Content Management zu erkennen.
Darüber hinaus wird demonstriert, dass sich durch den Einsatz der KI im Content Management ebenfalls immense Vorteile für die Ausspielung user*innenspezifierten Contents ergeben, die im folgenden Verlauf genauer aufgeführt werden.
Diese Bachelorarbeit analysiert, wie die Bekanntheit und die Reichweite gesteigert werden kann. Hierzu wird zunächst die Zielgruppe untersucht, denn sie ist die Basis für die Planung des Contents.
Zu Beginn werden Grundlagen der Kameratechnik und der Bildgestaltung erläutert. Diese sind notwendig, da bei Instagram ausschließlich visuelle Inhalte in Form von Bildern und Videos geteilt werden. Einer der bedeutsamsten Teile der Strategie ist somit die Content-Planung, die diese Grundlagen voraussetzt.
Im weiteren Verlauf wird Instagram von anderen sozialen Medien zunächst abgegrenzt. Mit Hilfe von Daten aus verschiedenen Studien, wird zudem die Relevanz von Instagram für Fotografierende herausgearbeitet.
Des Weiteren werden der Aufbau und die Funktionen der Instagram-App erklärt. Diese Kenntnisse sind essentiell für die folgende Strategieausarbeitung. Die Theorie stellt gleichzeitig die Basis für die praktische Ausarbeitung und die Umsetzung einer Strategie für das Instagram-Profil einer Fotografin dar. Die Zielgruppe wurde mit Hilfe der Durchführung von Fotoshootings und einer Onlineumfrage analysiert. Zuletzt wurde die Wirksamkeit der gesamten Maßnahmen anhand von Kennzahlen und KPIs überprüft.
Mit dem Ergebnis dieser Bachelorarbeit, soll es insbesondere Fotografierenden und weiteren Selbstständigen und Kleingewerbetreibenden möglich sein, selbst eine Strategie zu erstellen. Diese soll ihnen bei der Steigerung ihrer Reichweite und der Bekanntheit ihrer Personal Brand oder ihrer Produkte und Dienstleistungen helfen.
Photonics meet digital art
(2014)
The paper focuses on the work of an interdisciplinary project between photonics and digital art. The result is a poster collection dedicated to the International Year of Light 2015. In addition, an internet platform was created that presents the project. It can be accessed at http://www.magic-of-light.org/iyl2015/index.htm. From the idea to the final realization, milestones with tasks and steps will be presented in the paper. As an interdisciplinary project, students from technological degree programs were involved as well as art program students. The 2015 Anniversaries: Alhazen (1015), De Caus (1615), Fresnel (1815), Maxwell (1865), Einstein (1905), Penzias Wilson, Kao (1965) and their milestone contributions in optics and photonics will be highlighted.
PHOTOPUR hat die Entwicklung eines photokatalytischen Prozesses zur Beseitigung von Pflanzenschutzmitteln (PSM) aus dem Reinigungswasser von Spritzgeräten zum Ziel. Am INES wurde eine Energieversorgung für die photokatalytische Reinigung in zwei Bachelorarbeiten entwickelt und als Demosystem aufgebaut. Das Gesamtsystem ist nun als mobile Einheit verfügbar und wurde zuletzt um das Reaktormodul für den photokatalytischen Prozeß erweitert und den Partnern für intensive Tests übergeben.
Bereichsübergreifender Einsatz von JavaScript – Aktueller Stand und exemplarische Implementierung
(2021)
Nahezu alle Websites nutzen die Programmiersprache JavaScript zur Darstellung von interaktiven Inhalten und zur Bereitstellung von komplexen Funktionalitäten. Seit ihren Anfängen im Jahr 1995 hat sich die Sprache nicht nur zum Standard in der Webentwicklung etabliert, sondern auch zu einer leistungsfähigen Mehrzweckprogrammiersprache weiterentwickelt.
Diese Arbeit befasst sich mit einer ausführlichen Darstellung der aktuellen Möglichkeiten, welche Ansätze sich durch die Weiterentwicklung JavaScripts zu einer Mehrzweckprogrammiersprache ergeben und wie sich diese heute umsetzen lassen. Anhand des intelligenten Schlüsselkastens „Smart Vault“ wird verdeutlicht, wie dieses Vorgehen praktisch realisiert und die Vorteile einer einzigen Programmiersprache angewendet werden können.
Es hat sich herausgestellt, dass sich JavaScript für Anwendungen unterschiedlicher Bereiche einsetzen lässt und darüber hinaus ein hohes Potenzial für weitere Entwicklungen, Verbesserungen und zusätzliche Einsatzgebiete besitzt. Es lassen sich nicht nur Websites, Web Server und Desktop Apps, sondern auch Mikrocontroller im Internet of Things konfigurieren und miteinander nutzen, ohne eine weitere Programmiersprache zu benötigen. Zahlreiche Bibliotheken und Frameworks machen es möglich, dass die Sprache verschiedene Anwendungen über ihre Einsatzgebiete hinweg miteinander verbindet.
In unserer modernen Arbeitswelt wächst der Wunsch auf Mobilität stetig. Längst haben die meisten Menschen ein Smartphone in der Hosentasche und die Entwicklung mobiler Anwendungen hat zunehmend an Bedeutung gewonnen. Die Möglichkeiten für Entwickler sind inzwischen sehr vielfältig. Ob native App, Hybrid App oder Progressive Web App, es gibt für jede Art eine Menge verschiedener Hilfestellungen zur Entwicklung dieser, durch verschiedene Frameworks.
Diese Arbeit handelt von der Erstellung einer mobilen App für Arbeitszeitverwaltung für das Unternehmen SYSTECS Informationssysteme GmbH. Dabei wird nach einer Analyse bereits bestehender Apps sowie des Ist-Zustandes bei SYSTECS, zunächst die Anforderungen gesammelt, ein Konzept erstellt und schließlich die App entwickelt.
Diese Bachelorarbeit thematisiert die Suche von Dokumenten über die Dokumentenablage im Cloud-Service Azure Blob Storage. Mit dieser Arbeit wird eine Volltextsuche durch eine große Menge an Dokumenten auf der Herrenknecht-Plattform Connected ermöglicht.
Zu Beginn wird das generelle Thema ‘Information Retrieval‘ behandelt sowie die eingesetzten Dienste von Microsoft vorgestellt. Im Anschluss wird der Prozess der Implementierung beschrieben. Dazu gehört die Entwicklung eines API-Endpunkts im Backend (C#), sowie die Erweiterung des Connected-Frontends um eine erweiterte Suche.
Darüber hinaus wird der eingesetzte Suchdienst von Microsoft, Azure Cognitive Search, im Hinblick auf das Projekt evaluiert. Zudem wird ein Blick auf die Azure Cognitive Services geworfen.
Mit dem Projekt wird eine digitale Suche durch eine Vielzahl an Dokumenten ermöglicht, um die bisherige manuelle Suche und die eingesetzten physischen Ordner auf Baustellen und im Büro zu ersetzen.
In this work, we evaluate two different image clustering objectives, k-means clustering and correlation clustering, in the context of Triplet Loss induced feature space embeddings. Specifically, we train a convolutional neural network to learn discriminative features by optimizing two popular versions of the Triplet Loss in order to study their clustering properties under the assumption of noisy labels. Additionally, we propose a new, simple Triplet Loss formulation, which shows desirable properties with respect to formal clustering objectives and outperforms the existing methods. We evaluate all three Triplet loss formulations for K-means and correlation clustering on the CIFAR-10 image classification dataset.
Die angestrebten Klimaschutzziele erfordern, dass Erneuerbare Energien längerfristig zur Hauptenergiequelle der Energieversorgung werden. Um dieses ehrgeizige Ziel zu erreichen, ist es angebracht konventionelle und erneuerbare Energie oder noch besser nachhaltige Einzelprozesse intelligent miteinander zu verknüpfen.
Das Projekt EBIPREP wird von einer interdisziplinären Forschergruppe bestehend aus Chemikern, Prozessingenieuren und Bioprozessingenieuren sowie Physikern, die auf Sensoren und Prozesssteuerung spezialisiert sind durchgeführt. Das Ziel ist es, neue Lösungen für die Nutzungswege von Holzhackschnitzeln und den bei der mechanischen Trocknung anfallenden Holzpresssaft zu entwickeln. Neben der Hackschnitzelvergasung und der katalytischen Reinigung des Holzgases steht die Nutzung des Holzpresssafts in Biogasanlagen und bei der biotechnologischen Wertstofferzeugung, z.B. bei der Enzymherstellung, im Vordergrund.
Was wir tun?
Das EBIPREP-Projekt wird von einer interdisziplinären Forschungsgruppe durchgeführt, die sich aus Chemikern, Prozessingenieuren, Bioprozessingenieuren und Physikern zusammensetzt. Ziel ist es, neue Lösungen für den Einsatz von Hackschnitzeln und Holzpresssaft zu entwickeln, die durch ein innovatives mechanisches Trocknungsverfahren gewonnen werden. Neben der Holzvergasung und katalytischen Reinigung des Holzgases ist der Einsatz von Holzpresssaft in Biogasanlagen und in biotechnologischen Produktionsprozessen von Wertstoffen vorgesehen. Holzhackschnitzel werden thermisch vergast. Es werden Online-Sensoren entwickelt, um die relevanten Parameter der stabilisierten und optimierten Einzelprozesse auszuwerten. Die Verknüpfung von thermischen und biotechnologischer Konversionsprozessen könnte dazu beitragen, die Dimension von Biogasreaktoren erheblich zu reduzieren. Diese Tatsache wird folglich zu einer spürbaren Kostensenkung führen.
Ziele des EBIPREP-Projekts
• die Vorteile der thermischen und biologischen Umwandlung von Biomasse zu kombinieren;
• Entwicklung eines Verfahrens zur Reduzierung von Schadstoffemissionen mit innovativen Sensoren und katalytische Behandlung von Synthesegasen;
• nachhaltige Produktion biotechnologischer wertvoller Produkte
• wirtschaftliche und ökologische Analyse des Gesamtprozesses im Vergleich zu den Einzelprozessen
• Einsatz von Prozessabwässern zur Erzeugung regenerativer Energie oder biotechnologischer Wertstoffe
• Erwerb neuer Kenntnisse auf dem Gebiet der Rückgewinnungstechnik von Rückständen
• und Energieerzeugung;
• Erweiterung neuer Anwendungsfelder für innovative Sensoren und Keramik
• Schäume für Katalysatoren;
• Senkung der Kosten für die Biogasproduktion
Im geplanten Übersichtsvortrag werden die vernetzten Strukturen des Projekts EBIPREP und deren zentralen Ergebnisse vorgestellt.
Investigation of the Angle Dependency of Self-Calibration in Multiple-Input-Multiple-Output Radars
(2021)
Multiple-Input-Multiple-Output (MIMO) is a key technology in improving the angular resolution (spatial resolution) of radars. In MIMO radars the amplitude and phase errors in antenna elements lead to increase in the sidelobe level and a misalignment of the mainlobe. As the result the performance of the antenna channels will be affected. Firstly, this paper presents analysis of effect of the amplitude and phase errors on angular spectrum using Monte-Carlo simulations. Then, the results are compared with performed measurements. Finally, the error correction with a self-calibration method is proposed and its angle dependency is evaluated. It is shown that the values of the errors change with an incident angle, which leads to a required angle-dependent calibration.
Estimation of Scattering and Transfer Parameters in Stratified Dispersive Tissues of the Human Torso
(2021)
The aim of this study is to understand the effect of the various layers of biological tissues on electromagnetic radiation in a certain frequency range. Understanding these effects could prove crucial in the development of dynamic imaging systems under operating environments during catheter ablation in the heart. As the catheter passes through some arterial paths in the region of interest inside the heart through the aorta, a three-dimensional localization of the catheter is required. In this paper, a study is given on the detection of the catheter by using electromagnetic waves. Therefor, an appropriate model for the layers of the human torso is defined and simulated without and with an inserted electrode.
Die vorliegende Masterarbeit hat sich zum Ziel gesetzt, den Messeauftritt für die ABI-Sicherheitssysteme GmbH zu gestalten. Aufgrund des Corona-Virus und den damit einhergehenden Kontaktbeschränkungen wurden dabei die ersten Planungsdaten für einen konventionellen Messestand in eine digitale Variante umgewandelt. Als Basis wird eine ausführliche Analyse der Kommunikationspolitik des Unternehmens durchgeführt, um darauf die Planung des digitalen Messestandes und der Inhalte aufzubauen. Zusätzlich werden bereits bestehende digitale Messestände detailliert betrachtet, um daraus Rückschlüsse für die Planung zu generieren. Auf der Grundlage der Analysen wird dann der digitale Messeauftritt ausgearbeitet. Dazu gehört der Aufbau des Messestandes, die Gestaltung der Grafiken, die Auswahl der Inhalte sowie die Produktion des Informationsmaterials. Die Planung der Kommunikationsmaßnahmen, mit denen der digitale Messestand an die Zielgruppe herangeführt werden soll, ist ebenfalls Teil dieser Arbeit.
Extended Reality (XR) durchläuft aktuell einen rasanten Entwicklungsprozess. Die Einsatzmöglichkeiten für die Wirtschaft sind vielfältig und die Bedeutung der neuartigen Technologie steigt kontinuierlich. Insbesondere der rapide Preisverfall der benötigten Hardware führt zu einer zunehmenden Markdurchdringung, wodurch sich XR-Systeme auf dem Massenmarkt etabliert haben.
Die Veröffentlichung richtet sich an Unternehmer, die sich einen Überblick über XR verschaffen möchten und abwägen, ob die Technologie in ihre Unternehmensprozesse eingebunden werden soll. Um die Entscheidung zu erleichtern, gibt die Publikation Auskunft über zentrale Aspekte wie Entwicklungsstand, Projektablauf und Einsatzmöglichkeiten. Aufgrund des enormen Potenzials der Technologien empfehlen die Autoren, dass Unternehmen frühzeitig Einsatzmöglichkeiten dieser Technologien evaluieren. Die Planung und Umsetzung setzen allerdings immer ein durchdachtes und systematisches Vorgehen voraus.
Duplikaterkennung, -suche und -konsolidierung für Kunden- und Geschäftspartnerdaten, sog. „Identity Resolution“, ist die Voraussetzung für erfolgreiches Customer Relationship Management und Customer Experience Management, aber auch für das Risikomanagement zur Minimierung von Betrugsrisiken und Einhaltung regulatorischer Vorschriften und viele weitere Anwendungsfälle. Diese Systeme sind jedoch hochkomplex und müssen individuell an die kundenspezifischen Anforderungen angepasst werden. Der Einsatz lernbasierter Verfahren bietet großes Potenzial zur automatisierten Anpassung. In diesem Beitrag präsentieren wir für ein KMU praxisfähige, lernbasierte Verfahren zur automatischen Konfiguration von Business-Regeln in Duplikaterkennungssystemen. Dabei wurden für Fachanwender Möglichkeiten entwickelt, um beispielgetrieben das Match-System an individuelle Business-Regeln (u.a. Umzugserkennung, Sperrlistenabgleich) anzupassen und zu konfigurieren. Die entwickelten Verfahren wurden evaluiert und in einer prototypischen Lösung integriert. Wir konnten zeigen, dass unser Machine-Learning-Verfahren, die von einem Domainexperten erstellten Business-Regeln für das Duplikaterkennungssystem „identity“ verbessern konnte. Zudem konnte der hierzu erforderliche Zeitaufwand verkürzt werden.
Die Mehrheit der deutschen Unternehmen verspricht sich aus KI-gestützter Datenanalyse einen großen Geschäftsvorteil. Doch gerade das Thema Datenbestand ist eine der größten, immer noch häufig unterschätzten Hürde beim Trainieren und Einführen von KI-Algorithmen. Im Folgenden sind vier konkrete Erfahrungen und Tipps für KI- & Datenanalyseprojekte in Unternehmen aufgeführt.
The term attribute transfer refers to the tasks of altering images in such a way, that the semantic interpretation of a given input image is shifted towards an intended direction, which is quantified by semantic attributes. Prominent example applications are photo realistic changes of facial features and expressions, like changing the hair color, adding a smile, enlarging the nose or altering the entire context of a scene, like transforming a summer landscape into a winter panorama. Recent advances in attribute transfer are mostly based on generative deep neural networks, using various techniques to manipulate images in the latent space of the generator.
In this paper, we present a novel method for the common sub-task of local attribute transfers, where only parts of a face have to be altered in order to achieve semantic changes (e.g. removing a mustache). In contrast to previous methods, where such local changes have been implemented by generating new (global) images, we propose to formulate local attribute transfers as an inpainting problem. Removing and regenerating only parts of images, our Attribute Transfer Inpainting Generative Adversarial Network (ATI-GAN) is able to utilize local context information to focus on the attributes while keeping the background unmodified resulting in visually sound results.
Generative adversarial networks are the state of the art approach towards learned synthetic image generation. Although early successes were mostly unsupervised, bit by bit, this trend has been superseded by approaches based on labelled data. These supervised methods allow a much finer-grained control of the output image, offering more flexibility and stability. Nevertheless, the main drawback of such models is the necessity of annotated data. In this work, we introduce an novel framework that benefits from two popular learning techniques, adversarial training and representation learning, and takes a step towards unsupervised conditional GANs. In particular, our approach exploits the structure of a latent space (learned by the representation learning) and employs it to condition the generative model. In this way, we break the traditional dependency between condition and label, substituting the latter by unsupervised features coming from the latent space. Finally, we show that this new technique is able to produce samples on demand keeping the quality of its supervised counterpart.
Generative adversarial networks (GANs) provide state-of-the-art results in image generation. However, despite being so powerful, they still remain very challenging to train. This is in particular caused by their highly non-convex optimization space leading to a number of instabilities. Among them, mode collapse stands out as one of the most daunting ones. This undesirable event occurs when the model can only fit a few modes of the data distribution, while ignoring the majority of them. In this work, we combat mode collapse using second-order gradient information. To do so, we analyse the loss surface through its Hessian eigenvalues, and show that mode collapse is related to the convergence towards sharp minima. In particular, we observe how the eigenvalues of the G are directly correlated with the occurrence of mode collapse. Finally, motivated by these findings, we design a new optimization algorithm called nudged-Adam (NuGAN) that uses spectral information to overcome mode collapse, leading to empirically more stable convergence properties.
Recent advances in motion recognition allow the development of Context-Aware Assistive Systems (CAAS) for industrial workplaces that go far beyond the state of the art: they can capture a user's movement in real-time and provide adequate feedback. Thus, CAAS can address important questions, like Which part is assembled next? Where do I fasten it? Did an error occur? Did I process the part in time? These new CAAS can also make use of projectors to display the feedback within the corresponding area on the workspace (in-situ). Furthermore, the real-time analysis of work processes allows the implementation of motivating elements (gamification) into the repetitive work routines that are common in manual production. In this chapter, the authors first describe the relevant backgrounds from industry, computer science, and psychology. They then briefly introduce a precedent implementation of CAAS and its inherent problems. The authors then provide a generic model of CAAS and finally present a revised and improved implementation.
With major intellectual properties there is a long tradition of cross-media value chains -- usually starting with books and comics, then transgressing to film and TV and finally reaching interactive media like video games. In recent years the situation has changed: (1) smaller productions start to establish cross media value chains; (2) there is a trend from sequential towards parallel content production. In this work we describe how the production of a historic documentary takes a cross media approach right from the start. We analyze how this impacts the content creation pipelines with respect to story, audience and realization. The focus of the case study is the impact on the production of a documentary game. In a second step we reflect on the experiences gained so far and derive recommendations for future small-scale cross media productions.
Towards a gamification of industrial production: a comparative study in sheltered work environments
(2015)
Using video game elements to improve user experience and user engagement in non-game applications is called "gamification". This method of enriching human-computer interaction has been applied successfully in education, health and general business processes. However, it has not been established in industrial production so far.
After discussing the requirements specific for the production domain we present two workplaces augmented with gamification. Both implementations are based on a common framework for context-aware assistive systems but exemplify different approaches: the visualization of work performance is complex in System 1 and simple in System 2.
Based on two studies in sheltered work environments with impaired workers, we analyze and compare the systems' effects on work and on workers. We show that gamification leads to a speed-accuracy-tradeoff if no quality-related feedback is provided. Another finding is that there is a highly significant raise in acceptance if a straightforward visualization approach for gamification is used.
With projectors and depth cameras getting cheaper, assistive systems in industrial manufacturing are becoming increasingly ubiquitous. As these systems are able to continuously provide feedback using in-situ projection, they are perfectly suited for supporting impaired workers in assembling products. However, so far little research has been conducted to understand the effects of projected instructions on impaired workers. In this paper, we identify common visualizations used by assistive systems for impaired workers and introduce a simple contour visualization. Through a user study with 64 impaired participants we compare the different visualizations to a control group using no visual feedback in a real world assembly scenario, i.e. assembling a clamp. Furthermore, we introduce a simplified version of the NASA-TLX questionnaire designed for impaired participants. The results reveal that the contour visualization is significantly better in perceived mental load and perceived performance of the participants. Further, participants made fewer errors and were able to assemble the clamp faster using the contour visualization compared to a video visualization, a pictorial visualization and a control group using no visual feedback.
Design approaches for the gamification of production environments: a study focusing on acceptance
(2015)
Gamification is an ever more popular method to increase motivation and user experience in real-world settings. It is widely used in the areas of marketing, health and education. However, in production environments, it is a new concept. To be accepted in the industrial domain, it has to be seamlessly integrated in the regular work processes.
In this work we make the following contributions to the field of gamification in production: (1) we analyze the state of the art and introduce domain-specific requirements; (2) we present two implementations gamifying production based on alternative design approaches; (3) these are evaluated in a sheltered work organization. The comparative study focuses acceptance, motivation and perceived happiness.
The results reveal that a pyramid design showing each work process as a step on the way towards a cup at the top is strongly preferred to a more abstract approach where the processes are represented by a single circle and two bars.
In this work we provide an overview of gamification, i.e. the application of methods from game design to enrich non-gaming processes. The contribution is divided into five subsections: an introduction focusing on the progression of gamification through the hype cycle in the recent years (1), a brief introduction to gamification mechanics (1) and an overview of the state of the art in established areas (3). The focus is a discussion of more recent attempts of gamification in service and production (4). We also discuss the ethical implications (5) and the future perspectives (6) of gamified business processes. Gamification has been successfully applied in the domains education (serious games) and health (exergames) and is spreading to other areas. In recent years there have been various attempts to “gamify” business processes. While the first efforts date back as far as the collection of miles in frequent flyer programs, we will portray some of the more recent and comprehensive software-based approaches in the service industry, e.g. the gamification of processes in sales and marketing. We discuss their accomplishments as well as their social and ethical implicatio. Finally a very recent approach is presented: the application of gamification in the domain of industrial production. We discuss the special requirements in this domain and the effects on the business level and on the users. We conclude with a prognosis on the future development of gamification.
A method for 3D printing of a robot element, more particularly a finger for use in robotics. At least one sensor is concomitantly printed by means of multi-material printing during the printing of the robot element. A gripping element produced by a method of this kind includes a number of printed layers of robot element material and a concomitantly printed sensor.
PROBLEM TO BE SOLVED: To provide a method of producing a robot component, particularly a gripper, the method being capable of being applied multi-functionally and shortening a mounting time to a robot.
SOLUTION: A method of producing a robot component, particularly a finger 5, applied to robotics by a three-dimensional printing method of this invention comes not to require other production processes such as attachment of a cover, etc. with a separate sensor or a material (soft, in many cases), etc., by simultaneously printing at least one sensor 7 by multi-material printing while printing the robot component.
Mit zunehmender Digitalisierung ist zu erwarten, dass die Informationsflut, hinsichtlich der täglich auf die Rezipienten einprasselnden Werbebotschaften, immer weiter zunimmt. Dies mag für Werbetreibende mit hohen Budgets und vorhandener Reichweite keine Herausforderung darstellen, dennoch gibt es einen großen Teil der Unternehmen in Deutschland, welche von eben jene bereits bestehenden Voraussetzungen nicht profitieren können. Im Bereich der klein- und mittelständischen Unternehmen, zu denen auch ein Großteil der Handwerksunternehmen zählen, ist ein übermäßig großes Werbebudget meist nicht vorhanden. Um das eigene Unternehmen von Mitbewerbern und Konkurrenz abzuheben, finden immer innovativere Werbeformen den Einsatz in der Unternehmenskommunikation. Hierbei lässt sich eine Tendenz weg von der klassischen Push-Kommunikation hin zu einer wohlbedachten Pull-Kommunikation entdecken. In diesem Bereich ist das Buzzwort Content-Marketing in aller Munde und fungiert als übergeordnete Instanz des Storytellings. Ferner bietet die Entwicklung von rein informativen Werbebotschaften hin zum ,Geschichten erzählen‘ eine Vielzahl von Vorteilen. Neben einer größeren Viralkraft, bleiben Geschichten durch bessere Verknüpfung im ,neuronalen Netz‘ des Gehirns länger und nachdrücklicher im Gedächtnis der Zielgruppe. Darüber hinaus bietet Storytelling, online wie offline, hervorragende Möglichkeiten hinsichtlich der Distribution.
Die vorliegende Bachelorarbeit bietet einen Implementierungsleitfaden für Storytelling-Maßnahmen für die Bereich Print und Screen, sowie eine Bewertung der Plattformen hinsichtlich der Distribution. Zu den Vorüberlegungen einer Implementierung von Storytelling in die Unternehmenskommunikation, wurden in den Unterthemen außerdem die strategischen Aspekte der Integrationsstufen und der Distributionskanäle vorgenommen. Durch eine Befragung potenzieller Kunden von Handwerksunternehmen, können Rückschlüsse auf die beliebtesten Inhalte einer Storytelling-Kampagne von Handwerksunternehmen gewonnen werden. Somit kann die Kundenansprache durch Storytelling effektiver und gewinnbringender betrieben werden.
Die Möglichkeiten, sowie die Vor- und Nachteile, die elektronisch gestütztes Lernen mit sich bringen, werden im Verlauf der Abschlussarbeit betrachtet. Ein aktueller Ist-Stand der Technik, sowie der Prozess des Lernens wird mit einem Ausblick in das zukünftige Lernen der Lernenden gegenübergestellt. Es wird deutlich, dass grundlegende Veränderungen seitens der Bildungspolitik von Nöten sind und wie diese Umgesetzt werden können. Die Abschlussarbeit kann als Leitfaden gesehen werden, in der verdeutlicht wird, wie komplex das zielführende, also Kompetenz-fördernde Gestalten des Lernens ist. In technischer Hinsicht sind im Verlauf der letzten Jahre unzählige Neuerungen und Innovation erschienen, die es jetzt gilt mit einem didaktisch gut durchdachten, schulischen Konzept zu verknüpfen.
Welche Rolle Lernende, Lehrende, Verwaltung und Politik bei dieser Verknüpfung spielen, wird im Rahmen dieser Arbeit analysiert. Es wurden Erkenntnisse darüber gezogen, wie sich die Rahmenbedingungen ändern müssen, um eine gelungene Integration des elektronischen Lernens in das Schulsystem zu erreichen.
Do you know that for each banana bunch the complete plant must be cut as well? Only in Brazil 440 million trees are planted annually. With an average weight of 30 kg per banana plant you can estimate about 13,5 million tons of banana residues per year. Although there exist some projects to use these residues for the production of valuable products (e.g fibers for textile and paper production) most of this organic waste material is unused and left for composting on the farmland.
The basic idea of this project is to evaluate this organic waste material for converting it to a renewable and CO2 neutral fuel. Therefore, the different parts of the banana plant (heart, leaves and pseudo stem) were analyzed regarding their biogas potential (specific biogas yield and biogas production kinetics). In further studies the effect of mechanical and enzymatic pretreatments of the different parts of the plants was investigated. This examination could then be the basis for an energetic usage of this organic residue.
The biogas batch experiments were performed according to the german guideline VDI 4630 in 2-L-Batch reactors at 37°C. As biogas substrates, the heart, the leaves and the pseudo stem of the banana plant residue with and without enzymatic/mechanical pretreatment were used.
The different parts of the banana plants result in a specific biogas production yield in the range of 260-470 norm liters per kg organic dry mass.
To determine the influence of the mechanical pretreatment (particle size 1-15 mm) on the biogas production kinetics, the kinetic constants were defined and calculated. The reduction of the particle size leads to an improved biogas production kinetics. Therefore experiments will demonstrate, if the results from the batch experiments can be converted in the continuous fed biogas reactor. The experiments of the enzymatic pretreatment are still under investigation.
Modern Franciscan Leadership
(2020)
This article combines two important areas of practical theology: Monastic rules and leadership in a cloistral organisation, using the Rule of Saint Francis as a prominent example. The aim of this research is to examine how living Christian tradition in a monastic order affects leadership today, discovering how the Rule and Franciscan spirituality impact managing a convent. The research question is answered within this inductive research applying the methodology of the ‘theology in four voices.’ Based on the results, it is possible to build a coherent leadership system based on Biblical and Franciscan sources.
In the modern knowledge-based and digital economy, the value of knowledge is growing relative to other assets and new intellectual property is being created at an ever-increasing rate. Therefore, the ability to find non-trivial solutions, systematically generate new concepts, and create intellectual property rapidly become crucial to achieving competitive advantage and leveraging the intellectual potential of organizations.
Eine kontinuierliche Überwachung von Ethernet-Leitungne beugt Maschinenausfällen in der Industrie vor. Aktuell fehlen jedoch geiegnete Methoden, um diese Überwachung flächendeckend durchzuführen. Im Projekt Ko²SiBus wurde deshalb ein kostengünstiges Verfahren zur kontinuierlichen Überwachung von Ethernet-Leitungen entwickelt.
The authors claim that location information of stationary ICT components can never be unclassified. They describe how swarm-mapping crowd sourcing is used by Apple and Google to worldwide harvest geo-location information on wireless access points and mobile telecommunication systems' base stations to build up gigantic databases with very exclusive access rights. After having highlighted the known technical facts, in the speculative part of this article, the authors argue how this may impact cyber deterrence strategies of states and alliances understanding the cyberspace as another domain of geostrategic relevance. The states and alliances spectrum of activities due to the potential existence of such databases may range from geopolitical negotiations by institutions understanding international affairs as their core business, mitigation approaches at a technical level, over means of cyber deterrence-by-retaliation.
In a Semi-autonomic cloud auditing architecture we weaved in privacy enhancing mechanisms [15] by applying the public key version of the Somewhat homomorphic encryption (SHE) scheme from [4]. It turns out that the performance of the SHE can be significantly improved by carefully deriving relevant crypto parameters from the concrete cloud auditing use cases for which the scheme serves as a privacy enhancing approach. We provide a generic algorithm for finding good SHE parameters with respect to a given use case scenario by analyzing and taking into consideration security, correctness and performance of the scheme. Also, to show the relevance of our proposed algorithms we apply it to two predominant cloud auditing use cases.
Covert- and side-channels as well as techniques to establish them in cloud computing are in focus of research for quite some time. However, not many concrete mitigation methods have been developed and even less have been adapted and concretely implemented by cloud providers. Thus, we recently conceptually proposed C 3 -Sched a CPU scheduling based approach to mitigate L2 cache covert-channels. Instead of flushing the cache on every context switch, we schedule trusted virtual machines to create noise which prevents potential covert-channels. Additionally, our approach aims on preserving performance by utilizing existing instead of artificial workload while reducing covert-channel related cache flushes to cases where not enough noise has been achieved. In this work we evaluate cache covert-channel mitigation and performance impact of our integration of C 3 -Sched in the XEN credit scheduler. Moreover, we compare it to naive solutions and more competitive approaches.
With economic weight shifting toward net zero, now is the time for ECAs, Exim-Banks, and PRIs to lead. Despite previous success, aligning global economic governance to climate goals requires additional activities across export finance and investment insurance institutions. The new research project initiated by Oxford University, ClimateWorks Foundation, and Mission 2020 including other practitioners and academics from institutions such as Atradius DSB, Columbia University, EDC, FMO and Offenburg University focuses on reshaping future trade and investment governance in light of climate action. The idea of a ‘Berne Union Net Zero Club’ is an important item in a potential package of reforms. This can include realigning mandates and corporate strategies, principles of intervention, as well as ECA, Exim-Bank and PRI operating models in order to accelerate net zero transformation. Full transparency regarding Berne Union members’ activities would be an excellent starting point. We invite all interested parties in the sector to come together to chart our own path to net zero
Aus Ideen werden Produkte
(2020)
Analysis of Miniaturized Printed Flexible RFID/NFC Antennas Using Different Carrier Substrates
(2020)
Antennas for Radio Frequency Identification (RFID) provide benefits for high frequencies (HF) and wireless data transmission via Near Field Communication (NFC) and many other applications. In this case, various requirements for the design of the reader and transmitter antennas must be met in order to achieve a suitable transmission quality. In this work, a miniaturized cost-effective RFID/NFC antenna for a microelectronic measurement system is designed and printed on different flexible carrier substrates using a new and low-cost Direct Ink Writing (DIW) technology. Various practical aspects such as reflection and impedance magnitude as well as the behavior of the printed RFID/NFC antennas are analyzed and compared to an identical copper-based antenna of the same size. The results are presented in this paper. Furthermore, the problems during the printing process itself on the different substrates are evaluated. The effects of the characteristics on the antenna under kink-free bending tests are examined and subsequently long-term measurements are carried out.
Elektronische Türschilder zur Darstellung von Informationen sind insbesondere in öffentlichen Gebäuden zwischenzeitlich weit verbreitet. Die Varianz dieser elektronischen Türschilder reicht vom Tablet-basierten Türschild bis hin zum PC-basierten Türschild mit externem Bildschirm. Zumeist werden die Systeme mit 230 V betrieben. Bei einer großen Summe von Türschildern in öffentlichen Gebäuden kann dies zu einem signifikanten Umsatz an Energie führen. Im Rahmen dieses Papers wird die Entwicklung eines energieautarken arbeiten Türschildes vorgestellt, bei dem ein E-Paper-Display zum Einsatz kommt. Das Türschild lässt sich per Smartphone-App und NFC-Schnittstelle konfigurieren. Es wird insbesondere auf das Low-Power-Hardware-Design der Elektronik und energetische Aspekte eingegangen.
Environmentally-friendly implementation of new technologies and eco-innovative solutions often faces additional secondary ecological problems. On the other hand, existing biological systems show a lesser environmental impact as compared to the human-made products or technologies. The paper defines a research agenda for identification of underlying eco-inventive principles used in the natural systems created through evolution. Finally, the paper proposes a comprehensive method for capturing eco-innovation principles in biological systems in addition and complementary to the existing biomimetic methods and TRIZ methodology and illustrates it with an example.
Cross-industry innovation is commonly understood as identification of analogies and interdisciplinary transfer or copying of technologies, processes, technical solutions, working principles or models between industrial sectors. In general, creative thinking in analogies belongs to the efficient ideation techniques. However, engineering graduates and specialists frequently lack the skills to think across the industry boundaries systematically. To overcome this drawback an easy-to-use method based on five analogies has been evaluated through its applications by students and engineers in numerous experiments and industrial case studies. The proposed analogies help to identify and resolve engineering contradictions and apply approaches of the Theory of Inventive Problem Solving TRIZ and biomimetics. The paper analyses the outcomes of the systematized analogies-based ideation and outlines that its performance continuously grows with the engineering experience. It defines metrics for ideation efficiency and ideation performance function.
This book constitutes the refereed proceedings of the 20th International TRIZ Future Conference, TFC 2020, held online at the University Cluj-Napoca, Romania, in October 2020 and sponsored by the International Federation for Information Processing.
34 chapters were carefully peer reviewed and selected from 91 conference submissions. They are organized in the following thematic sections: computing TRIZ; education and pedagogy; sustainable development; tools and techniques of TRIZ for enhancing design; TRIZ and system engineering; TRIZ and complexity; and cross-fertilization of TRIZ for innovation management.
Sustainable design of equipment for process intensification requires a comprehensive and correct identification of relevant stakeholder requirements, design problems and tasks crucial for innovation success. Combining the principles of the Quality Function Deployment with the Importance-Satisfaction Analysis and Contradiction Analysis of requirements gives an opportunity to define a proper process innovation strategy more reliably and to develop an optimal process intensification technology with less secondary engineering and ecological problems.
Time Sensitive Networking (TSN) provides mechanisms to enable deterministic and real-time networking in industrial networks. Configuration of these mechanisms is key to fully deploy and integrate TSN in the networks. The IEEE 802.1 Qcc standard has proposed different configuration models to implement a TSN configuration. Up until now, TSN and its configuration have been explored mostly for Ethernet-based industrial networks. However, they are still considered “work-in-progress” for wireless networks. This work focuses on the fully centralized model and describes a generic concept to enable the configuration of TSN mechanisms in wireless industrial networks. To this end, a configuration entity is implemented to conFigure the wireless end stations to satisfy their requirements. The proposed solution is then validated with the Digital Enhanced Cordless Telecommunication ultra-low energy (DECT ULE) wireless communication protocol.
The authentication method of electronic devices, based on individual forms of correlograms of their internal electric noises, is well-known. Specific physical differences in the components – for example, caused by variations in production quality – cause specific electrical signals, i.e. electric noise, in the electronic device. It is possible to obtain this information and to identify the specific differences of the individual devices using an embedded analog-to-digital converter (ADC). These investigations confirm the possibility to identify and authenticate electronic devices using bit templates, calculated from the sequence of values of the normalized autocorrelation function of noise. Experiments have been performed using personal computers. The probability of correct identification and authentication increases with increasing noise recording duration. As a result of these experiments, an accuracy of 98.1% was achieved for a 1 second-long registration of EM for a set of investigated computers.
The development of Internet of Things (IoT) embedded devices is proliferating, especially in the smart home automation system. However, the devices unfortunately are imposing overhead on the IoT network. Thus, the Internet Engineering Task Force (IETF) have introduced the IPv6 Low-Power Wireless Personal Area Network (6LoWPAN) to provide a solution to this constraint. 6LoWPAN is an Internet Protocol (IP) based communication where it allows each device to connect to the Internet directly. As a result, the power consumption is reduced. However, the limitation of data transmission frame size of the IPv6 Routing Protocol for Low-power and Lossy Network’s (RPL’s) had made it to be the running overhead, and thus consequently degrades the performance of the network in terms of Quality of Service (QoS), especially in a large network. Therefore, HRPL was developed to enhance the RPL protocol to minimize redundant retransmission that causes the routing overhead. We introduced the T-Cut Off Delay to set the limit of the delay and the H field to respond to actions taken within the T-Cut Off Delay. Thus, this paper presents the comparison performance assessment of HRPL between simulation and real-world scenarios (6LoWPAN Smart Home System (6LoSH) testbed) in validating the HRPL functionalities. Our results show that HRPL had successfully reduced the routing overhead when implemented in 6LoSH. The observed Control Traffic Overhead (CTO) packet difference between each experiment is 7.1%, and the convergence time is 9.3%. Further research is recommended to be conducted for these metrics: latency, Packet Delivery Ratio (PDR), and throughput.
During the day-to-day exploitation of localization systems in mines, the technical staff tends to incorrectly rearrange radio equipment: positions of devices may not be accurately marked on a map or their positions may not correspond to the truth. This situation may lead to positioning inaccuracies and errors in the operation of the localization system.This paper presents two Bayesian algorithms for the automatic corrections of positions of the equipment on the map using trajectories restored by the inertial measurement units mounted to mobile objects, like pedestrians and vehicles. As a basis, a predefined map of the mine represented as undirected weighted graph was used as input. The algorithms were implemented using the Simultaneous Localization and Mapping (SLAM) approach.The results prove that both methods are capable to detect misplacement of access points and to provide corresponding corrections. The discrete Bayesian filter outperforms the unscented Kalman filter, which, however, requires more computational power.
RETIS – Real-Time Sensitive Wireless Communication Solution for Industrial Control Applications
(2020)
Ultra-Reliable Low Latency Communications (URLLC) has been always a vital component of many industrial applications. The paper proposes a new wireless URLLC solution called RETIS, which is suitable for factory automation and fast process control applications, where low latency, low jitter, and high data exchange rates are mandatory. In the paper, we describe the communication protocol as well as the hardware structure of the network nodes for implementing the required functionality. Many techniques enabling fast, reliable wireless transmissions are used – short Transmission Time Interval (TTI), Time-Division Multiple Access (TDMA), MIMO, optional duplicated data transfer, Forward Error Correction (FEC), ACK mechanism. Preliminary tests show that reliable end-to-end latency down to 350 μs and packet exchange rate up to 4 kHz can be reached (using quadruple MIMO and standard IEEE 802.15.4 PHY at 250 kbit/s).
The number of use cases for autonomous vehicles is increasing day by day especially in commercial applications. One important application of autonomous vehicles can be found within the parcel delivery section. Here, autonomous cars can massively help to reduce delivery efforts and time by supporting the courier actively. One important component of course is the autonomous vehicle itself. Nevertheless, beside the autonomous vehicle, a flexible and secure communication architecture also is a crucial key component impacting the overall performance of such system since it is required to allow continuous interactions between the vehicle and the other components of the system. The communication system must provide a reliable and secure architecture that is still flexible enough to remain practical and to address several use cases. In this paper, a robust communication architecture for such autonomous fleet-based systems is proposed. The architecture provides a reliable communication between different system entities while keeping those communications secure. The architecture uses different technologies such as Bluetooth Low Energy (BLE), cellular networks and Low Power Wide Area Network (LPWAN) to achieve its goals.
This paper presents a novel low-jitter interface between a low-cost integrated IEEE802.11 chip and a FPGA. It is designed to be part of system hardware for ultra-precise synchronization between wireless stations. On physical level, it uses Wi-Fi chip coexistence signal lines and UART frame encoding. On its basis, we propose an efficient communication protocol providing precise timestamping of incoming frames and internal diagnostic mechanisms for detecting communication faults. Meanwhile it is simple enough to be implemented both in low-cost FPGA and commodity IEEE802.11 chip firmware. The results of computer simulation shows that developed FPGA implementation of the proposed protocol can precisely timestamp incoming frames as well as detect most of communication errors even in conditions of high interference. The probability of undetected errors was investigated. The results of this analysis are significant for the development of novel wireless synchronization hardware.
Time-Sensitive Networking (TSN) is the most promising time-deterministic wired communication approach for industrial applications. To extend TSN to "IEEE 802.11" wireless networks two challenging problems must be solved: synchronization and scheduling. This paper is focused on the first one. Even though a few solutions already meet the required synchronization accuracies, they are built on expensive hardware that is not suited for mass market products. While next Wi-Fi generation might support the required functionalities, this paper proposes a novel method that makes possible high-precision wireless synchronization using commercial low-cost components. With the proposed solution, a standard deviation of synchronization error of less than 500 ns can be achieved for many use cases and system loads on both CPU and network. This performance is comparable to modern wired real-time field busses, which makes the developed method a significant contribution for the extension of the TSN protocol to the wireless domain.
With the increasing degree of interconnectivity in industrial factories, security becomes more and more the most important stepping-stone towards wide adoption of the Industrial Internet of Things (IIoT). This paper summarizes the most important aspects of one keynote of DESSERT2020 conference. It highlights the ongoing and open research activities on the different levels, from novel cryptographic algorithms over security protocol integration and testing to security architectures for the full lifetime of devices and systems. It includes an overview of the research activities at the authors' institute.
Das Standardlehrbuch zum internationalen Steuerrecht
Kenntnisse im internationalen Steuerrecht werden in der steuerlichen Ausbildung immer wichtiger. Mit dem „Wilke“ sichern Sie sich einen umfassenden und fundierten Einstieg in diese komplexe Materie. Leicht verständlich und anschaulich vermittelt dieses Standardlehrbuch Ihnen alle relevanten Grundlagen des internationalen Steuerrechts.
Der Aufbau des Buchs orientiert sich dabei sowohl an den Bedürfnissen der Ausbildung als auch denen der Praxis. Als idealer Begleiter unterstützt es Sie in jeder Phase Ihrer beruflichen Entwicklung – von den ersten Schritten in der Steuerberater-Ausbildung bis hin zur erfolgreich abgeschlossenen Weiterbildung zum Fachberater für Internationales Steuerrecht.
Die 15. Auflage berücksichtigt die Entwicklung auf dem Gebiet des internationalen Steuerrechts in Gesetzgebung, Rechtsprechung, Literatur und Verwaltung bis Ende März 2020.
Rechtsstand: 1.4.2020
Datenanalyse mithilfe von Künstlicher Intelligenz (KI) – für 70 Prozent der von den Beratern von PWC befragten Unternehmen ist dies das vielversprechendste Einsatzszenario. Doch so attraktiv die Vision erscheint, mittels KI das eigene Geschäft oder gar eine ganze Branche zu revolutionieren, so handfest sind die Herausforderungen, die sich in der Praxis ergeben. Ein häufiges Problem ist ein bereits beim Start eines Projekts mangelhafter Datenbestand. Die KI mit qualitativ schlechten Daten zu trainieren, macht keinen Sinn, da sie falsche Informationen lernt. Ohne den Einsatz gewisser Automatisierungen und KI ist es wiederum mühsam, die unzureichende Datenbasis zu verbessern.
Gasdynamik
(2020)
Für kompressible Strömungen werden die Erhaltungssätze für Masse, Impuls und Energie hergeleitet. Die Eigenschaften der Stoßgleichungen wie Rankine-Hugoniot-Relation und Rayleigh-Gerade werden betrachtet. Zur Berechnung der Kräfte auf umströmte Körper werden die Auftriebs- und Widerstandsbeiwerte ermittelt. Auf der Basis der Stromfadentheorie wird die Auslegung von Lavaldüsen behandelt. Das physikalische Verhalten linearer Unter- und Überschallströmungen und transsonischer Profilumströmungen wird analysiert.
Analysis of Amplitude and Phase Errors in Digital-Beamforming Radars for Automotive Applications
(2020)
Fundamentally, automotive radar sensors with Digital-Beamforming (DBF) use several transmitter and receiver antennas to measure the direction of the target. However, hardware imperfections, tolerances in the feeding lines of the antennas, coupling effects as well as temperature changes and ageing will cause amplitude and phase errors. These errors can lead to misinterpretation of the data and result in hazardous actions of the autonomous system. First, the impact of amplitude and phase errors on angular estimation is discussed and analyzed by simulations. The results are compared with the measured errors of a real radar sensor. Further, a calibration method is implemented and evaluated by measurements.
Alle drei Anträge argumentieren technikdeterministisch, als sei (Digital)Technik mehr als ein mögliches, nicht notwendiges Hilfsmittel im Unterricht. Seit über 30 Jahren wird jede neue Geräte-Generation (PC, Laptops, heute Tablets) mit identischen Argumenten (innovativ, modern, motivationsfördernd) für den Einsatz im Unterricht reklamiert. Doch entscheidend für Lernerfolge und Bildungsprozesse sind die Lehrer-Schülerbeziehung, die direkte Interaktion zwischen Lehrenden und Lernenden und die Sozial- und Klassengemeinschaft, nicht die technische Ausstattung von Schulen. Lernprozesse in Bildungseinrichtungen beruhen auf dem sozialen Miteinander und wechselseitigem Vertrauen. Lernen ist ein individueller und sozialer Prozess, kein technischer Vorgang. Kein Mensch lernt digital.
Keiner der Anträge unterscheidet nach dem Alter der Schülerinnen und Schüler als dem entscheidenden Kriterium für den Einsatz von Medientechnik im Unterricht. Stattdessen wird technikeuphorisch einer zunehmenden Automatisierung des Beschulens und Testens das Wort geredet (Lernsoftware, Lernmanagementsysteme, Lernprofile u.a.). Stand der Wissenschaft (einschließlich der Erfahrungen mit Covid-19 und erzwungenen Schulschließungen) ist aber, dass Präsenzunterricht das oberstes Primat der Schulen sein muss. Schulen sind die Orte des sozialen Miteinander und Schutzraum gerade für sozial Benachteiligte. Das Ziel sind Lern- und Verstehensprozesse der Schülerinnen und Schüler, die Entwicklung ihrer Persönlichkeit und ihre Bildungschancen, nicht quantitative Vergleiche über die technische Ausstattung von Schulen in anderen Bundesländern oder dem Ausland. Pädagogisch argumentierend würde nicht auf digitale Medien(technik) verkürzt; es würden analoge wie technische Medien gleichwertig einbezogen. Ob und ggf. für was man Digitaltechniken altersangemessen und ohne Rückkanal (!) für Nutzerdaten einsetzen kann, ist hingegen erst durch ergebnisoffene Studien zu belegen. Was in allen Anträgen fehlt, ist daher ein klares Verbot der Profilierung Minderjähriger.
Wer darüber hinaus das Ziel der digitalen Transformation der gesamten Gesellschaft mit dem Ziel der digitalen Organisation aller Lebensbereiche kennt, weiß, dass wir IT erst neu denken und alternative Infrastrukturen aufbauen müssen, bevor Digitaltechnik in Schulen einsetzbar wird. Datensparsamkeit und Dezentralisierung, Hoheit über die eigenen Daten und DSGVO-konforme Systeme sind zukunftsweisende Stichworte für IT in Schulen, nicht EdTech als Big Business der Global Education Industries (GEI).
Die entscheidende Frage bei der Konzeption einer möglichen technischen Infrastruktur für Schulen ist keine technische, sondern eine pädagogische: Was soll denn genau gelernt werden, über Rechner und Netzwerke, am Rechner oder mit dem Rechner? Ist diese Frage geklärt, kann man Hard- und Software dafür zusammenstellen.
The Metering Bus, also known as M-Bus, is a European standard EN13757-3 for reading out metering devices, like electricity, water, gas, or heat meters. Although real-life M-Bus networks can reach a significant size and complexity, only very simple protocol analyzers are available to observe and maintain such networks. In order to provide developers and installers with the ability to analyze the real bus signals easily, a web-based monitoring tool for the M-Bus has been designed and implemented. Combined with a physical bus interface it allows for measuring and recording the bus signals. For this at first a circuit has been developed, which transforms the voltage and current-modulated M-Bus signals to a voltage signal that can be read by a standard ADC and processed by an MCU. The bus signals and packets are displayed using a web server, which analyzes and classifies the frame fragments. As an additional feature an oscilloscope functionality is included in order to visualize the physical signal on the bus. This paper describes the development of the read-out circuit for the Wired M-Bus and the data recovery.
Propagation of acoustic waves is considered in a system consisting of two stiff quarter-spaces connected by a planar soft layer. The two quarter-spaces and the layer form a half-space with a planar surface. In a numerical study, surface waves have been found and analyzed in this system with displacements that are localized not only at the surface, but also in the soft layer. In addition to the semi-analytical finite element method, an alternative approach based on an expansion of the displacement field in a double series of Laguerre functions and Legendre polynomials has been applied.
It is shown that a number of branches of the mode spectrum can be interpreted and remarkably well described by perturbation theory, where the zero-order modes are the wedge waves guided at a rectangular edge of the stiff quarter-spaces or waves guided at the edge of a soft plate with rigid surfaces.
For elastic moduli and densities corresponding to the material combination PMMA–silicone–PMMA, at least one of the branches in the dispersion relation of surface waves trapped in the soft layer exhibits a zero-group velocity point.
Potential applications of these 1D guided surface waves in non-destructive evaluation are discussed.
Partial substitution of Al atoms with Sc in wurtzite AlN crystals increases the piezoelectric constants. This leads to an increased electromechanical coupling, which is required for high bandwidths in piezo-acoustic filters. The crystal bonds in Ah-xScxN (AlScN) are softened as function of Sc atomic percentage x, leading to reduction of phase velocity in the film. Combining high Sc content AlScN films with high velocity substrates favors higher order guided surface acoustic wave (SAW) modes [1]. This study investigates higher order SAW modes in epitaxial AlScN on sapphire (Al2O3). Their dispersion for Pt metallized epitaxial AlScN films on Al2O3was computed for two different propagation directions. Computed phase velocity dispersion branches were experimentally verified by the characterization of fabricated SAW resonators. The results indicated four wave modes for the propagation direction (0°, 0°, 0°), featuring 3D polarized displacement fields. The sensitivity of the wave modes to the elastic constants of AlScN was investigated. It was shown that due to the 3D polarization of the waves, all elastic constants have an influence on the phase velocity and can be measured by suitable weighting functions in material constant extraction procedures.
Laser ultrasound was used to determine dispersion curves of surface acoustic waves on a Si (001) surface covered by AlScN films with a scandium content between 0 and 41%. By including off-symmetry directions for wavevectors, all five independent elastic constants of the film were extracted from the measurements. Results for their dependence on the Sc content are presented and compared to corresponding data in the literature, obtained by alternative experimental methods or by ab-initio calculations.
Experimental Investigation of the Air Exchange Effectiveness of Push-Pull Ventilation Devices
(2020)
The increasing installation numbers of ventilation units in residential buildings are driven by legal objectives to improve their energy efficiency. The dimensioning of a ventilation system for nearly zero energy buildings is usually based on the air flow rate desired by the clients or requested by technical regulations. However, this does not necessarily lead to a system actually able to renew the air volume of the living space effectively. In recent years decentralised systems with an alternating operation mode and fairly good energy efficiencies entered the market and following question was raised: “Does this operation mode allow an efficient air renewal?” This question can be answered experimentally by performing a tracer gas analysis. In the presented study, a total of 15 preliminary tests are carried out in a climatic chamber representing a single room equipped with two push-pull devices. The tests include summer, winter and isothermal supply air conditions since this parameter variation is missing till now for push-pull devices. Further investigations are dedicated to the effect of thermal convection due to human heat dissipation on the room air flow. In dependence on these boundary conditions, the determined air exchange efficiency varies, lagging behind the expected range 0.5 < εa < 1 in almost all cases, indicating insufficient air exchange including short-circuiting. Local air exchange values suggest inhomogeneous air renewal depending on the distance to the indoor apertures as well as the temperature gradients between in- and outdoor. The tested measurement set-up is applicable for field measurements.
In this paper, we describe the PALM model system 6.0. PALM (formerly an abbreviation for Parallelized Large-eddy Simulation Model and now an independent name) is a Fortran-based code and has been applied for studying a variety of atmospheric and oceanic boundary layers for about 20 years. The model is optimized for use on massively parallel computer architectures. This is a follow-up paper to the PALM 4.0 model description in Maronga et al. (2015). During the last years, PALM has been significantly improved and now offers a variety of new components. In particular, much effort was made to enhance the model with components needed for applications in urban environments, like fully interactive land surface and radiation schemes, chemistry, and an indoor model. This paper serves as an overview paper of the PALM 6.0 model system and we describe its current model core. The individual components for urban applications, case studies, validation runs, and issues with suitable input data are presented and discussed in a series of companion papers in this special issue.
„Nichts geschieht ohne Risiko, aber ohne Risiko geschieht auch nichts“, sagte der ehemalige Bundespräsident Walther Scheel. Der Ausspruch sensibilisiert dafür, dass in fast allen Themen und Prozessen Risiken stecken und die Akteure ein kalkulierbares Risiko eingehen sollten, um auch in komplexen Themen einen signifikanten Fortschritt zu erlangen. In unserem Fall sind die Akteure Projektleiter und Projektteammitglieder, die kaum eigene/persönliche Risiken eingehen, sondern Projektrisiken professionell managen müssen. Die Teammitglieder sind dabei von den Projekten selten persönlich bedroht, sondern das Projekt oder das Unternehmen und entsprechend sind die Risiken oft auch deutlich größer, als eine einzelne Person es sich vorstellen oder persönlich verantworten kann.
Ein Windenergieprojekt ist eine hochindividuelle Kraftwerksplanung und das Projektmanagement hierzu ist geprägt von zahlreichen Besonderheiten, die berücksichtigt werden müssen. Die mehrjährigen Planungszeiträume, die Energiewende, der technische Fortschritt, die hohen Kosten, die Internationalisierung der Branche und die Diskussionen über den Klimawandel beeinflussen die Durchführung der Projekte, die Entscheidungen eines Projektmanagers und die der weiteren Projektbeteiligten.
Das Buch richtet sich an alle Projektentwickler, Anlagenhersteller und Gutachter aus der Windenergiebranche und jene, die mit dieser Branche zusammenarbeiten. Es vermittelt bewusst praxisnahe Erfahrungen und Erkenntnisse von Projektmanagementthemen über die gesamte Wertschöpfungskette von Wind Onshore.
Due to the rapidly increasing storage consumption worldwide, as well as the expectation of continuous availability of information, the complexity of administration in today’s data centers is growing permanently. Integrated techniques for monitoring hard disks can increase the reliability of storage systems. However, these techniques often lack intelligent data analysis to perform predictive maintenance. To solve this problem, machine learning algorithms can be used to detect potential failures in advance and prevent them. In this paper, an unsupervised model for predicting hard disk failures based on Isolation Forest is proposed. Consequently, a method is presented that can deal with the highly imbalanced datasets, as the experiment on the Backblaze benchmark dataset demonstrates.
The recent successes and wide spread application of compute intensive machine learning and data analytics methods have been boosting the usage of the Python programming language on HPC systems. While Python provides many advantages for the users, it has not been designed with a focus on multiuser environments or parallel programming - making it quite challenging to maintain stable and secure Python workflows on a HPC system. In this paper, we analyze the key problems induced by the usage of Python on HPC clusters and sketch appropriate workarounds for efficiently maintaining multi-user Python software environments, securing and restricting resources of Python jobs and containing Python processes, while focusing on Deep Learning applications running on GPU clusters.
In this work a method for the estimation of current slopes induced by inverters operating interior permanent magnet synchronous machines is presented. After the derivation of the estimation algorithm, the requirements for a suitable sensor setup in terms of accuracy, dynamic and electromagnetic interference are discussed. The boundary conditions for the estimation algorithm are presented with respect to application within high power traction systems. The estimation algorithm is implemented on a field programmable gateway array. This moving least-square algorithm offers the advantage that it is not dependent on vectors and therefore not every measured value has to be stored. The summation of all measured values leads to a significant reduction of the required storage units and thus decreases the hardware requirements. The algorithm is designed to be calculated within the dead time of the inverter. Appropriate countermeasures for disturbances and hardware restrictions are implemented. The results are discussed afterwards.
JARDIN GLOCAL
(2020)
Der Komplexitätsbeitrag als Kriterium für Entscheidungen zur Bereinigung technischer Produkte
(2020)
Die Bereinigung der Produktpalette wird meistens anhand des Umsatzanteils und des Deckungsbeitrags im Zuge der Einführung von Nachfolgeprodukten entschieden. Im vorliegenden Beitrag wird ein Kriterium eingeführt und hergeleitet, das den Beitrag eines Produkts zur Komplexität auf Basis logistikrelevanter Produkteigenschaften quantifiziert. Die Anwendung des Kriteriums wird anhand der Ergebnisse aus einem Praxisbeispiel aufgezeigt.
Die Coronakrise hat weltweit das Wirtschafts- und Gesellschaftsleben in bisher ungekannter Weise verändert. Die ohnehin bereits komplexen Herausforderungen in Zeiten des Klimawandels sind damit noch gestiegen. Genossenschaftliche Innovationsökosysteme können Lösungsansätze für die gravierenden Veränderungen im unternehmerischen, kommunalen und gesellschaftlichen Umfeld schaffen.