The 20 most recently published documents
Im Rahmen dieser Arbeit wird die Weiterentwicklung der Hinterradbaugruppe weiter vorangetrieben. Durch das genaue Betrachten verschiedener Sachverhalte entstehen neue Anpassungs- und Neukonstruktionen, mit dem Hauptaugenmerk der Antriebsfunktionalität und Elektrokomponentenbefestigung. Nach der Anpassung einer Ritzeladaption und einer Änderung der Elektromotoraufnahme wird der Antriebsstrang, in Form eines Kettentriebs, eingerichtet. Dazu wird der vorausgewählte Motor mit der angepassten Aufnahme verbunden und an die vordefinierte Stelle platziert. Zur Inbetriebnahme findet parallel eine Änderung der Radachsenaufnahme statt, um das Hinterrad mittig widerholbar ausrichten zu können. Unter dem Aspekt der der Sicherheit und Funktionalität erfolgt in Folge dessen die Konzipierung eines Radkatens und Kettenschutzes. Aus zeitlichen Gründen wird vorrangig das Konzept des Radkastens umgesetzt, weil diese Geometrie früher benötigt wird. Ein weiterer Bestandteil dieser Arbeit ist die Konzipierung eines Bremsenhalters. Dazu findet zu-nächst eine Bauraumanalyse statt, diese zu einem groben Bauraummodell führt. Daraufhin werden verschiedene Topologie- und Formoptimierungen, für die Erzielung eines robusten Bremsenhalters, durchgeführt. Im letzten Teil des Arbeitsumfangs erfolgt die Ermittlung verschiedene Aufnahmekonzepte für die Elektrokomponenten. Neben einer Schubladenlösung für die Energiebox findet parallel die Anfertigung einer Batteriebox mit Schiebedeckelvariante statt. Die angefertigten Boxen sind durch die vollständige Ausarbeitung bereit für die Erstellung eines Anbindungskonzepts an die, ebenfalls neuentwickelte, Elektrokomponentenaufnahme.
In dieser Arbeit wurde ein Getriebesteuergerät für ein Zweigang-Schaltgetriebe entwickelt. Dieses soll sowohl im manuellen als auch im autonomen Fahrbetriebe des Schluckspecht 5 einen Gangwechsel mittels eines Elektromotors ermöglichen. Da für den autonomen Fahrbetrieb eine rechnergestützte Ansteuerung der Drosselklappe erforderlich ist, wurde auch der Anschluss eines dafür gedachten Servomotors vorgesehen und die Auswertung des Motordrehzahlsensors realisiert. Für die eigentliche Getriebesteuerung wurden ein Raddrehzahlsensor, ein Getriebeeingangsdrehzahlsensor, Endlagensensoren für die beweglichen Teile sowie ein Stromsensor zum Schutz des Elektromotors und des Motortreibers vor thermischer Überlastung an den ausgewählten Mikrocontroller angeschlossen und der notwendige Source-Code zur Auswertung bzw. Ansteuerung geschrieben. Darüber hinaus wurden Zustandsautomaten für die Elektromotor- und die Getriebesteuerung vorbereitet.
In dieser Arbeit wird ein historischer Fallbericht des bis heute weit über seine Landesgrenzen
bekannten italienischen Kriminalanthropologen Cesare Lombroso (1835–1909)
vorgestellt. In diesem Fallbericht wird der berüchtigte und psychisch auffällige Dieb Pietro
Bersone mit Hilfe eines sog. Hydrosphygmographen überführt, einem zur damaligen Zeit
neuartigen technischen Gerät, das den Puls nicht-invasiv aufzeichnen konnte. Lombroso ist
vermutlich einer der ersten, wenn nicht sogar der erste, der durch den Einsatz eines solchen
Geräts die Idee zum „Lügendetektor“ vorweggenommen hat. Die vorgestellte Textstelle aus
Lombrosos Buch „Neue Fortschritte in den Verbrecherstudien“ ist daher ein besonderes
Fundstück auch für die Geschichte der Polygraphie.
eLetter zum Artikel "The Hannes hand prosthesis replicates the key biological properties of the human hand" von Matteo Laffranchi et al., veröffentlicht in Science Robotics, Vol. 5, Issue 46, eabb0467 (doi.org/10.1126/scirobotics.abb0467)
Die verstärkte Nachfrage des Marktes nach regelbaren EC-Antrieben mit erhöhten Leistungsdichten fordert das Einsetzen von höherwertigen Elektroblechsorten. Diese weisen durch ihren höheren Siliziumgehalt höhere Härten auf, was zu neue Herausforderungen bei der Montage führt. Das Fügen sogenannter gekerbter Wellen in das Rotorlamellenpaket kann zu Partikelbildung führen, wenn die Härtedifferenz zwischen den beiden Fügepartnern zu gering ausfällt. Dieser Umstand ist zur Einhaltung der steigenden Anforderungen bezüglich technischer Sauberkeit zu vermeiden, da ansonsten kostspielige Reinigungskonzepte in der Montagelinie installiert werden müssen. Für die Montage von Lagern werden die Rotorwellen selektiv induktiv randschichtgehärtet. Hierbei müssen bspw. Lagerstellen eine Mindesthärte erreichen und Kerbzonen unbehandelt bleiben, damit eine entsprechende Umformbarkeit beim Kerben erhalten bleibt sowie der Verschleiß der Kerbwerkzeuge möglichst geringgehalten wird.
Im Rahmen dieser Masterthesis wird die induktive Wärmebehandlung untersucht. Insbesondere wird hier das induktive Hochgeschwindigkeitsvergüten zur Weiterentwicklung der Welle-Nabe-Verbindung im Kerbbereich betrachtet, um bei gleichbleibender Taktzeit die erforderte Härtedifferenz zum Rotorlamellenwerkstoff zu ermöglichen. Hierbei wird der Kerbbereich wie für die Lagermontage induktiv randschichtgehärtet und anschließend bei höheren Temperaturen angelassen (vergütet).
Die Auswertung der Versuchsergebnisse zeigt, dass mit dem vorhandenen Maschinenfuhrpark nur das Anlassen mit Selbstabschreckung die geforderten Härtetoleranzen als Kompromiss zwischen Spanfreiheit beim Fügen und Werkzeugverschleiß ermöglicht. Diese wiederum zeigen aufgrund der ununterbrochene Wärmeleitung eine in Axialrichtung ausgeweiteten Wärmeeinflusszone, die zu unscharfen Härteübergängen im Vergleich zu nach dem Anlassen aktiv gekühlter Rotorwellen führt. Eine höhere Härte in der Kerbzone führt zu einem kleineren Kerbaufwurf unter gleichbleibenden Kerbbedingungen. Der Nachweis einer Prozessfähigkeit für die Härte ist nicht üblich und kann auch aufgrund der hohen Unsicherheit des Härteprüfverfahrens nicht erbracht werden. Das Anlassen verschlechtert nur geringfügig den Rundlauf. Die Einpresskräfte von Rotorlamellenpaketen hängt von der Höhe des Kerbaufwurfs ab und steigt entsprechend mit deren Zunahme. Für eine serientaugliche Umsetzung ist in Abhängigkeit des Anforderungsprofils eine Rücksprache mit der Designabteilung bezüglich axiale Härteübergang und Kerbeindringtiefe notwendig. Für eine dauerhafte Lösung wird die Verwendung eines Mittelfrequenzgenerators für den Anlassprozess empfohlen.
Wer sich mit dem Thema „Digitalisierung und Schule“ befasst, stellt fest, dass die Tragweite der intendierten Transformation von Bildungseinrichtungen zu möglichst automatisierten Lernfabriken durch Digitaltechnik nur von Wenigen realisiert wird. Selbst Begriffe wie „Lernen 4.0“ oder „Schule 4.0“ führen nicht dazu, die zugrunde liegenden Theorien und Automatisierungstechniken der „Industrie 4.0“-Projekte zu hinterfragen. Dann wäre sofort klar, dass diese an Technik-Geschichte und Software-Updates erinnernde Zählweise für Bildungseinrichtungen ebenso abwegig ist wie die Fiktion der Wissensproduktion.
Die „Digitalisierung“ scheint die aktuelle Heilslehre zu sein, die viele Menschen (ver-)blendet. Das „Vordringen der Digitaltechnik in alle Lebensbereiche“ sei alternativlos und unumkehrbar, heißt es allenthalben – als sei das Etablieren einer technischen Infrastruktur eine Naturgewalt und als stünden nicht ganz konkrete wirtschaftliche Interessen hinter diesen Netzwerkdiensten. Ausgeblendet wird, dass hinter Phrasen wie „die Digitalisierung verändert…“ oder „die Digitalisierung sorgt für… “ oder „die Digitalisierung führt zu ...“ ganz konkrete und benennbare Akteure bzw. Unternehmen und deren Geschäftsfelder stehen.
Wer als Pädagoge und Wissenschaftler das Thema „Digitalisierung und Unterricht“ kritisch reflektiert, stellt fest, dass nur Wenige die Tragweite der schon lange beabsichtigten Transformation von Bildungseinrichtungen zu IT-konformen, algorithmisch gesteuerten Lernfabriken realisieren. Die Corona-Pandemie ist nur der aktuelle Anlass, seit langem bekannte Digitalisierungsstrategien nur schneller umzusetzen. Dabei ist der Wechsel von ursprünglich pädagogischen Prämissen als Basis von Lehr- und Lernprozessen hin zum Paradigma der datengestützte Schulentwicklung und der empirischer Bildungsforschung wesentlich. Daten und Statistik dominieren das Individuum wie das Unterrichtsgeschehen. Es bedeutet sachlogisch, möglichst viele Daten der Schülerinnen und Schüler zu sammeln, auszuwerten und zur Grundlage von Entscheidungen über Lerninhalte und -prozessen zu machen. Lehren und Lernen wird wieder einmal als, heute digital, steuerbarer Prozess behauptet, wie schon beim programmierten Lernen in den 1950er Jahren. Was sind mögliche Alternativen?
Die Wertschöpfung vorherrschender Datenmengen scheitert, obgleich diese als der Treibstoff der Zukunft gelten, oftmals an den grundlegendsten Dingen. Das Digitalisierungs- und auch Verlagerungsverhalten werden für das Content Management (CM) zunehmend zu einem herausfordernden Fallstrick.
Die Unternehmen sind mit Fragestellungen traktiert, die sich darauf referenzieren, EchtzeitStröme unstrukturierter Daten aus heterogenen Quellen zu analysieren und zu speichern.
Trotz aller Bemühungen, die unaufhaltsam wachsende Menge an Daten- beziehungsweise Content im Rahmen eines effizienten Managements künftig manuell in den Griff zu bekommen, scheint es, als ob die Unternehmen an der kaum zu bewerkstelligenden Herausforderung scheitern werden.
Die vorliegende Arbeit untersucht, inwieweit es einer innovativen Technologie, wie der Künstlichen Intelligenz (KI) gelingen kann, das Content Management nachhaltig zu revolutionieren und damit den Content in seinem Umfang so zu organisieren und zu nutzen, um den Unternehmen eine Perspektive zu bieten, die steigende Welle an Big Data zu bewältigen.
Somit bewegt sich diese Arbeit auf dem Forschungsfeld der KI, als Teilgebiet der Informatik, die enorme Chancen und gleichzeitig Herausforderungen für die Wissenschaft und die Innovationsfähigkeit der Unternehmen mit sich bringt.
Im Rahmen qualitativer Expert*inneninterviews als Lösungsansatz wurde untersucht, inwiefern es KI-gestützten Systemen gelingen kann, Wissensmitarbeiter*innen entlang des Content Life Cycles zu unterstützen und den Nutzer*innen bezüglich der Ausspielung der Inhalte eine optimale Customer Experience zu bieten.
Die fehlende Nachvollziehbarkeit und das Missverständnis des KI-Begriffes sowie die Kluft zwischen der öffentlichen Debatte und der Realität der KI erweisen sich hierbei als die wohl größten Innovationsbremsen des KI-Einsatzes in der Content Management Umgebung.
Die Ergebnisse der Arbeit tragen im Wesentlichen dazu bei, das Verständnis für die KI zu schärfen und gleichzeitig das aufkommende Dilemma des Vertrauensdefizites der Mensch-Maschine-Kommunikation zu entschärfen.
Außerdem wird ein Grundverständnis dafür geschaffen, die KI als geeignetes Tool im Content Management zu erkennen.
Darüber hinaus wird demonstriert, dass sich durch den Einsatz der KI im Content Management ebenfalls immense Vorteile für die Ausspielung user*innenspezifierten Contents ergeben, die im folgenden Verlauf genauer aufgeführt werden.
Diese Bachelorarbeit analysiert, wie die Bekanntheit und die Reichweite gesteigert werden kann. Hierzu wird zunächst die Zielgruppe untersucht, denn sie ist die Basis für die Planung des Contents.
Zu Beginn werden Grundlagen der Kameratechnik und der Bildgestaltung erläutert. Diese sind notwendig, da bei Instagram ausschließlich visuelle Inhalte in Form von Bildern und Videos geteilt werden. Einer der bedeutsamsten Teile der Strategie ist somit die Content-Planung, die diese Grundlagen voraussetzt.
Im weiteren Verlauf wird Instagram von anderen sozialen Medien zunächst abgegrenzt. Mit Hilfe von Daten aus verschiedenen Studien, wird zudem die Relevanz von Instagram für Fotografierende herausgearbeitet.
Des Weiteren werden der Aufbau und die Funktionen der Instagram-App erklärt. Diese Kenntnisse sind essentiell für die folgende Strategieausarbeitung. Die Theorie stellt gleichzeitig die Basis für die praktische Ausarbeitung und die Umsetzung einer Strategie für das Instagram-Profil einer Fotografin dar. Die Zielgruppe wurde mit Hilfe der Durchführung von Fotoshootings und einer Onlineumfrage analysiert. Zuletzt wurde die Wirksamkeit der gesamten Maßnahmen anhand von Kennzahlen und KPIs überprüft.
Mit dem Ergebnis dieser Bachelorarbeit, soll es insbesondere Fotografierenden und weiteren Selbstständigen und Kleingewerbetreibenden möglich sein, selbst eine Strategie zu erstellen. Diese soll ihnen bei der Steigerung ihrer Reichweite und der Bekanntheit ihrer Personal Brand oder ihrer Produkte und Dienstleistungen helfen.
Photonics meet digital art
(2014)
The paper focuses on the work of an interdisciplinary project between photonics and digital art. The result is a poster collection dedicated to the International Year of Light 2015. In addition, an internet platform was created that presents the project. It can be accessed at http://www.magic-of-light.org/iyl2015/index.htm. From the idea to the final realization, milestones with tasks and steps will be presented in the paper. As an interdisciplinary project, students from technological degree programs were involved as well as art program students. The 2015 Anniversaries: Alhazen (1015), De Caus (1615), Fresnel (1815), Maxwell (1865), Einstein (1905), Penzias Wilson, Kao (1965) and their milestone contributions in optics and photonics will be highlighted.
PHOTOPUR hat die Entwicklung eines photokatalytischen Prozesses zur Beseitigung von Pflanzenschutzmitteln (PSM) aus dem Reinigungswasser von Spritzgeräten zum Ziel. Am INES wurde eine Energieversorgung für die photokatalytische Reinigung in zwei Bachelorarbeiten entwickelt und als Demosystem aufgebaut. Das Gesamtsystem ist nun als mobile Einheit verfügbar und wurde zuletzt um das Reaktormodul für den photokatalytischen Prozeß erweitert und den Partnern für intensive Tests übergeben.
Bereichsübergreifender Einsatz von JavaScript – Aktueller Stand und exemplarische Implementierung
(2021)
Nahezu alle Websites nutzen die Programmiersprache JavaScript zur Darstellung von interaktiven Inhalten und zur Bereitstellung von komplexen Funktionalitäten. Seit ihren Anfängen im Jahr 1995 hat sich die Sprache nicht nur zum Standard in der Webentwicklung etabliert, sondern auch zu einer leistungsfähigen Mehrzweckprogrammiersprache weiterentwickelt.
Diese Arbeit befasst sich mit einer ausführlichen Darstellung der aktuellen Möglichkeiten, welche Ansätze sich durch die Weiterentwicklung JavaScripts zu einer Mehrzweckprogrammiersprache ergeben und wie sich diese heute umsetzen lassen. Anhand des intelligenten Schlüsselkastens „Smart Vault“ wird verdeutlicht, wie dieses Vorgehen praktisch realisiert und die Vorteile einer einzigen Programmiersprache angewendet werden können.
Es hat sich herausgestellt, dass sich JavaScript für Anwendungen unterschiedlicher Bereiche einsetzen lässt und darüber hinaus ein hohes Potenzial für weitere Entwicklungen, Verbesserungen und zusätzliche Einsatzgebiete besitzt. Es lassen sich nicht nur Websites, Web Server und Desktop Apps, sondern auch Mikrocontroller im Internet of Things konfigurieren und miteinander nutzen, ohne eine weitere Programmiersprache zu benötigen. Zahlreiche Bibliotheken und Frameworks machen es möglich, dass die Sprache verschiedene Anwendungen über ihre Einsatzgebiete hinweg miteinander verbindet.
In unserer modernen Arbeitswelt wächst der Wunsch auf Mobilität stetig. Längst haben die meisten Menschen ein Smartphone in der Hosentasche und die Entwicklung mobiler Anwendungen hat zunehmend an Bedeutung gewonnen. Die Möglichkeiten für Entwickler sind inzwischen sehr vielfältig. Ob native App, Hybrid App oder Progressive Web App, es gibt für jede Art eine Menge verschiedener Hilfestellungen zur Entwicklung dieser, durch verschiedene Frameworks.
Diese Arbeit handelt von der Erstellung einer mobilen App für Arbeitszeitverwaltung für das Unternehmen SYSTECS Informationssysteme GmbH. Dabei wird nach einer Analyse bereits bestehender Apps sowie des Ist-Zustandes bei SYSTECS, zunächst die Anforderungen gesammelt, ein Konzept erstellt und schließlich die App entwickelt.
Diese Bachelorarbeit thematisiert die Suche von Dokumenten über die Dokumentenablage im Cloud-Service Azure Blob Storage. Mit dieser Arbeit wird eine Volltextsuche durch eine große Menge an Dokumenten auf der Herrenknecht-Plattform Connected ermöglicht.
Zu Beginn wird das generelle Thema ‘Information Retrieval‘ behandelt sowie die eingesetzten Dienste von Microsoft vorgestellt. Im Anschluss wird der Prozess der Implementierung beschrieben. Dazu gehört die Entwicklung eines API-Endpunkts im Backend (C#), sowie die Erweiterung des Connected-Frontends um eine erweiterte Suche.
Darüber hinaus wird der eingesetzte Suchdienst von Microsoft, Azure Cognitive Search, im Hinblick auf das Projekt evaluiert. Zudem wird ein Blick auf die Azure Cognitive Services geworfen.
Mit dem Projekt wird eine digitale Suche durch eine Vielzahl an Dokumenten ermöglicht, um die bisherige manuelle Suche und die eingesetzten physischen Ordner auf Baustellen und im Büro zu ersetzen.
In this work, we evaluate two different image clustering objectives, k-means clustering and correlation clustering, in the context of Triplet Loss induced feature space embeddings. Specifically, we train a convolutional neural network to learn discriminative features by optimizing two popular versions of the Triplet Loss in order to study their clustering properties under the assumption of noisy labels. Additionally, we propose a new, simple Triplet Loss formulation, which shows desirable properties with respect to formal clustering objectives and outperforms the existing methods. We evaluate all three Triplet loss formulations for K-means and correlation clustering on the CIFAR-10 image classification dataset.
Die angestrebten Klimaschutzziele erfordern, dass Erneuerbare Energien längerfristig zur Hauptenergiequelle der Energieversorgung werden. Um dieses ehrgeizige Ziel zu erreichen, ist es angebracht konventionelle und erneuerbare Energie oder noch besser nachhaltige Einzelprozesse intelligent miteinander zu verknüpfen.
Das Projekt EBIPREP wird von einer interdisziplinären Forschergruppe bestehend aus Chemikern, Prozessingenieuren und Bioprozessingenieuren sowie Physikern, die auf Sensoren und Prozesssteuerung spezialisiert sind durchgeführt. Das Ziel ist es, neue Lösungen für die Nutzungswege von Holzhackschnitzeln und den bei der mechanischen Trocknung anfallenden Holzpresssaft zu entwickeln. Neben der Hackschnitzelvergasung und der katalytischen Reinigung des Holzgases steht die Nutzung des Holzpresssafts in Biogasanlagen und bei der biotechnologischen Wertstofferzeugung, z.B. bei der Enzymherstellung, im Vordergrund.
Was wir tun?
Das EBIPREP-Projekt wird von einer interdisziplinären Forschungsgruppe durchgeführt, die sich aus Chemikern, Prozessingenieuren, Bioprozessingenieuren und Physikern zusammensetzt. Ziel ist es, neue Lösungen für den Einsatz von Hackschnitzeln und Holzpresssaft zu entwickeln, die durch ein innovatives mechanisches Trocknungsverfahren gewonnen werden. Neben der Holzvergasung und katalytischen Reinigung des Holzgases ist der Einsatz von Holzpresssaft in Biogasanlagen und in biotechnologischen Produktionsprozessen von Wertstoffen vorgesehen. Holzhackschnitzel werden thermisch vergast. Es werden Online-Sensoren entwickelt, um die relevanten Parameter der stabilisierten und optimierten Einzelprozesse auszuwerten. Die Verknüpfung von thermischen und biotechnologischer Konversionsprozessen könnte dazu beitragen, die Dimension von Biogasreaktoren erheblich zu reduzieren. Diese Tatsache wird folglich zu einer spürbaren Kostensenkung führen.
Ziele des EBIPREP-Projekts
• die Vorteile der thermischen und biologischen Umwandlung von Biomasse zu kombinieren;
• Entwicklung eines Verfahrens zur Reduzierung von Schadstoffemissionen mit innovativen Sensoren und katalytische Behandlung von Synthesegasen;
• nachhaltige Produktion biotechnologischer wertvoller Produkte
• wirtschaftliche und ökologische Analyse des Gesamtprozesses im Vergleich zu den Einzelprozessen
• Einsatz von Prozessabwässern zur Erzeugung regenerativer Energie oder biotechnologischer Wertstoffe
• Erwerb neuer Kenntnisse auf dem Gebiet der Rückgewinnungstechnik von Rückständen
• und Energieerzeugung;
• Erweiterung neuer Anwendungsfelder für innovative Sensoren und Keramik
• Schäume für Katalysatoren;
• Senkung der Kosten für die Biogasproduktion
Im geplanten Übersichtsvortrag werden die vernetzten Strukturen des Projekts EBIPREP und deren zentralen Ergebnisse vorgestellt.
Investigation of the Angle Dependency of Self-Calibration in Multiple-Input-Multiple-Output Radars
(2021)
Multiple-Input-Multiple-Output (MIMO) is a key technology in improving the angular resolution (spatial resolution) of radars. In MIMO radars the amplitude and phase errors in antenna elements lead to increase in the sidelobe level and a misalignment of the mainlobe. As the result the performance of the antenna channels will be affected. Firstly, this paper presents analysis of effect of the amplitude and phase errors on angular spectrum using Monte-Carlo simulations. Then, the results are compared with performed measurements. Finally, the error correction with a self-calibration method is proposed and its angle dependency is evaluated. It is shown that the values of the errors change with an incident angle, which leads to a required angle-dependent calibration.