Refine
Year of publication
- 2019 (83) (remove)
Document Type
- Bachelor Thesis (42)
- Master's Thesis (17)
- Working Paper (9)
- Article (reviewed) (4)
- Conference Proceeding (3)
- Report (3)
- Book (2)
- Periodical Part (2)
- Contribution to a Periodical (1)
Conference Type
- Konferenzartikel (2)
- Konferenzband (1)
Has Fulltext
- yes (83) (remove)
Keywords
- Marketing (3)
- Robotik (3)
- Social Media (3)
- Docker (2)
- IT-Sicherheit (2)
- Online Marketing (2)
- PWA (2)
- Programmierung (2)
- Progressive Web App (2)
- Sensor (2)
- Web-Entwicklung (2)
- europäisches Urheberrecht (2)
- API (1)
- Ackermann-Formel (1)
- Ackermann´s formula (1)
- Agentur (1)
- Altenpflege (1)
- Android (1)
- Angemessene Information (1)
- Angular (1)
- Anthropozän (1)
- Applikation (1)
- Architektur (1)
- Automatisierungstechnik (1)
- B2B-Marketing (1)
- Batteries Lithium (1)
- Bedrohungsanalyse (1)
- Bildverarbeitung (1)
- Biologische Methanisierung (1)
- Bluetooth-Applikation (1)
- Business Judgment Rule (1)
- China (1)
- Controller PFC100; 2 x ETHERNET (1)
- Datenanalyse (1)
- DevExtreme (1)
- Didaktik (1)
- Drehstrom (1)
- Durchflussmessung von Gasen (1)
- E-Mail (1)
- Einzelhandel (1)
- Electrochemical Engineering (1)
- Emotionen (1)
- Energiemanagement (1)
- Energieversorgung (1)
- Energy Storage (1)
- Enterprise Resource Planning (1)
- Entkopplung (1)
- Entwurfsmuster (1)
- Event Tracing for Windows (1)
- Fernsehen (1)
- Flexibilisierung (1)
- Forstbetriebe (1)
- Freiheitsgrade (1)
- Funk (1)
- Funktionsprüfung (1)
- Führungsentkopplung (1)
- GUI (1)
- Gleichstrom (1)
- Google Shopping (1)
- Handel (1)
- Handelsvertrag (1)
- Herz-Lungen-Maschine (1)
- Hochspannung (1)
- Hot-Spot (1)
- IPv6 (1)
- Intel (1)
- Java (1)
- Klimawandel (1)
- Kommunikationspolitik (1)
- Kompetenz (1)
- Kritische Infrastrukturen (1)
- Künstlerische Forschung (1)
- Künstliche Intelligenz (1)
- LabVIEW Programmierung (1)
- Lernvideo (1)
- Logging (1)
- MEAN-Stack (1)
- Managerhaftung (1)
- Marke (1)
- Maschinelles Lernen (1)
- Material Flow (1)
- Mechanik (1)
- Mehrgrößenregelung (1)
- Mercosur Staaten (1)
- Microsoft dot net (1)
- Mikroelektronik (1)
- Mikroservice (1)
- Mobile Apps (1)
- Modehandel (1)
- MongoDB (1)
- MySQL (1)
- New Retail (1)
- Newsletter (1)
- Odoo (1)
- Omni-Channel-Handel (1)
- Online-Handel (1)
- Online-Marketing (1)
- Open-Source (1)
- PV-Module (1)
- Polvorgabe (1)
- Product Placement (1)
- Produkte (1)
- Prognosen (1)
- Progressive Web Apps (1)
- Projektmanagement (1)
- RFID-/NFC-Ausleseschnittstelle (1)
- RabbitMQ (1)
- Regelung (1)
- Regelungstechnik (1)
- Rest (1)
- Risikoanalyse (1)
- Roboter (1)
- SEA (1)
- SEO (1)
- SGX (1)
- SOA (1)
- SPS (1)
- SPS-Programmierung (1)
- STRIDE (1)
- Schalllokalisation (1)
- Schallquellenlokalisation (1)
- Security (1)
- Sensopart Kamera: VISOR V20 Robotic Advanced (1)
- Service Worker (1)
- Showcase Ads (1)
- Social Media Marketing (1)
- Social Robot (1)
- Software Architecture (1)
- Software Guard Extension (1)
- Sofwareentwicklung (1)
- Sortiment (1)
- Sortimentskompetenz (1)
- Sozialmarketing (1)
- Soziomarketing (1)
- Sprunggelenksachse (1)
- Station Festo Pick&Place (1)
- Stationärer Handel (1)
- Suchmaschinenmarketing (1)
- Sägemaschinen (1)
- TCP/IP, Modbus-TCP (1)
- Telemetry (1)
- Testablauf (1)
- Threat Modeling (1)
- Threat-Modelling (1)
- Timing Attacks (1)
- Toolkit (1)
- Unternehmenskommunikation (1)
- Verschleißprüfung (1)
- Verteiltes System (1)
- Visual Components (1)
- Visual Social Marketing (1)
- Vitalparametern bei Kleinstlebewesen (1)
- Vue (1)
- Web Development (1)
- Webassembly (1)
- Webentwicklung (1)
- Website (1)
- Windows (1)
- Zeitschriftenverlag (1)
- Zentrale Sauerstoffversorgung (1)
- Zustandsregler (1)
- atrial septal defect (1)
- blend electrode (1)
- degrees of freedom (1)
- device closure (1)
- grenzüberschreitende Arbeitnehmerentsendung (1)
- input-output decoupling (1)
- lithium-ion battery (1)
- mechanical properties (1)
- multivariable control (1)
- natürliche Leistung (1)
- nicht-invasives Messsystem (1)
- pole placement (1)
- prädiktive Wartung (1)
- septal occluder device (1)
- universal Roboter UR5e (1)
- übertragbare Wirkleistung (1)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (43)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (17)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (9)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (6)
- Fakultät Wirtschaft (W) (5)
- CRT - Campus Research & Transfer (1)
- INES - Institut für nachhaltige Energiesysteme (1)
- Rektorat/Verwaltung (1)
Open Access
- Closed Access (51)
- Open Access (31)
- Bronze (1)
- Gold (1)
ABSCHIED VOM AUSSEN
(2019)
Analyse der Anwendbarkeit des Dynamische Fähigkeiten-Konzepts am Beispiel von Großhandelsunternehmen
(2019)
Eine Anpassung aufgrund sich schnell verändernder Geschäftsumgebungen an aktuelle Gegebenheiten ist für alle Unternehmen sowohl in der freien Wirtschaft als auch staatlichen Ursprungs relevant. Diese kann durch starke dynamische Fähigkeiten der involvierten Unternehmen erfolgen. Zur Validierung des theoretischen Konzepts der dynamischen Fähigkeiten werden Großhandelsunternehmen herangezogen und deren Unternehmensaktivitäten im Hinblick auf die erste dynamische Fähigkeit in Gesprächen ermittelt. Die Ausführungen der vier Großhändler zielen in einem ersten Teil darauf ab, die grundsätzliche Anwendbarkeit des Konzepts in der Praxis zu bestätigen. In einem zweiten Teil wird analysiert in welchem Umfang sie für die betrachtete Branche beschrieben werden kann. Es zeigt sich, dass das Dynamische Fähigkeiten-Konzept nicht ohne Einschränkungen auf die Praxis übertragen werden kann, wenngleich die Ausprägungen dem Konzept zugrundeliegender Elemente bei allen Firmen ähnlich sind. Trotz dieser Ähnlichkeit konnten keine festen Muster bzw. Interdependenzen erkannt werden, die die Integration, den Aufbau und/oder die Neukonfiguration von Fähigkeiten zuverlässig fördern. Die Resultate ermöglichen es dennoch in einem letzten Teil zu beurteilen, welche Indikatoren eine Basis zur strategischen Anpassung an den Strukturwandel schaffen. Sie sind Teil der formulierten Hypothesen zu den einzelnen Elementen der ersten dynamischen Fähigkeit. Mit der Summe der Erkenntnisse konnte in gewisser Hinsicht eine Transparenz des Konzepts erreicht werden – mit Hilfe des entwickelten Interviewleitfadens kann analog zum Vorgehen in dieser Arbeit für die zweite und dritte dynamische Fähigkeit verfahren werden, sodass in einem breiteren Kontext erneut eine Aussage über die Anwendbarkeit des Konzepts getroffen werden kann.
„Die Reform kommt – stirbt das Netz?“ So titelte die Süddeutsche Zeitung bereits Mitte April 2019 in Bezug auf die sich anbahnende Urheberrechtsreform. Kaum ein anderes Rechtsgebiet ist derzeit so präsent in der Mitte der Gesellschaft angekommen und löst derart hitzige Diskussionen aus wie die anstehende Urheberrechtsreform durch den europäischen Gesetzgeber. Dabei ist es der Urheberrechtsreform in der Tat gelungen, einen ähnlichen Stellenwert für sich zu vereinnahmen wie die Einführung der lange gefürchteten Datenschutz-Grundverordnung im Jahr 2018.
Im Fokus der Debatte steht dabei insbesondere Artikel 13, der sich mittlerweile als Artikel 17 in der aktuellen Fassung der Richtlinie wiederfindet. Seine breite Aufmerksamkeit verdankt dieser dem Umstand, dass er die Meinungsfreiheit und die freie Netzkultur in erheblichem Maße einschränken könnte. Allerdings geht die gesamte Richtlinie des europäischen Gesetzgebers deutlich über Artikel 17 hinaus, sodass sich neben der breiten Bevölkerung auch weitere Adressaten ergeben, deren Rahmenbedingungen sich ändern werden.
Intels Software Guard Extension (SGX) ist eine Technologie, die einen umfassenden Datenschutz verspricht. SGX wurde 2013 als Softwaremodell für die isolierte Ausführung von Anwendungen veröffentlicht.
Mit Intel SGX können Container in einem geschützten Speicherbereich erstellt werden. Diese Container werden Enclave genannt. Es ist nicht möglich den Speicher-
bereich der Enclave auszulesen oder in ihn zu schreiben. Die Enclave soll Integrität und Verfügbarkeit der Daten sicherstellen, auch wenn diese auf einem nicht vertrauenswürdigen Host ausgeführt werden.
In dieser Arbeit soll zunächst ein Überblick über die Funktionsweise und das Potenzial von Intel Software Guard Extension gegeben werden. Vor allem soll analysiert werden
wie Datenbanken mit Hilfe von SGX gesichert werden können und wie groß die Performance einbüßen mit SGX sind.
Aufbauend auf den Grundlagen von Intel SGX und EnclaveDB soll anschließend eine sichere Datenbank erstellt werden. Hierzu wird EnclaveDB von Microsoft analysiert und auf Basis dieser Datenbank eine neue Datenbank erschaffen, die Daten verschlüsselt in der Datenbank speichert ohne, dass diese in Klartext vom Host ausgelesen werden können. Zum Schluss wird die Performance von EnclaveDB und der erstellten Datenbank so gut es geht verglichen.
In dieser Arbeit wird die Funktionsweise, Standardisierung und Verwundbarkeit der Technologien RFID und NFC behandelt. Es wird gezeigt welche Angriffe existieren und wie man sich dagegen schützen kann. Es wird ein Überblick über einige in der Praxis verwendete Protokolle sowie deren Sicherheit gegeben. Außerdem werden grundlegende Fragen beantwortet, die man sich bei Auseinandersetzung mit dieser Technologie stellt (z.B. Reichweiten).
Audio over IP
(2019)
Der Wandel im Bereich Tontechnik geht stetig weiter. Was vor über 100 Jahren begann, entwickelt sich heutzutage rasend voran. Das Ziel immer vor Augen: Ein Audiosignal soll in bestmöglichster Qualität, möglichst mit einer geringen Datenmenge, in kürzester Zeit von A nach B transportiert und anschließend konserviert werden.
Durch die Digitalisierung werden auch hier völlig neue Anwendungsbereiche und Szenarien ermöglicht, die weit über das klassische Recording oder die Studioinfrastruktur hinausgehen. Die Rede ist zum Beispiel von Klanginstallationen oder Konferenzszenarien. Audionetzwerke bieten durch die Nutzung beliebiger Quellen und Senken in der Produktionsumgebung eine signifikant flexiblere Signalverteilung, als dies noch mit klassischen Verteilern und Steckfeldern möglich war. Übertragungen und Vernetzungen in mehreren Gebäuden sind hiermit kein Problem. Allerdings unterscheidet sich diese Technologie in Punkto Stabilität, Datenrate, Netzwerk-Layer & Qualität deutlich von seinem Pendant, dem Internetstreaming.
Die Funkschnittstelle nach dem Bluetooth Standard ist heutzutage nicht mehr aus dem Consumer-Markt wegzudenken. Auch durch die zukünftige Weiterentwicklung des Prinzips von IoT (Internet of Things) wird vor allem die Bluetooth Low Energy Technologie für Unternehmen bei der Entwicklung von Geräten mehr an Bedeutung gewinnen. Um die Studierenden im Bereich der Kommunikationstechnik auf das Thema Bluetooth vorzubereiten, wird der Versuch „Kurzstreckenkommunikation nach dem Bluetooth Standard“ im Telekommunikations-Labor an der Hochschule Offenburg angeboten. Der Versuch wurde im Rahmen dieser Bachelor-Thesis an die heutigen Anforderungen angepasst.
Die nachfolgende Bachelor-Thesis beinhaltet die gesamte Laboranleitung des Versuchs, welche in die drei Teile: Theoretische Grundlagen, vorbereitende Aufgaben und der Versuchsdurchführung aufgeteilt wird. Der Versuchsanleitung folgt ein Teil mit weiteren Anmerkungen für die akademischen Mitarbeiter, welche den Versuch betreuen. Hier wird sichergestellt, dass auch in Zukunft der Versuch problemlos weiter durchgeführt werden kann. Im Anhang befinden sich die Musterlösungen für die vorbereitentenden Aufgaben und der Versuchsdurchführung.
Aufbau/Ansteuerung/Kalibrierung/Pilotierung eines Lautsprecher-Halbkreises für Lokalisationstests
(2019)
Seit September 2018 ist die Hochschule Offenburg im Besitz einer Hörkabine, in der ein Schallquellenlokalisationstest im Rahmen dieser Bachelorarbeit aufgebaut wurde. Eine Schallquellenlokalisation ist im Alltag für Normalhörende in den meisten Fällen keine Schwierigkeit. Wir Menschen sind in der Lage mit einer Genauigkeit von 1° bis 2° eine Schallquelle zu lokalisieren (Feigenspan 2017,S.624). Entfällt jedoch das Hörvermögen auf einer Seite, so verschlechtert sich die Lokalisationsfähigkeit erheb-lich. Um Schallquellen präzise lokalisieren zu können, werden optimaler Weise beide Ohren benötigt. Heutzutage gibt es viele Hörsysteme, um diverse Hörstörungen zu therapieren. Den-noch bleibt die Lokalisationsfähigkeit für Menschen mit einseitiger Taubheit, bezie hungsweise asymmetrischen Hörverlust eine Herausforderung. Ein Schallquellenlo kalisationstest findet Anwendung in der Klinik, um eine bestmögliche Versor gung/Therapie durch Hörsysteme zu gewährleisten. Ziel dieser Bachelorarbeit war der Aufbau eines Lokalisationstestes nach Leitlinien einer wissenschaftlichen Publikation, sowie die Durchführung an fünf freiwilligen Normalhörenden. Die Realisierung umfasste den Aufbau der Lautsprecher, die An-steuerung mithilfe einer externen Soundkarte und MATLAB, eine Kalibrierung der Lautsprecher und die Durchführung der Tests.
Auswahl von elektrischen Antriebskomponenten zur Elektrifizierung des Antriebes eines „Tuk-Tuks“
(2019)
Die vorliegende Abschlussarbeit handelt von einem Tuk-Tuk. Im Ausgangszustand ist dieses mit einem 1-Zylinder Ottomotor versehen.
Im Rahmen eines Hochschulprojektes wird dieser Motor durch einen Elektromotor ersetzt. Ziel dieser Thesis ist es, einen passenden Motor zu finden. Dabei soll eine Auslegung erarbeitet werden, die es ermöglicht, sämtliche Widerstandskräfte zu berechnen und daraus auf die notwendigen Antriebsleistungen bzw. Drehmomente zu schließen. Im Anschluss daran kann eine Aussage getroffen werden, ob der Elektromotor die gewünschten Anforderungen erfüllt.
Mit Hilfe eines Präzisionsmessplatzes soll es ermöglicht werden, automatisierte Tests mit optischen Distanzsensoren der Firma SICK durchzuführen. Hierbei handelt es sich um applikationsbezogene Vergleichsmessungen. Für die Realisierung einer erweiterbaren, automatischen Ansteuerung wird mit LabVIEW eine Software entwickelt, die unterschiedliche Distanzsensoren für Displacement Anwendungen (kurze Reichweite) einbindet. Zur Bewertung von Sensoren werden unterschiedliche Messmodi bereitgestellt. Hierbei werden motorisierte Linearachsen angesteuert, wodurch dynamische 2D-, bzw. 3D Messungen von unterschiedlichen Materialproben ermöglicht werden. Außerdem können Messergebnisse verschiedener Materialproben visuell verglichen werden. Des Weiteren besteht die Möglichkeit, aufgenommene Messdaten zu exportieren.
Mit der realisierten Ansteuerungssoftware ist es möglich, in Zukunft Mitarbeiter der global agierenden Sales & Service Units ressourcenschonend und in einem anwendungsbezogenen Kontext in die Benutzung und Bewertung von Dis-placementsensoren einzuarbeiten. Für diese Maßnahme der betrieblichen Weiterbildung ist eine Lerneinheit konzipiert. Hier geht es hauptsächlich darum, dass Mitarbeiter die Eigenschaften und Konfigurationsmöglichkeiten von Displacementsensoren verstehen und für unterschiedliche Testobjekte anwenden. Für die Lerneinheit sind Unterrichtsmaterialien erstellt sowie ein vollständiger Unterrichtsentwurf erarbeitet. Der Unterrichtsentwurf orientiert sich an dem Perspektivenschema nach Klafki (vgl. 1994, S. 270ff.).
Diese Bachelorarbeit befasst sich mit der Integration von Storytelling in der Unternehmenskommunikation mittelständischer Unternehmen und analysiert, welche Bedeutung dem Einsatz von Storytelling zur Lead-Generierung, zugesprochen werden kann. Dabei wird die Wirkungsweise von Storytelling näher betrachtet und mit dem unternehmerischen Nutzen in Verbindung gebracht.
Die Arbeit bietet einen Überblick über die Kommunikationsabläufe eines Unternehmens und nimmt den Leadgenerierungsprozess unter die Lupe. Unter Berücksichtigung der besonderen Rahmenbedingungen, die sich für mittelständische Unternehmen ergeben, werden Berührungspunkte und Zusammenhänge erarbeitet, die eine Integration von Storytelling in den Leadgenerierungsprozess ermöglichen. Die Betrachtung der Rolle von Storytelling, sowohl auf der operativen als auch auf der strategischen Ebene, verdeutlicht dabei die unterschiedlichen Integrationsstufen, die sich für den Storytelling-Einsatz ergeben können. Ein abschließender Ausblick, bei dem die Herausforderungen des Mittelstandes erörtert werden, soll auf die Bedeutung des Storytellings in der nahen Zukunft eingegangen werden.
Vorgestellt wird ein Konzept zur biologischen Methanisierung von Wasserstoff direkt in Biogasreaktoren, mit dem durch Membranbegasung der Methangehalt des Biogases auf > 96 % erhöht werden kann. Essentiell zum Erreichen solch hoher Methanwerte sind die Einhaltung eines optimalen pH-Bereichs und die Vermeidung von H2-Akkumulation. Im Falle einer Limitierung der Methanbildungsrate durch den eigentlichen anaeroben Abbauprozess der Biomasse ist auch eine externe Zufuhr von CO2 zur weiteren Methanbildung denkbar. Das Verfahren soll weiter optimiert und in einem von der Deutschen Bundesstiftung Umwelt geförderten Projekt in der Biogasanlage einer regionalen Käserei in der Praxis getestet werden. Die hier angestrebte Kombination aus dezentraler Abfallverwertung und Eigenenergieerzeugung eines lebensmittelverarbeitenden Betriebs unter Einbindung in ein intelligentes Erneuerbare Energien - Konzept soll einen zusätzlichen Mehrwert liefern.
Campus 2019
(2019)
Occluders made of the shape memory alloy Nitinol are commonly used to close Atrial Septal Defects (ASD). Until now, standard parameters are missing defining the mechanical properties of these implants. In this study,we developed a special measuring setup for the determination of the mechanical properties of customly available occluders (i.e. Occlutech Figulla®Flex II 29ASD12 and AGA AMPLATZER™9-ASD-012
The development of secure software systems is of ever-increasing importance. While software companies often invest large amounts of resources into the upkeeping and general security properties of large-scale applications when in production, they appear to neglect utilizing threat modeling in the earlier stages of the software development lifecycle. When applied during the design phase of development, and continuously during development iterations, threat modeling can help in following a “Security by Design” approach. This approach allows issues relating to IT security to be found early during development, reducing the need for later improvement – and thus saving resources in the long term. In this thesis the current state of threat modeling is investigated. Based on this analysis, requirements for a new tool are derived. These requirements are then used to develop a new tool, called OVVL, which utilizes all main components of current threat modeling methodologies, as well as functionality not available in existing solutions. After documenting the development process and OVVL in general, this newly developed tool is used to conduct two case studies in the field of e-commerce and IoT.
Unternehmen erzielen durch den Einsatz von Big Data-Analyse bereits heute eine Umsatzsteigerung, bei gleichzeitiger Kostensenkung. Trotzdem setzen lediglich 36% der mittelständischen Unternehmen in Deutschland auf Big-Data Initiativen. Diese Unternehmen sind sich nicht bewusst, welchen Datenschatz sie bereits besitzen, allerdings nicht gewinnbringend nutzen.
Ziel der Arbeit ist es, die Herausforderungen mit denen Unternehmen in der digitalen Transformation konfrontiert werden, sowie die Chancen, die sich durch den Einsatz von Datenanalyse ergeben, herauszuarbeiten.
Die Arbeit stellt einen Leitfaden für kleine und mittelständische Unternehmen dar, die erste Erfahrungen mit Big Data-Analytics machen möchten.
Die vorliegende Arbeit befasst sich mit der Fragestellung, inwiefern sich der Einsatz und die Produktion von Lernvideos an baden-württembergischen Berufsschulen aus der Per-spektive von Lehrpersonen auf Lehr- und Lernprozesse auswirken. Auf den ersten Blick ein sehr fokussierter Blick auf ein Randthema, auf eine von vielen didaktischen Möglich-keiten des Unterrichtens. Lernvideos – also irgendeine Methode, die sich aus den tech-nischen Möglichkeiten der digitalen Medien ergeben und eine zeitgemäße Weiterent-wicklung von Overhead-Projektor und Lehrbuch bedeuten. Dies wäre ein sehr verkürzter Blick, ja ein falscher auf dieses Thema. Nicht die technische Umsetzung, nicht die Er-gänzung des didaktischen Methodenpools steht im Vordergrund. Es geht um eine ganz grundsätzliche Sicht auf das Lehren und Lernen an Schulen, um die Kompetenzen, die bei den Schülern als output angestrebt werden, um die Anforderungen und Erwartun-gen welche die Gesellschaft – und vor allem die Arbeitswelt - zukünftig an die heran-wachsenden Generationen stellt.
DigitalPakt Schule der Bundesregierung , Industrie 4.0 , Berufsbildung 4.0 sind neue und umfassende Programme, um einen weiteren großen Schritt bei der so genannten digitalen Revolution zu gehen. Digitale Kompetenz, so formuliert das zuständige Minis-terium für Bildung und Forschung zur Begründung des DigitalPakts Schule, ist
„[…] von entscheidender Bedeutung für jeden und jede Einzelne, um digitale Medien selbst-bestimmt und verantwortungsvoll nutzen zu können und um gute Chancen auf dem Ar-beitsmarkt zu haben; und für die Gesellschaft, um Demokratie und Wohlstand im 21. Jahr-hundert zu erhalten.“
Auch innerhalb des Schulsystems wird seit langem geforscht und werden Handlungsempfehlungen herausgearbeitet, wie das System Schule auf die Digitalisierung aller Lebensbereiche reagieren muss. Später wird darauf noch näher eingegangen. Beispielhaft eine Aussage einer vom zuständigen Ministerium in Auftrag gegebenen Studie die festhält: Statt Wissensanhäufung und ‚Lernen auf Vorrat‘ sind andere Kompetenzen gefragt: In praxisbezogenen Problemstellungen soll Wissen angewendet werden. Dazu muss neues Wissen selbständig erarbeitet, neue Informationen recherchiert werden. Lernen und Arbeiten wachsen daher immer stärker zusammen.
Es geht also bei aller Integration der so genannten ‚Neuen Medien‘ in den Unterrichts-alltag an Schulen immer um die Prozess- und Ergebnisqualität des Lernprozesses.
Diese Vorgehensweise bietet auch ein Korrektiv in diesem Tempo der Veränderung, damit nicht jegliche Form der Digitalisierung per se als fortschrittlich und gut bewertet wird, sondern auf den qualitativen Prüfstand gestellt wird. Nicht die technische Mach-barkeit bestimmt den Fortschritt, sondern die Gütekriterien für eine gute Didaktik.
Ein weiterer Aspekt dieses Themenbereichs ist, dass bei der didaktischen Nut-zung von Lernvideos die Schule nicht Vorreiter oder gar Erfinder war. Die JIM-Studie aus dem Jahr 2016 zeigt, dass 87% der Jugendlichen und jungen Erwachsenen durchschnitt-lich 200 Minuten pro Tag im Internet surfen um sich zu informieren sowie zur Unterhal-tung. Weiter sehen sich 81% der Befragten mehrmals wöchentlich Videos im Internet an. Dabei steht die Nutzung des Online Portals YouTube an erster Stelle. Das Medium Film ist zusammenhängend als Leitmedium junger Erwachsener anzusehen und bedarf dementsprechend besonderer Aufmerksamkeit. Um nicht einer naiven Fortschrittsgläu-bigkeit zu verfallen soll daher der Einsatz von Lernvideos an baden-württembergischen Berufsschulen anhand einer qualitativen Forschung untersucht werden. Auch aufgrund der noch geringen Verbreitung dieser Lehr- und Lernform würde bei einer quantitativen Vorgehensweise kein ausreichendes Datenmaterial zur Verfügung stehen. Die vorlie-gende Arbeit fokussiert die Einbeziehung vorgefertigter Lernvideos in den Unterricht wie auch die eigene Herstellung und die damit verbundenen Lernprozesse. Da Lernvi-deos – zumindest von Ihrer Definition - eine sehr umfassende Möglichkeit selbstgesteu-erten Lernens beinhalten sollen, wird der Frage nachgegangen, ob Lernvideos auch im Rahmen von ‚Flipped Classroom‘ Anwendung finden können.
Aufgrund bisheriger Erfahrungen und theoretischen Auseinandersetzungen des Autors mit den Themen Film und digitale Medien wird der Arbeit folgende Hypothese vorweg-gestellt:
Der Einsatz und die Herstellung von Lernvideos im Unterricht an Berufsschu-len steigert die Prozess- wie auch die Ergebnisqualität des Unterrichts.
Die Auswertung wird zeigen, ob diese Lehr- und Lernmethode ein Baustein ist, die di-daktische Qualität des Unterrichts an die Anforderungen der digitalen Revolution anzu-passen.
Konkret soll die medienpädagogische Untersuchung auf Grundlage von 3 Forschungs-fragen durchgeführt werden.
1. Wie beeinflusst der Einsatz und die Herstellung von Lernvideos im Unterricht an beruflichen Schulen die Lehrer/Schüler Interaktion und wie verändert sich die Rolle der Lehrperson?
2. Wie wirken sich der Einsatz und die Herstellung von Lernvideos auf die Qualität des Unterrichts aus und lässt sich ein höherer Lernerfolg bei den Schülerinnen und Schülern feststellen?
3. Welche Rahmenbedingungen müssen an den Berufsschulen vorhanden sein, um diese Lehr- und Lernmethode gut integrieren zu können.
Aufbau und Ablauf dieser medienpädagogischen Untersuchung gliedert sich wie folgt: In Kapitel 2 findet eine Auseinandersetzung mit den mannigfaltigen Begrifflichkeiten statt, die in der Diskussion verwendet werden. Digitale Kompetenz, Medienkompetenz, Medi-enbildung, Medienpädagogik, sind Begriffe, die teilweise synonym verwendet werden, dadurch aber nicht zu Klarheit und Präzision führen. Oftmals entstehen aufgrund dieses Problems Verwirrungen, die für den Bereich beruflicher Praxis wenig hilfreich sind.
In Ableitung daraus soll das Thema in der bildungspolitischen Diskussion veror-tet werden, aber auch untersucht, inwieweit Gütekriterien für guten Unterricht in die Arbeit mit digitalen Medien integriert werden können. Im 3. Kapitel wird genauer auf die theoretischen Erkenntnisse und Forderungen der Lerntheorie eingegangen, mit Hilfe der Aspekte konstruktivistisches, kooperatives und selbstgesteuertes Lernen. Daraus folgernd, wie dieses Verständnis über Lernprozesse bei der Arbeit mit Lernvideos im Unterricht didaktisch umgesetzt werden kann. Im 4. Kapitel wird, ausgehend von einer kurzen theoretischen Begründung der qualitativen Sozialforschung, das Forschungsdes-ign beschrieben und ein Leitfaden für die Experteninterviews entwickeln. Nach Auswer-tung der transkribierten Gespräche werden die gewonnen Erkenntnisse auf die For-schungsfragen und die Erkenntnisse des Theorieteils bezogen.
Wünschenswert wäre, wenn diese Arbeit einen kleinen Baustein in die Diskussion eingebringen kann, wie die Formen heutiger Wissens- und Informationsverarbeitung sowie die prognostizierten Anforderungen der Arbeitswelt, in die Didaktik schulischen Lernens eingehen können.
Die zunehmende Digitalisierung macht den Einsatz von E-Mail-Marketing in Unternehmen fast unumgänglich. Um einen effektiven Kundenkontakt zu gewährleisten müssen Unternehmen auf den Versand von Newslettern setzen, die in regelmäßigen Abständen an den Kundenstamm herausgeschickt werden. Ein Newsletter beinhaltet Informationen, die von Relevanz für die Kundschaft ist. Die Thematik kann ein Überblick über Geschehnisse des Unternehmens sein, aber auch Events und Rabattaktionen sind möglich. In der heutigen Zeit stehen eine Vielzahl an Tools zur Verfügung, um mit Hilfe von Newslettern den Kontakt zum Kunden und zur Kundin zu pflegen. Die Generierung von E-Mail-Adressen, sowie die Kampagnenerstellung sind solche Teilgebiete. Ebenso das Tracking und der automatisierte Versand der E-Mails. Längst nicht alle Unternehmen nutzen die Vorteile des Kommunikationskanals und von denjenigen, die den Kanal nutzen, ist fast jeder Zweite nicht zufrieden mit seiner E-Mail-Marketing Strategie.1 Außerdem gibt es eine Menge Richtlinien, die es zu beachten gilt, wenn das E-Mail-Marketing genutzt wird, ansonsten kann es zu Abmahnungen kommen.
Die vorliegende Bachelorthesis stellt ein Leitfaden für die Umsetzung von Newslettern im B2C-Bereich dar. Dabei bietet die Arbeit einen Rundumblick in das Thema, sodass Unternehmen dadurch in der Lage sind einen Newsletter aufzubauen und somit den Kontakt zu ihren Abonnenten und Abonnentinnen erfolgreich zu halten. Unterthemen, die in dieser Thesis beleuchtet werden, sind zum einen die Planung und Zielsetzung eines Newsletters, anschließend die erfolgreiche Generierung von E-Mail-Adressen. Zum anderen auch die technischen und rechtlichen Anforderungen an die Newsletter. Außerdem werden die Gestaltungselemente und das Controlling behandelt. Größtenteils werden die Fragen innerhalb dieser Thesis mit Hilfe von relevanter Fachliteratur beantwortet. Zusätzlich werden die Ergebnisse durch eine Umfrage, sowie eine Eye-Tracking Untersuchung unterstützt.
Emotionen sind im heutigen Konsumgütermarketing weit verbreitet. Egal, ob es EDEKA mit seinem „Wir lieben Lebensmittel“-Slogan und emotionalen Werbeclips, die den Rezipienten rühren sollen, Coca-Cola mit der suggeriert puren Lebensfreude oder Mercedes-Benz mit einem einzigartigen Fahrgefühl ist – Emotionen lassen sich überall ausmachen.
Doch wie sieht es damit im B2B-Marketing aus?
Wo oftmals noch die Überzeugung herrscht, dass Fakten und Zahlen die wichtigsten Faktoren für Beschaffungen sind. Dieser Eindruck scheint sich zu bestätigen, wirft man einen Blick auf den durchschnittlichen Messestand von Industrieanbietern auf der EMO, BAUMA oder Hannover Messe. Dort wird - im Vergleich zu Konsumgütermessen - schnell bewusst, dass viele Unternehmen das Potenzial emotionaler Werbung noch nicht oder nicht konsequent ausschöpfen. Dies erweist sich insofern als problematisch, weil durch eine allgemein steigende Produkthomogenität die Austauschbarkeit einzelner Marken sowie Produkte und mit ihr logischerweise auch der Wettbewerbsdruck bzw. Preisdruck auf die Anbieter wächst, da viele Anbieter vermeintlich das gleiche Produkte anbieten.
Daher wird im Rahmen dieser Arbeit aufgezeigt, wie Marken und Produkte auch im B2B-Bereich emotional inszeniert werden können, um - im Sinne einer Differenzierung vom Wettbewerb - einen positiven Einfluss auf Kaufentscheidungen potenzieller Nachfrager nehmen zu können. Dazu wird herausgearbeitet, mit welchen konkreten Marketinginstrumenten und Emotionen unter Beachtung der Besonderheiten des B2B-Marketings sowie der Markenführung im Industriegütermarketing gearbeitet werden kann.
Die vorliegende Master-Thesis befasst sich mit dem Thema Handel. In der Arbeit wird der Bereich des Multi-Channel-Handels genauer durchleuchtet. Es wird aufgezeigt, wie der Zukunft des Handels weltweit und in Deutschland aussehen wird.
Der Handel wird besonders heute sehr vom Konsumierendenverhalten beeinflusst. Unternehmen passen sich mehr als je zuvor an Wünsche und Anforderungen der Zielgruppe an. Dies ist wichtig für Handelsunternehmen um wettbewerbsfähig und profitabel zu bleiben, vor allem in einem immer aggressiver werdenden Wettbewerbskampf um Konsumierende. In dieser Arbeit wird dargestellt, wie sich die Customer Journey und der Kaufprozess der Konsumierenden verändert hat und flexibler geworden ist. Es gibt nicht mehr nur einen Weg, wie potentielle Verkaufsinteressierende zu Kundschaft wird. Die Kundschaft lässt sich nicht mehr von Unternehmen leiten, sondern möchte eigenständig und selbstbestimmt zwischen verschiedenen Absatzkanälen und Endgeräten wechseln. Daher ist ein verknüpftes Multi-Channel-System für Handelsunternehmen wichtig. In dieser Arbeit soll zudem gezeigt werden, dass die Omni-Channel-Strategie die Strategie der Zukunft ist und wie der Begriff des New Retail sowohl den Online-Handel, als auch den stationären Handel prägen wird.
Online-Handelsunternehmen wie Amazon, Alibaba und Bonprix haben bereits verstanden, dass der stationäre Handel nicht „ausstirbt“, sondern durch eine intelligente Verknüpfung mit dem Online-Handel sehr zukunftsweisend gemacht werden kann. Daher wird in dieser Arbeit auch gezeigt, wie sich pure E-Commerce-Unternehmen in den Innenstädten und Einkaufszentren in den USA, China und Deutschland ausbreiten und damit eine Omni-Channel-Strategie schaffen.
Eine funktionelle Beschreibung des tibialis anterior in Abhängigkeit der unteren Sprunggelenksachse
(2019)
Das Ziel in dieser Bachelorarbeit war es, die Achse des unteren Sprunggelenks mit zwei Methoden zu ermitteln und mit Angaben der Literatur zu vergleichen. Des Weiteren sollte der Musculus tibialis anterior stimuliert und die Ergebnisse in Abhängigkeit der Methoden gestellt werden.
Zur Ermittlung der Achse wurde, aus Gründen der Ökonomie, eine modifizierte Methode nach Kirby und eine Methode mit Sensoren angewandt, bei Letzteren handelt es sich um sogenannte IMUs. Bei der modifizierten Kirby-Methode wurde gegen eine Plexiglasplatte gedrückt, die an der Fußsohle angebracht war, um Punkte zu finden, an denen der Fuß nicht rotiert. Anschließend wurden diese Punkte digitalisiert und ausgewertet. Bei der IMU-Methode wurden zwei IMUs an der Plexiglasplatte und der Tibia-Kante angebracht. Beim Bewegen des Fußes, in maximaler Dorsalflexion, in Richtung Pro- und Supination wurden die Daten der Sensoren aufgezeichnet und anschließend ausgewertet. Dabei stieg die Stimulationsstärke bis zum Erreichen von neunzig Prozent des max. Dorsalflexionswinkels, der zuvor willkürlich erreicht wurde. Die Stimulationen wurden aufgezeichnet und in Pronation und Dorsalflexion kategorisiert.
Es wurden 44 Sprunggelenke mit der modifizierten Kirby-Methode und 18 Sprunggelenke mit der IMU-Methode gemessen und stimuliert. Wie auch in der Literatur bestätigt wird, konnte mit keiner der beiden Methoden ein Zusammenhang zwischen rechter und linker Achse gemessen werden. Es zeigte sich bei der modifizierten Kirby-Methode keine Abhängigkeit zur Stimulation. Jedoch konnte mit der IMU-Methode eine untere Sprunggelenksachse ermittelt werden, unter der es bei der Stimulation zur Supination kam bzw. über der eine Pronation auftrat. Der Bland-Altman-Plot hat gezeigt, dass die modifizierte Kirby-Methode im Vergleich zur IMU-Methode unterbestimmt und es mit steigender Achse zu höheren Differenzen der beiden Methoden kommt. Die Stimulation des Musculus tibialis anterior hat gezeigt, dass bei den Probanden sowohl Pronation als auch reine Dorsalflexion festgestellt wurde.
Die Ergebnisse der Modifizierten Kirby-Methode sind aus vielerlei Hinsicht nicht plausibel und stimmen nicht mit den gemessenen Achsen in der Literatur überein. Die Ergebnisse der IMU-Methode haben in Abhängigkeit zur Stimulation gezeigt, dass eine Ausrichtung der USG-Achse einen Einfluss auf die Bewegung des Musculus tibialis anterior hat. Dieser Sachverhalt und auch die unterschiedlichen Funktionen des Musculus tibialis anterior wurden in der Literatur bisher nicht beschrieben.
Die Bachelorarbeit soll sich im Kern mit Möglichkeiten beschäftigen, wie der Faktor Mensch für die Bedrohung durch Social Engineering reduziert werden kann. Um diese Thematik aufzugreifen und zielführend zu bearbeiten, müssen zunächst einige Grundlagen geklärt werden. Deshalb wird im ersten Teil der Arbeit der Begriff Social Engineering definiert und es werden Unterschiede und Abstufungen erklärt. Weiterführend wird das Vorgehen bei Social Engineering Angriffen bzw. Penetrantionstests und Red Teaming Aufträgen in diesem Bereich erläutert. Dies findet in Zusammenarbeit mit der Firma cirosec statt. Hier findet auch direkt ein Vergleich mit dem Vorgehen „nach Lehrbuch“ vom wohl bekanntesten Social Engineer Kevin Mitnick statt und die bekanntesten Angriffs-Möglichkeiten werden genannt und beschrieben. Abschließend soll eine Abgrenzung zwischen gezielten und gestreuten Angriffen getroffen werden, da diese beiden Szenarien essenzielle Unterschiede in der Effektivität von Gegenmaßnahmen aufweisen.
Im folgenden Teil werden ehemalige Projekte der Firma cirosec GmbH nach einer Anonymisierung, mit dem Ziel analysiert, neben dem Vorgehen auch die Angriffsvektoren, das menschliche Fehlverhalten und, vor allem, die technischen Probleme in den vorliegenden Beispielen zu finden. Anschließend wird aufgezeigt, warum groß angelegte Awareness-Kampagnen eventuell auch zu Problemen für ein Unternehmen führen können.
Ein großer Teil der Arbeiten über das Thema Social Engineering stellen den Menschen als Risikofaktor in das Zentrum der Aufmerksamkeit. In dieser Thesis soll aber genau das nicht passieren. Betrüger gibt es seit es Menschen gibt, denn die Naivität und Gutgläubigkeit von
selbigen wurde schon immer ausgenutzt.
Doch anstatt diese Charaktereigenschaften, die sich über Jahrhunderte im Zusammenleben etabliert haben und auch dafür notwendig sind, mit Awareness Kampagnen oder Schulungen zu unterbinden, soll hier ein anderer Ansatz verfolgt werden. Das Augenmerk soll mehr auf technische Probleme gelegt werden. Eine IT Landschaft muss in der Zukunft nicht so gebaut sein, dass Menschen Schulungen brauchen, um sicher damit umzugehen.
Stattdessen soll eine Optimierung dahingehend passieren, dass der Mensch überhaupt keine schwerwiegenden und sicherheitskritischen Fehler begehen kann.
Es wird sich die Frage gestellt, wo man als Gegenmaßnahme ansetzen muss und dazu werden die vorher analysierten Projektbeispiele erneut aufgegriffen.
Auf Basis dieser Informationen, und den genannten Social Engineering Angriffsarten, werden Maßnahmen, die größtenteils technischer Natur sind, vorgestellt, erklärt und es wird beschrieben, gegen welche Arten von Angriffen sie effektiv helfen könnten. Dies soll im Idealfall, in einer sinnvollen Kombination, eine vernünftige Verteidigung gegen Social Engineering-Angriffe bieten.
Schlussendlich soll sich in einer perfekten IT-Landschaft jeder Mitarbeiter, ob mit fundiertem oder verschwindend geringem Sicherheitsverständnis, problemlos bewegen können und nicht vor jedem Klick oder dem offen halten einer Tür hinterfragen müssen, ob er damit das gesamte Unternehmen gefährden könnte.
Energie aus erneuerbaren Ressourcen ist nicht immer beliebig verfügbar. Je nach Jahreszeit und Witterung variiert beispielsweise die durch Solarparks oder Windkraftanlagen zur Verfügung gestellte Leistung. Durch den kontinuierlichen Ausbau der erneuerbaren Energien wird sich die Volatilität im Energiesystem in Zukunft immer stärker ausprägen. Die Industrie auf die sich ändernden Versorgungsstrukturen vorzubereiten und anzupassen ist eine große Herausforderung der nächsten Jahrzehnte. Unternehmen müssen zukünftig ihre Prozesse und Betriebsorganisation so gestalten können, dass sich der Energieverbrauch zumindest in Teilen flexibel an das volatile Energieangebot anpassen kann. Neben der Entwicklung von Technologien, Konzepten und Maßnahmen zur energetischen Flexibilisierung von industriellen Prozessen liegt ein zweiter Schwerpunkt zukünftiger Arbeiten auf der Entwicklung einer durchgängigen IT-Infrastruktur, mit der Unternehmen und Energieanbieter in Zukunft Informationen von der Produktionsmaschine bis zu den Energiemärkten bereitstellen und austauschen können. Dies führt zu einem Paradigmenwechsel im Betrieb industrieller Prozesse - weg vom kontinuierlichen und rein nachfragegetriebenen Energieverbrauch hin zum anpassbaren, energieflexiblen Betrieb industrieller Anlagen. Dieses Nachschlagewerk stellt die wichtigsten Ergebnisse der Forschung im Rahmen des Kopernikus-Projekts Synergie vor und verdeutlicht richtungsweisende Erkenntnisse für weitere Entwicklungen in dem noch jungen Feld der industriellen Energieflexibilität.
Microservice- und andere service-basierte Architekturen wurden im Laufe der Jahre immer beliebter und große Unternehmen steigen zunehmend auf solche Architekturen um. Einige Unternehmen scheitern aber an der Entwicklung und Umsetzung dieser Architekturen, da zu wenig Zeit investiert wird.
Das Ziel dieser Thesis ist es, ein Konzept zur Umsetzung einer Microservice Architektur für ein Ticketsystem mit .Net Core zu entwickeln. Dabei liegt der Fokus auf der Konzeption der Architektur des Ticketsystems anhand der im Unternehmen herrschenden Rahmenbedingungen. Damit soll gezeigt werden, wie eine solche Architektur umgesetzt werden kann und welche Kompromisse gegebenenfalls eingegangen werden müssen.
Um herauszufinden welche Architektur geeignet ist, wurde zunächst eine Analyse der Microservice Architektur und der service-orientierten Architektur (SOA) durchgeführt und die Ergebnisse gegenübergestellt. Dabei stellte sich schnell heraus, dass im Fall des Unternehmens eine Microservice Architektur besser geeignet ist, aber gewisse Eigenschaften nicht so umgesetzt werden konnten, wie sie im Idealfall umgesetzt werden sollten. Durch einige Anpassungen konnte ein Konzept für eine Microservice Architektur entwickelt werden, welches über einen Prototyp auf Umsetzbarkeit geprüft wurde.
Auf dieser Grundlage ist es empfehlenswert, vor der Umsetzung einer neuen Architektur,ein Konzept zu erstellen und verschiedene Optionen abzuwägen. Eine Microservice Architektur ist dabei für web-basierte Anwendungen geeignet, bei denen die einzelnen Services klein gehalten werden können. Außerdem ist die Verwendung einer Microservice Architektur in Kombination mit Montainertechnologien empfehlenswert, um die einzelnen Services besser voneinander zu trennen.
In dieser Thesis wird die Entwicklung einer Progressive Web App, die zur Auflistung von Stellenanzeigen der Valiton GmbH dienen soll, aufgezeigt. Dabei soll ermittelt werden, ob eine Progressive Web App einer Nativen App nahekommt und ob sich der damit verbundene Aufwand lohnt. Umgesetzt wurde die Anwendung mit Hilfe des JavaScript Frameworks Vue.js. Bei der Umsetzung lag der Fokus auf der Offlinefähigkeit, die Push- Benachrichtigungen und das Responsive Design. Diese konnten mit dem UI Framework Vuetify und dem Service Worker implementiert werden. Die Anwendung läuft in allen Browsern, doch sie kommt am besten durch die vollständige Unterstützung des Chrome Browser zur Geltung. Progressive Web Apps werden Nativen Apps immer ähnlicher, jedoch sind sie kein kompletter Ersatz. Ob sich die Umsetzung lohnt, kommt auf den Anwendungsfall an. Die Technologien und Unterstützung verschiedener Browser werden immer besser, womit gesagt werden kann, dass Progressive Web Apps gute Chancen in der Zukunft haben.
Die vorliegende Bachelorarbeit beschreibt die Erstellung einer Anwendung, die es ermöglicht, einen Roboterarm mithilfe eines haptischen Geräts zu steuern. Zudem wird die Kraftrückkopplung des haptischen Geräts, abhängig von der wirkenden Kraft des Roboterarms, implementiert.
Zur Realisierung dieser Anforderungen wurden zwei Programme erstellt; diese beiden Programme sind über eine TCP Verbindung miteinander verbunden. Programm 1 stellt die haptische Umgebung bereit, Programm 2 die Robot Operating System Node, mit welcher die Daten zum Roboter gesendet und Daten vom Roboter empfangen werden können.
Die in dieser Arbeit erstellten Programme wurden mithilfe von Test Nodes überprüft und leiten die Position der haptischen Umgebung weiter. Die Kraftrückkopplung des haptischen Geräts ist ebenfalls vorhanden und integriert.
Ein Testlauf mithilfe eines simulierten Roboterarms konnte erfolgreich durchgeführt werden.
Zum aktuellen Zeitpunkt sind alle Sensoren einer Herz-Lungen-Maschine des Unternehmens Getinge kabelgebunden. Dadurch besteht das Risiko, dass sich während einer OP Keime auf den Kabeln sammeln, die Kabel steigern den Zeitaufwand beim Reinigen und Konnektieren und lassen das Gesamtsystem unübersichtlich wirken.
Das Ziel dieser Arbeit ist es, ein Konzept zu entwickeln, wie die Datenübertragung von einem Sensor zu einer Herz-Lungen-Maschine drahtlos erfolgen kann. Dazu wurden elf gewichtete Anforderungen an einen Funkstandard für eine drahtlose Datenübertragung definiert. Bezüglich dieser Anforderungen wurden 15 Funkstandards anhand einer Literaturrecherche analysiert. Es stellte sich heraus, dass sich ZigBee, IEEE 802.15.6, Z-Wave und EnOcean für diese Anwendung eignen, wobei ZigBee im Vergleich zu den anderen Funkstandards als am besten geeignet bewertet wurde.
Um die Eigenschaften von ZigBee bezüglich der definierten Anforderungen zu verifizieren, wurde ein ZigBee-Prototyp implementiert und getestet. Für die Bereitstellung der Mess-Funktionalität für die Tests wurde ein Programm in C++ geschrieben. Mit Hilfe dieser Tests konnte die Erfüllung der Anforderungen von ZigBee bestätigt werden.
Auf dieser Grundlage ist es möglich, die drahtlose Datenübertragung zwischen Sensor und Herz-Lungen-Maschine auf Basis des ZigBee-Funkstandards zu entwickeln. Ausblickend ist es für die Entwicklung von drahtlosen Sensoren einer Herz-Lungen-Maschine ratsam, die Akzeptanz der Anwender zu erfragen und die regulatorischen Anforderungen für Funk bei Medizinprodukten zu erläutern.
Künstliche Intelligenz (KI) und maschinelles Lernen (ML) sind zwei der großen Schlüsseltechnologien zur Automatisierung intelligenten Verhaltens mit einer großen Anzahl von Anwendungsbereichen. Neben dem Einsatz von Servicerobotern, autonomen Fahrzeugen und intelligenten Suchmaschinen erschließen sich nach und nach weitere Einsatzfelder dieser jungen Wissenschaft. Diese Arbeit verfolgt das Ziel, zu prüfen, ob ein beispielhaftes Problem aus der IT-Security für die Bearbeitung durch maschinelle Lernverfahren geeignet ist, ein entsprechendes Open-Source Toolkit, das JMLT (Java Machine Learning Toolkit) zu dessen Bearbeitung zu entwickeln und mit diesem das Problem zu bearbeiten und die erhaltenen Ergebnisse auszuwerten, um letztendlich die Beantwortung der Eingangsfrage zu verifizieren.
Mit dieser Arbeit entsteht ein frei zugängliches, umfangreiches Open-Source Toolkit, dass jedem Interessierten zur freien Verfügung gestellt wird. Dieses bietet eine ganze Palette an Möglichkeiten, Daten zu verarbeiten, zu modifizieren, mit verschiedenen Methoden des maschinellen Lernens zu bearbeiten und die Ergebnisse grafisch anzuzeigen. Die Mächtigkeit dieses Toolkits wird sich im Laufe dieser Arbeit ergeben. Zur Verwendung sind grundlegende Java-Kenntnisse notwendig.
Das Lokalisationssystem besteht aus einem Anwender-PC mit Bluetooth-Adapter, einem Lautsprecherkreis sowie einem Tablet. Eine Funktion im Programm Matlab auf dem Anwender-PC dient zur Eingabe der Steuerparameter, welche in einer Textdatei an eine Schnittstelle, die ebenfalls auf dem Anwender-PC installiert ist, übergeben und via Bluetooth an eine native App auf einem Tablet gesendet wird. Die Schnittstelle wurde mithilfe der IDE Eclipse mit der Programmiersprache Java erstellt und kann unter der Bedingung, dass auf dem verwendeten PC JRE Version 1.8.0 oder jünger vorinstalliert ist, systemunabhängig ausgeführt werden. Je nach gesendeten Parametern wird eine von sechs möglichen GUIs auf dem Bildschirm des Tablets angezeigt, welche die Anordnung der Lautsprecher im Audiometrieraum wiedergibt. Nach dem Schallereignis hat der Proband die Möglichkeit, je nach gewählter GUI, einen von sieben bzw. zwölf angezeigten Lautsprechersymbolen oder einen beliebigen Punkt auf dem Bildschirm anzutippen. Diese Eingabe entspricht der Richtung, welche der Proband als Schallquelle lokalisierte. Nach Eingabe der Probandenantwort wird diese via Bluetooth an die Schnittstelle und somit an Matlab gesendet, wo die Antwort ausgewertet werden kann.
Entwicklung und Implementierung einer Methode zur Funktions- und Verschleißprüfung von Sägeanlagen
(2019)
Die Firma KASTO Maschinenbau produziert Lagersysteme und Sägemaschinen und möchte in Zukunft mit Hilfe von prädiktiver Wartung einen Mehrwert für den Kunden, die firmeneigenen Servicetechniker und die Inbetriebnehmer generieren. Für diesen Weg in Richtung prädiktive Wartung werden in der vorliegenden Arbeit, zunächst mittels Recherche, Grundlagen definiert. Die anschließende Analyse verschiedener Bauteile und Baugruppen in der Lagertechnik und im Sägemaschinenbau führt zur Konkretisierung der Umsetzungsmöglichkeiten.
Im weiteren Verlauf der Arbeit werden die verschleißkritischen Bauteile eines KASTOwin-Bandsägeautomats behandelt. Durch die Analyse der einzelnen Verschleißformen und -erscheinungen an dessen Komponenten können Parameter zur Verschleiß-überwachung ermittelt werden. Die Überwachung dieser Prozesse soll dabei mit bestehender Sensorik durchgeführt werden und beschränkt sich deshalb hauptsächlich auf die Messeinrichtung der Frequenzumformer. Für die Komponenten Sägebandantrieb, Sägevorschubantrieb, Materialvorschubantrieb, Bandverlaufsensor, sowie das Hydrauliksystem werden entsprechende Methoden zur Funktions- und Verschleiß-prüfung ausgearbeitet.
Auf Basis dieser Methoden wird dann die Implementierung in Form eines SPS-Programms und einer dazu passenden, grafischen Benutzeroberfläche durchgeführt. Das bestehende SPS-Programm und die Benutzeroberfläche werden durch zusätzliche Programmteile ergänzt. Sämtliche Ergänzungen sind portabel und modular ausgelegt, sodass diese problemlos auch in anderen Sägemaschinen ergänzt werden können. Um kritische Verschleißsituationen nach deren Eintritt zu analysieren und daraus Schlüsse im Sinne der prädiktiven Wartung zu ziehen, ist die Sicherung aller Langzeitdaten von enormer Bedeutung. Da der remanente Speicher der SPS jedoch begrenzt ist, werden sämtliche Daten über die Visualisierung gesichert. Alle aufgenommen Daten werden sowohl grafisch als auch in Form von Werten visualisiert und können dem Kunden und Servicetechniker, sowie dem Inbetriebnehmer Aufschluss über den Zustand der Komponenten geben.
Letztlich werden die implementierten Abläufe an einer Vorführmaschine getestet. Es kann dabei die Funktion sämtlicher Prüfungen bestätigt werden
In den letzten Jahrzehnten haben permanentmagneterregte Synchronmaschinen und deren Regelung immer mehr Einzug in industrielle Applikationen erhalten. Durch die weltweit wachsende Elektromobilität partizipiert das Automobil an deren fortschreitenden Einsatzmöglichkeit.
Die Modellierung eines physikalisch-technischen Systems ist ein wichtiger Bestandteil in der Entwicklung einer Regelung. Inhaltlich setzt sich die Abschlussarbeit mit dieser Vorgehensweise für eine 6-phasige permanentmagneterregte Synchronmaschine auseinander. Durch die doppelte Anzahl an Statorwicklungen existieren unter anderem zwei verschiedene Wicklungskonzepte, wie eine elektrische Maschine aufgebaut sein könnte. Beide Wicklungskonzepte, bei dem entweder eine volle magnetische Kopplung oder keine magnetische Kopplung der betrachteten Teilsysteme vorliegt, werden untersucht. Ziel der Masterthesis ist es, eine mathematische Grundlage für die Modellbildung einer 6-phasigen permanentmagneterregten Synchronmaschine herzuleiten, um darauf aufbauend eine feldorientierte Regelung zu entwerfen. Wie in der industriellen Antriebstechnik gebräuchlich, erfolgt die Regelung in einem rotierenden Koordinatensystem. Die Stromregelung basiert auf einen zeitkontinuierlichen PI-Regler samt Spannungsbegrenzung und einer Anti-Windup-Struktur. In der Ausarbeitung wird mithilfe zweier Simulationsmodelle bewiesen, dass sowohl das mathematische Modell einer 6-phasigen permanentmagneterregten Synchronmaschine als auch deren Regelung simulationstechnisch die erwarteten Resultate liefern.
Die vorliegende, schriftliche Dokumentation befasst sich mit der Entwicklung, Konstruktion und Ausarbeitung eines speziellen Sonderbetriebsmittels im Bereich der Umformtechnik.
Aus Gründen der Materialersparnis soll ein Stanzwerkzeug zur Herstellung von asymmetrischen Blech-Rohlingen dahingehend optimiert werden, dass die Schneid-Elemente pro Ar-beitsgang eine Drehung um 180° durchführen können. Durch diese Maßnahme soll erreicht werden, dass zwischen den ausgeschnittenen Rohlingen weniger Abfallmaterial anfällt, wo-durch Materialkosten im laufenden Fertigungsprozess eingespart werden können.
Die Arbeit beinhaltet das systematische Erfassen von Anforderungen und prozessbedingten Gegebenheiten, die Erarbeitung von Lösungskonzepten, sowie das Ausarbeiten eines aus-gewählten Konzepts als detaillierte Konstruktion. Letztgenannte umfasst das Erstellen funktions- und fertigungsgerechter Einzelkomponenten und Baugruppen, die Auslegung und Auswahl benötigter Zukauf-Komponenten, sowie das Ableiten fertigungsgerechter technischer Zeichnungen.
Als Nachweis der Funktion der erarbeiteten Vorrichtung werden sowohl eine Bewegungssimulation, als auch entsprechende Nachweisrechnungen der Bauteilfestigkeit unter Berücksichtigung wirkender Prozesskräfte durchgeführt.
Resultat dieser Arbeit ist eine erwiesenermaßen funktionsfähige Konstruktion, die sämtliche von Seiten des Auftraggebers gestellten Anforderungen erfüllt.
Diese Arbeit handelt von der Entwicklung zweier zukunfts- und handlungsorientierter e-Learning Module für das Triebwerkswechselgerät „Cobra“. Dabei wird das didaktische Konzept für diese e-Learning Module entwickelt und reflektiert. Dies beinhaltet die Auseinandersetzung mit verschiedenen Lerntheorien und didaktischen Modellen. Neben diesen didaktischen Modellen findet die Instruktionstheorie nach Gagnè eine Anwendung. Um den Wissenserwerb zu prüfen werden Aufgaben unter Berücksichtigung der Taxonomien nach Bloom entwickelt. Ausschnitte aus den e-Learning Modulen geben einen Einblick in die Umsetzung des didaktischen Konzeptes.
China ist eine aufstrebende Volkswirtschaft. Das Wirtschaftswachstum im Land führt zu einer steigenden Kaufkraft und der digitale Fortschritt verändert die Kaufgewohnheiten und die komplette Customer Journey. Einheitliche Online Marketing-Ansätze sind dabei längst überholt. Die Konsumierenden erwarten eine persönliche Customer Experience mit Integration von neuesten Technologien, die ihren mobilen Lebensstil effizienter gestaltet.
Deutsche Unternehmen erkennen die Auswirkungen dieser Veränderungen und stehen vor der Herausforderung die neuen, anspruchsvollen Verbraucher/innen mit innovativen Online Marketing-Maßnahmen anzusprechen.
Für die eigene Studie wurden deutsche Unternehmen befragt, die bereits erfolgreiches Online Marketing in China betreiben. Anhand der Online-Befragung und Experten-/Expertinneninterviews sollen die wichtigsten Online Marketing-Instrumente, deren Plattformen, Ziele und Herausforderungen ermittelt werden.
Erweiterung der Ackermann-Formel für Mehrgrößensysteme um Freiheitsgrade zur Führungsentkopplung
(2019)
Der Beitrag zeigt bisher nicht genutzte Freiheitsgrade beim Entwurf eines linearen, zeitinvarianten Zustandsreglers für steuerbare Mehrgrößensysteme auf, wenn dieser auf der Basis der Ackermann´schen Formel durchgeführt wird. Darüber hinaus wird dargelegt, wie diese Freiheitsgrade zur Führungsentkopplung gezielt eingesetzt werden können. Damit dies gelingt, wird wie in der einschlägigen Literatur eine Transformation der Zustandsgleichungen in eine teilsystemorientierte Struktur vorgenommen. Jedoch werden modifizierte Transformationsbeziehungen verwendet, die die benötigten Freiheitsgrade hervorbringen. Der Beitrag konzentriert sich hierbei auf zeitdiskrete Systeme, wenngleich die geschilderte Vorgehensweise grundsätzlich auch bei zeitkontinuierlichen Systemen anwendbar ist. Angesichts der gewählten Methodik, die Regelungseigenwerte vorzugeben und die verbleibenden Freiheitsgrade zur Erfüllung weiterer Forderungen an den Regler heranzuziehen, ist das vorgestellte Verfahren eine unmittelbare Alternative zu anderen Polvorgabeverfahren wie z. B. zur Vollständigen Modalen Synthese. Im Fall einer nicht realisierbaren vollständigen Führungsentkopplung bietet die vorgestellte Methode die Möglichkeit einer Lösungsfindung, bei der die verbleibenden Verkopplungen im Sinne eines quadratischen Gütemaßes minimiert werden.
Die vorliegende Bachelorarbeit beschäftigt sich mit der Evaluation einer Simulationssoftware anhand unterschiedlichen Roboterkinematiken sowie einer virtuellen Inbetriebnahme einer speicherprogrammierbaren Steuerung (SPS) mittels OPC-UA-Kommunikation.
Für die Evaluation der Simulationssoftware wurden drei Roboter verschiedener Hersteller, die die gleiche Aufgabe erfüllen, mit der Simulationssoftware Visual Components simuliert und anschließend in einer realen Umgebung getestet. Für die virtuelle Inbetriebnahme einer SPS mittels OPC-UA-Kommunikation wurde eine virtuelle SPS-gesteuerte Roboter-Fertigungslinie implementiert.
Ergebnis dieser Arbeit sind detaillierte Einarbeitung in die Simulationssoftware Visual Components, strukturierte Offline und Online Roboterprogrammierung und somit Auswertung der Simulationssoftware anhand unterschiedlicher Roboterkinematiken. Bewertung des Datenaustauschs (via OPC-UA) zwischen einer SPS und der Simulationssoftware Visual Components.
Forschung im Fokus 2019
(2019)
Die Möglichkeiten für Unternehmen online zu werben, werden im digitalen Zeitalter immer größer. Online Marketing wird für Betriebe stets wichtiger. Dies zeigen die Werbeausgaben für Digitale Werbung und die zukünftigen Prognosen. Der Anteil der einzelnen Online-Marketinginstrumente macht ebenfalls deutlich, dass neben Social-Media-Marketing und E-Mail-Marketing auch Suchmaschinen-Marketing (engl. Search Engine Marketing, kurz: SEM) zu einem wichtigen Bestandteil der Werbemaßnahmen vieler Werbetreibende in Deutschland gehört.
Unternehmerische Entscheidungen sollten auf einer angemessene Informationsgrundlage basieren. Diese rechtliche Aufforderung stellt Geschäftsleiter in der Praxis vor erhebliche Herausforderungen, die insbesondere die Erstellung von Prognosen betreffen. Um hier einen Unterstützungsbeitrag zu leisten, wird eine Heuristik vorgestellt, die das Treffen prognosebezogener Informationsentscheidungen anleitet. Die Heuristik übernimmt aus der Multiattributiven Nutzentheorie die Empfehlung, Informationsentscheidungen als Gesamtheit aus Zielfunktion und Bewertungsfunktion zu modellieren. In der Zielfunktion werden die Ziele der Informationsentscheidungen von den allgemeinen Unternehmenszielen wie etwa dem Gewinn gelöst. Statt dessen wird auf die Bewirkung besonderer Qualitätseigenschaften von Informationen abgestellt; das sind Vollständigkeit, Genauigkeit und Zuverlässigkeit. Daraus ergeben sich die beiden grundlegenden Ziele von Informationsentscheidungen: „Maximierung der Informationsqualität“ und „Minimierung der Informationskosten“. Auf dieser Grundlage besteht für die Bewertungsfunktion die Herausforderung darin, die positiven Nutzenwirkungen aus einer Vergrößerung der Informationsqualität abzuwägen gegen die negativen Nutzenwirkungen, die aus einer damit verbundenen Vergrößerung der Informationskosten resultieren. Um diese Herausforderung zu bewältigen, wird ein iteratives Verfahren aus sequentiell zu treffenden und in diesem Sinne inkrementellen Informationsentscheidungen vorgeschlagen. Wertvoll ist diese Heuristik einerseits in entscheidungstheoretischer Hinsicht, weil sie vorliegende methodische Überlegungen zum Treffen von Informationsentscheidungen erweitert. Vor allem aber besitzt die Heuristik einen praktischen Wert für Geschäftsleiter, da ihre Anwendung bessere Voraussetzungen dafür schafft, der rechtlichen Pflicht zur ordentlichen und gewissenhaften Geschäftsführung zu genügen.
Im Rahmen dieser Masterthesis wird ein quasi energieautarkes, nicht-invasives Messsystem für Kleinstlebewesen entwickelt, das Vitalparameter erfasst und diese in einem FRAM-Speicher bis zum Auslesen abspeichert. Durch eine drahtlose RFID-/NFC-Ausleseschnittstelle kann die erfasste Körpertemperatur und der Puls der letzten Wochen ausgelesen werden. Alle Einstellungen des Messsystems können durch einen geeigneten RFID-Reader für Laptops mit eigens entwickelter grafischer Nutzeroberfläche geändert werden. Das vollständige Aufladen des nur 3,3 g leichten und 15 mm x 25 mm großen Messsystems erfolgt durch eine selbstgedruckte RFID-Reader-Antenne in Verbindung mit einem RFID-Reader und benötigt hierzu weniger als 29 Stunden. Bei vollständig aufgeladenem Energiespeicher ist ein Betrieb von 47 Tagen möglich. Dies wird durch ein speziell für das Messsystem konzipiertes Lade- und Powermanagement erreicht. Neben der Auswahl von energiesparenden Komponenten für die Hardware und deren bestmöglichen Nutzung, wurde die Software so optimiert, dass das Programm schnell und stromsparend abgearbeitet wird. Die Erweiterbarkeit und Anpassung wird durch das modulare Konzept auch in anderen Bereichen gewährleistet.
Hochspannungs-Mischstrom-Übertragung (HMÜ) - Eine Ergänzung zu bestehenden Übertragungstechnologien?
(2019)
Bei der Mischstromübertragung wird einem Wechselstrom direkt ein Gleichstrom überlagert. Wechselstrom und Gleichstrom werden also auf dem gleichen Seil geführt.
Dadurch könnten die bereits bestehenden Drehstrom-Übertragungs-Strecken des Übertragungsnetzes genutzt werden.
Durch eine Aufschaltung des Gleichstromes auf vorhandene Freileitungen kann theoretisch bei kurzen Leitungen (<150km) bis zu 50% mehr Wirkleistung und bei großen Übertragungsstrecken (>300km) in etwa eine Verdopplung der übertragbaren Wirkleistung erwartet werden.
Theoretisch betrachtet ist die Mischstrom-Übertragung eine geometrische Addition aller Strom- und Spannungskomponenten, was zu einer Erhöhung der Leiter-Erde-Spannung führt, ohne dabei Einfluss auf die verkettete Spannung zu nehmen.
Außerdem wird die Übertragung von Blindströmen unnötig, da ein natürlicher Betrieb von Leitungen des HDÜ-Netzes empfehlenswert ist.
Die theoretischen Betrachtungen konnten mathematisch bewiesen und die technische Umsetzung mit einem 1:1000-Modellsystem demonstriert und bestätigt werden.
Hochgenaue Systeme zur Positionsbestimmung spielen im heutigen Zeitalter für den privaten, kommerziellen aber auch militärischen Bereich eine immer wichtigere Rolle. Anwendungsgebiete wie Wandern, Geocaching, Mauterhebungssysteme, autonome Luft-, Land- und Seefahrt, sowie etliche militärische Verwendungen sind nur ein kleiner Überblick dieser Anwendungsmöglichkeiten.
Die durch die Anwendungsgebiete auftretende Notwendigkeit der Satellitennavigation, stellt meine Motivation dar, den Laborversuch Messtechnische Analyse eines Systems zur Satellitennavigation zu erneuern. Dieser Laborversuch soll den Studierenden des Studiengangs Elektrotechnik/Informationstechnik mit dem Schwerpunkt Kommunikationstechnik die Satellitennavigation anhand moderner Laboreinrichtung näherbringen.
Die nachfolgende Arbeit beschäftigt sich zu Beginn mit den allgemeinen theoretischen Grundlagen der Satellitennavigation, gefolgt von systemspezifischen Beschreibungen. Die weiteren Kapitel beinhalten die Versuchsbeschreibung, eine Musterlösung und Informationen für den betreuenden akademischen Mitarbeiter.
Des Weiteren wurden Messreihen aufgezeichnet, welche die einzelnen
Satellitennavigationssysteme qualitativ gegenüberstellen. Auf die Messreihen wird in dieser Thesis nicht eingegangen. Hierfür darf an dieser Stelle auf einen Beitrag in der Hochschulzeitschrift Forschung im Fokus verwiesen werden.
Electrolyte-gated transistors (EGTs) represent an interesting alternative to conventional dielectric-gating to reduce the required high supply voltage for printed electronic applications. Here, a type of ink-jet printable ion-gel is introduced and optimized to fabricate a chemically crosslinked ion-gel by self-assembled gelation, without additional crosslinking processes, e.g., UV-curing. For the self-assembled gelation, poly(vinyl alcohol) and poly(ethylene-alt-maleic anhydride) are used as the polymer backbone and chemical crosslinker, respectively, and 1-ethyl-3-methylimidazolium trifluoromethanesulfonate ([EMIM][OTf]) is utilized as an ionic species to ensure ionic conductivity. The as-synthesized ion-gel exhibits an ionic conductivity of ≈5 mS cm−1 and an effective capacitance of 5.4 µF cm−2 at 1 Hz. The ion-gel is successfully employed in EGTs with an indium oxide (In2O3) channel, which shows on/off-ratios of up to 1.3 × 106 and a subthreshold swing of 80.62 mV dec−1.
The core logging and tracing facility in Windows operating system is called Event Tracing for Windows (ETW).
Data sources providing events for ETW are instrumented all over the operating system.
That means most hard- and software assets in a Windows system are instrumented with ETW and so are able to contribute low-level information.
ETW can be used by developers and administrators to get low-level information about operating system's activity.
We describe existing tools to interact with the ETW faciltity and evaluate them based on defined criteria.
Based on relevant application scenarios, we show the richness of informational content for debugging or detecting security incidents with ETW.
The widely used instrumentation of ETW in the operating system and its application results also in security risks according to confidentiality.
Based on common ETW providers we show the impact to confidentiality what ETW offers an adversary.
At the end we evaluate solutions and approaches for a customizable telemetry infrastructure using ETW in large-scale environments.
Das Lehr- und Fachbuch „Kompetenzbasiertes Projektmanagement (PM4) – Handbuch für Praxis und Weiterbildung im Projektmanagement“ baut auf der Individual Competence Baseline der IPMA (ICB 4) auf. Als Standardwerk für jeden Projektmanager bildet es den Status quo für das Projektmanagement im deutschsprachigen Raum ab und ist zugleich Grundlagenwerk, Nachschlagewerk, Referenzwerk, Leitfaden und Erfahrungssammlung.
Das Werk besteht aus zwei Bänden mit 1.700 Seiten in 39 Kapiteln, die von 42 Experten im Projektmanagement geschrieben wurden. Der umfangreichere erste Band umfasst die Kompetenzen für das Gesamtverständnis. Im zweiten Band werden vor allem Anleitungen, Prozesse, Methoden, Werkzeuge etc. vorgestellt.
Die 28 Kompetenzelemente der ICB 4 bilden die Grundstruktur des Fachbuches. Die relevanten Normen des DIN und der ISO zum Projektmanagement sowie weitere Standards werden ebenso berücksichtigt wie die wichtigsten Vorgehensmodelle. Sowohl die planbasierten als auch die agilen und hybriden Projektmanagementansätze werden bedacht. Sonderthemen wie Digitalisierung, internationales Projektmanagement, virtuelle Arbeit etc. runden die Inhalte ab. Das Werk ist als digitale Publikation und als Printversion erhältlich.
In den hier vorliegenden Fallstudien wurden mehrere Studierende des Studiengangs Maschinenbau an der Hochschule Offenburg im Alter von 18 bis 28 Jahren bei der Lösungsfindung für Konstruktionsaufgaben mit der Eye-Tracking-Technologie und einer Videokamera beobachtet. Ziel der empirischen Untersuchung war es, die praktische Fähigkeit von Studierenden beim Lesen, Verstehen und Analysieren von technischen Darstellungen zu fördern. Die Auswertung der Augenbewegungen zeigt, dass die zunehmende Digitalisierung der Gesellschaft und der Umgang mit elektronischen Kleinstgeräten im Alltag zu einem punktuellen und flüchtigen Wahrnehmungsverhalten führen und dass sich die Studierenden im Umgang mit technischen Zeichnungen unsicher fühlen. Die Analyse der Videos zeigt eine meist nicht-technische und ungenaue Ausdrucksweise und eine schlechte Verwendung von Fachbegriffen.
Ziel der Thesis war zuerst eine kurze Literatur-Recherche und eine Einarbeitung in die Automatisierungstechnik (insbesondere in Robotik, speicherprogrammierbare Steuerungen, Bildverarbeitung und Kommunikationsmöglichkeiten), dann die Konzeption und der Aufbau eine Schulungszelle, mit der die Studenten in die Praxis umsetzen können, was sie im Labor gelernt haben und am Ende die Herstellung von Schulungsunterlagen.
Dafür wurde eine mehrstufige Lösung ausgewählt und betrachtet. Diese Lösung besteht in erster Linie in der Erforschung über die verschiedenen verfügbaren Komponenten. das heißt, die Bedienung und die Programmierung eines Universalroboters(UR5e), einer Sensopart-Kamera, eines Wago-PLC mit der Festo Pick-Place didaktisch Station und natürlich die Steuerung ihrer verschiedenen Software zu beherrschen. Dann folgen die Konzeption und der Aufbau der Schulungszelle, die Programmierung einer didaktischen Applikation, die den Studenten als Beispiel dient, und schließlich die Erstellung einer Anleitung dieser Applikation.