Refine
Year of publication
Document Type
- Conference Proceeding (1253)
- Article (reviewed) (681)
- Bachelor Thesis (590)
- Article (unreviewed) (566)
- Part of a Book (458)
- Contribution to a Periodical (287)
- Book (241)
- Master's Thesis (200)
- Other (141)
- Working Paper (104)
Conference Type
- Konferenzartikel (950)
- Konferenz-Abstract (156)
- Konferenzband (77)
- Sonstiges (42)
- Konferenz-Poster (32)
Language
- German (2847)
- English (1966)
- Other language (5)
- Russian (3)
- Multiple languages (2)
- French (1)
- Spanish (1)
Keywords
- Mikroelektronik (62)
- Digitalisierung (46)
- Marketing (46)
- COVID-19 (37)
- Social Media (37)
- E-Learning (35)
- RoboCup (33)
- Kommunikation (32)
- Künstliche Intelligenz (32)
- Dünnschichtchromatographie (29)
Institute
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (1112)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (1103)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (917)
- Fakultät Wirtschaft (W) (646)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (552)
- Fakultät Medien (M) (ab 22.04.2021) (374)
- INES - Institut für nachhaltige Energiesysteme (244)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (159)
- Zentrale Einrichtungen (81)
- IMLA - Institute for Machine Learning and Analytics (77)
Open Access
- Closed Access (1706)
- Open Access (1682)
- Closed (733)
- Bronze (343)
- Diamond (90)
- Gold (72)
- Hybrid (48)
- Grün (16)
Die Entwicklung eines optimierten Kommunikationskonzeptes für die seit 1972 bestehende Oldtimerfahrt „Internationale Weinrallye“ und ihre Betrachtung als regionales Marketing-Instrument, ist die Zielsetzung der vorliegenden Arbeit. Sie gibt dem organisierenden Automobil-Club Maikammer wertvolle Hinweise zur Verbesserung der zielgruppengerechten Kommunikation mit Zuschauern und Teilnehmern, immer konsequent auf das übergeordnete Kommunikationsziel ausgerichtet, die Bekanntheit der Fahrt regional wie auch überregional zu steigern. Die Arbeit zeigt unter anderem Möglichkeiten zur besseren Vernetzung von Sponsoren und Tourismuspartnern, durch das Bilden von synergetischen Netzwerken und das Anbieten geeigneter, repräsentativer Sponsorenflächen, auf. Hierzu ist es notwendig die aktuellen Trends der stark wachsenden europäischen Oldtimerbranche zu kennen. Grundlegende Erkenntnisse, ermittelt durch vorhandene internationale Studien über den Oldtimermarkt, fließen als Basis in die Bewertung des Kommunikationskonzeptes mit ein. Im Laufe der Bearbeitung werden die letzten Ausgaben der Weinrallye (2006, 2008, 2010) hinsichtlich ihrer Teilnehmerschaft umfassend analysiert. Unter anderem werden die Teilnehmer bezüglich ihrer soziodemografischen Strukturen ausgewertet und darauf aufbauend segmentiert. Zusätzlich wurden bei der letzten Ausgabe der Oldtimerfahrt stichprobenhaft per Fragebogen deren charakteristische Mediennutzung, Tourismusverhalten, Einstellungen und Motive abgefragt. Außerdem werden die Erfolgsfaktoren der Veranstaltung herausgearbeitet. Aufgrund der vorliegenden Daten und einer Potenzialanalyse wird ein strategisches Kommunikationskonzept zur Eventkommunikation entwickelt, das jeweils zielgerichtet auf Teilnehmer, Zuschauer und Sponsoren abzielt und auch Anreize für Tourismus-Kooperationen mit umliegenden Regionen und Institutionen bezüglich eines Oldtimernetzwerkes aufzeigt. Eine detaillierte Ableitung der Kernzielgruppen, das Verfassen zielgruppengerechter Botschaften und die Auswahl der effektivsten Werbemedien, zum richtigen Zeitpunkt mit einem begrenzten Etat eingesetzt, fließen in das Konzept mit ein.
Die Hochschule Offenburg begleitet seit Juli 2006 in Zusammenarbeit mit dem Fraunhofer ISE in Freiburg, die solar unterstützte Klimatisierung der Festo AG & Co. KG in Esslingen im Rahmen des Forschungsvorhabens Solarthermie2000plus. Dabei wurde die bereits bestehende Adsorptionskälteanlage, die bisher mit Gaskesseln und Kompressorenabwärme betrieben wurde, durch eine Solaranlage als dritte Wärmequelle ergänzt.
Am Standort Rottweil der Deutschen Telekom wurde im April 2011 eine Solaranlage zur Unterstützung der Gebäudeklimatisierung in Betrieb genommen. Die Solaranlage ist die dritte Wärmequelle, die in das bestehende Heizungsnetz einspeist. Die schon vorhandenen Absorptionskältemaschinen wurden zuvor mit Gaskesseln und der Abwärme eines Blockheizkraftwerks (BHKW) betrieben. Das Kollektorfeld mit einer Brutto-Kollektorfläche von 503 m² wurde auf dem Flachdach eines Werkstattgebäudes installiert, wobei der Solarspeicher neben diesem Gebäude im Freien aufgestellt wurde. Der Wärmeübertrager zwischen Kollektoren und Solarspeicher wurde zusammen mit den Pumpen und sonstigen Armaturen im Keller des Gebäudes untergebracht. Durch den Einsatz der Solaranlage wird ein Teil des für die Klimatisierung und Raumheizung erforderlichen Brennstoffs eingespart, ein Beitrag zum Klimaschutz geleistet und eine Verbrauchskostenreduzierung erreicht. Mit der erzeugten Kälte werden die Technik- und Serverräume sowie ein Call-Center der Deutschen Telekom gekühlt.
In manchen Arbeitszeugnissen steht das Wichtigste am Schluss. Der letzte Absatz kann drei Elemente enthalten, die einzeln oder in unterschiedlicher Kombination immer wieder auftauchen: Beendigungsformel, Dankes-Bedauern-Formel, Zukunftswünsche. §630 BGB als Rechtsgrundlage für den Zeugnisanspruch sagt nichts über den Inhalt des Schlussabsatzes aus. Die Rechtsprechung hat dennoch bestimmte Ansprüche des Arbeitnehmers entwickelt.
An der Fachhochschule Offenburg wird der Design-Kit FHO_MTC_CMOS_035_v1.0 erstellt. Mit Hilfe dieses Kits lassen sich Designs in der AMI O.35 Mikrometer Technologie entwerfen. Alle durchgeführten Arbeiten werden durch den Entwurf eines Lottozahlengenerator-Chips verifiziert, der gefertigt wird. Damit sind alle wesentlichen Schritte bekannt, die für die Aufbereitung eines Design-Kits für beliebige Technologien für die Mentor-Tools erforderlich sind. Der Design-Kit wird für alle MPC-Mitglieder freigegen, die eine NDA für AMI bei Europractice unterzeichnet haben.
Bevor man der Frage nachgeht, wie und in welcher Form am besten unterschiedliche Social-Media-Kanäle für die Kommunikation kommunaler Themen eingesetzt werden und somit ein wirksames Tool für die Interaktion der Kommunen mit ihren spezifischen Zielgruppen darstellen können, muss man sich ein paar generelle Gedanken machen, welche Stakeholder und Zielgruppen überhaupt auf diesem Weg bei welchen Themenkategorien erreichbar sind. Gerade aktuelle Fälle wie die Kommunikation während der Corona-Krise zeigen, wie man im Rahmen der Mediaplanung digitale Kanäle in das Gesamtspektrum der Kommunikationskanäle einordnen kann.
Warmumformwerkzeuge unterliegen während des Betriebes komplexen thermischen und mechanischen Beanspruchungen. In kritischen Bereichen können dadurch lokal Spannungen entstehen, die die Fließgrenze überschreiten. Bei der Serienproduktion führt dies zu zyklischen plastischen Verformungen und zur thermomechanischen Ermüdung, welche die Lebensdauer der Warmumformwerkzeuge maßgeblich bestimmen kann. Zur Bewertung der thermomechanischen Ermüdung der Warmumformwerkzeuge gibt es jedoch heute keine etablierten Konzepte, da dieser Aspekt erst durch die Notwendigkeit einer höheren Ressourcen- und Energieeffizienz und optimierter Produktionsprozesse (beispielsweise im Rahmen von Industrie 4.0) eine höhere Aufmerksamkeit erreicht. In dieser Arbeit wird zum einen die aktuell industriell angewandte Vorgehensweise zur Auslegung von Warmumformwerkzeugen hinsichtlich der Lebensdauer erläutert. Des Weiteren wird ein Überblick über existierende Plastizitätsmodelle und Lebensdauermodelle gegeben. Dabei wird zwischen rein phänomenologischen und mechanismenbasierten Modellen unterschieden. Aus der betriebenen Recherche wird ersichtlich, dass weiterer Forschungsbedarf auf diesem Gebiet notwendig ist.
Um die Geräuschanregung von Schneckengetrieben im Automobil möglichst gering zu halten, gilt es die dafür ausschlaggebenden Parameter der Schnecke zu untersuchen. Die primären Einflussfaktoren bilden die Schiefstellung sowie die Exzentrizität der Achse des Mittenzylinders der Schnecke. Diese beiden Werte werden aktuell im Rundlauf Fr zusammengefasst, welcher auf einer 3D-Koordinatenmessmaschine, durch vermessen der Schnecke bestimmt wird. Aufgrund des hohen Zeitaufwands von 20 Minuten pro Schnecke befindet sich zudem ein optischer Rundlaufprüfstand in der Entwicklung. Mit jenem ist es möglich die Schiefstellung und Exzentrizität in einem Bruchteil der Zeit zu bestimmen.
In dieser Arbeit wird in einer Problemanalyse zunächst untersucht, ob die alleinige Ausgabe des Rundlaufs den Anforderungen an die Vorhersage der Geräuschanregung genügt. Aus den daraus gewonnen Erkenntnissen wird mittels der Software MATLAB® ein Algorithmus entwickelt, welcher aus den Daten der 3D-Koordinatenmessmaschine die Schiefstellung und Exzentrizität auf unterschiedliche Weise berechnet. In mehreren Versuchsreihen werden FPS-Schnecken aus der Fertigung auf beiden Versuchsständen vermessen und die daraus gewonnenen Messwerte ausgewertet. Bei dieser Auswertung werden beide Versuchsstände miteinander, aber auch die Werte der Auswerteverfahren innerhalb der Algorithmen verglichen.
Bei diesem Vergleich stellt sich heraus, dass die Ergebnisse ähnliche Tendenzen aufzeigen. Die Abweichung der beiden Vergleichsprozesse ist vor allem beim Vergleich mit den Ergebnissen am Zahnkopf des optischen Rundlaufprüfstands meist gering. Große Abweichungen zwischen den Vergleichsprozessen lassen sich auch innerhalb der Auswertung des optischen Rundlaufprüfstandes erkennen, da hier die Differenz zwischen Zahnflanke und Zahnkopf ebenfalls bis zu 100 % betragen kann.
Die Bestimmung von Emissionen aus Abgaskaminen mit grossen Querschnitten ist ein Problem, da dort Inhomogenitaeten sowohl der Konzentration als auch der linearen Abgasgeschwindigkeit vorliegen. Die VDI 2066, Bl. 1, schreibt vor, welche Punkte zu waehlen sind, und wenn man dann noch isokinetisch die Abgasproben entnimmt, sollte man zum richtigen Ergebnis kommen. Anm. d.Ref.: Die Hessische Landesanstalt fuer Umwelt ist da schon frueher auf recht komplizierte Loesungen gekommen. Und diese Linie wird in der vorliegenden Arbeit konsequent eingehalten. - Es mag sein, dass der angekuendigte Ergebnisbericht mehr Licht in die Angelegenheit bringt. Aus den hier gemachten Angaben kann man eigentlich nur entnehmen, dass bisher alles falsch gemacht worden ist. (H. -D. Papendick).
Eine reine Passwortauthentifizierung, wie sie im Hochschulumfeld eingesetzt wird, bringt Sicherheitsrisiken mit sich. Ziel dieser Arbeit ist es zu analysieren, wie die Sicherheit in der Praxis mittels einer Zwei-Faktor-Authentifizierung erhöht werden kann und in welcher Weise die Einführung eines Single-Sign-On Konzept zum Erreichen dieses Ziels beiträgt. Es konnte gezeigt werden, dass eine Shibboleth IdP Installation als zentraler Zugangspunkt für Single-Sign-On sowie eine daran angebundene privacyIDEA-Instanz die Umsetzung der Zwei-Faktor-Authentifizierung für einige aber nicht alle Dienste ermöglicht.
Die Zuverlässigkeit und Betriebssicherheit von Feldgeräten ist für den sicheren und wirtschaftlichen Betrieb prozesstechnischer Anlagen unerlässlich. Ein entscheidender Faktor ist die Widerstandskraft der Geräte gegen die herrschenden Umgebungsbedingungen. Durch Korrosionsschäden hervorgerufene Anlagenstillstände zeigen, dass diesem Thema nicht immer die notwendige Aufmerksamkeit gewidmet wird, obwohl die korrosionsbedingten wirtschaftlichen Schäden immens sind. Wie man mit dem Thema Korrosionsschutz ernsthaft umgehen kann, zeigt dieser Beitrag am Beispiel elektrischer Stellantriebe.
Die dezentrale Stromerzeugung in Blockheizkraftwerken gewinnt als Möglichkeit der effizienten Energieerzeugung immer mehr an Bedeutung. Im Projekt „Energiepioniere – Wissenschaftlich-technische Begleitung eines Feldtests von Mikro-KWK-Anlagen durch die Hochschule Offenburg“ werden verschiedene Mikro-BHKW-Anlagen auf ihre Praxistauglichkeit unter realen Betriebsbedingungen getestet. Im aktuellen Artikel wird nach einer kurzen Beschreibung der im Feldtest untersuchten Motoren ein Auszug der wichtigsten Ergebnisse des Feldtests vorgestellt.
Die Frage nach der Erforderlichkeit der Benennung eines Datenschutzbeauftragten wird derzeit oft gestellt. Der Beitrag gibt anhand einer Checkliste Leitlinien zu ihrer Beantwortung. Diese richtet sich seit dem 25.5.2018 bei nicht-öffentlichen Stellen (namentlich Unternehmen, aber auch Vereinen) nach Art. 37 DSGVO und § 38 BDSG n.F.
Die Frage nach der Erforderlichkeit der Benennung eines Datenschutzbeauftragten wird derzeit oft gestellt. Der Beitrag gibt anhand einer Checkliste Leitlinien zu ihrer Beantwortung. Diese richtet sich seit dem 25.5.2018 bei nicht-öffentlichen Stellen (namentlich Unternehmen, aber auch Vereinen) nach Art. 37 DSGVO und § 38 BDSG n.F.
Durch die fortschreitende Globalisierung der Märkte verschiebt sich der Schwerpunkt der Nachfrage nach Investitionsgütern deutlich in die Emerging Markets, welche mittelfristig an Bedeutung die stagnierenden westlichen Märkte übertreffen werden. In letzter Zeit zeichnet sich dabei eine konjunkturelle Erholung, ein sogenanntes Comeback, in diesen Schwellenländern ab. Im Mittelpunkt steht dabei vor allem auch Indien. Indien ist mittelfristig einer der größten Investitionsgütermärkte und damit ein erfolgversprechender Standort bei der im deutschen Maschinenbau notwendigen Internationalisierung. Allerdings sind deutsche Unternehmen in Indien auch mit Herausforderungen konfrontiert, die in der unternehmerischen Praxis oftmals zum Scheitern einer Markterschließung geführt haben. Vor diesem Hintergrund stellt sich die Frage nach denjenigen Faktoren, die den Erfolg einer Erschließung des indischen Marktes durch den deutschen Maschinenbau bestimmen.
Erfolgsfaktorenforschung
(2018)
Unternehmen verfolgen seit Jahren das Ziel, Marketingkampagnen online zur Vermarktung ihrer Produkte einzusetzen. Um einen wachsenden Umsatz zu generieren, greifen sie insbesondere auf das E-Mail-Marketing und Newsletter als Instrument zurück. Viele lassen dabei allerdings trotz der regelmäßigen Versendung von E-Mails Optimierungsbedarf entstehen. Daher ist es notwendig zu verstehen, wie solche Newsletter-Kampagnen konzipiert sind und wie sie funktionieren.
Das Ziel in der vorliegenden Arbeit ist es zu beantworten, welche Faktoren für eine gelungene Kampagne beachtet werden sollten und aus diesen einen übersichtlichen Leitfaden zu generieren. Dazu wird die folgende Forschungsfrage gestellt: Inwiefern kann das E-Mail-Marketing und der Newsletter genutzt werden, um die B2C Ziele des Unternehmens erfolgreich zu erfüllen und gleichzeitig die Empfänger und Empfängerinnen zufrieden zu stellen?
Um die Forschungsfrage zu beantworten, wurde eine Literaturrecherche sowie eine qualitative Studie in Form eines Experteninterviews durchgeführt. Die theoretische Literaturrecherche unter-suchte, welche Kriterien bei den jeweiligen Prozessschritten erfüllt sein müssen, damit diese den Nutzenden zufriedenstellt. In der qualitativen Studie waren den teilnehmenden Fachleuten offene Fragen zum E-Mail-Marketing Prozess gestellt worden, die im Anschluss ausgewertet wurden. Dadurch wurden die vorab gewonnenen Kenntnisse auf ihre Anwendbarkeit in der Praxis validiert.
Die Recherche und Interview-Aussagen zeigen, dass die Erfolgsfaktoren in allen Prozessschritten verteilt liegen. Besonders die Planung und die Konzeption der Werbemittel haben einen großen Anteil an der Zufriedenheit von Empfangenden Personen. Neben der Einhaltung der Gesetzlage liegt der Fokus auf einer unternehmensspezifischen Zielsetzung und einer umfangreichen Ziel-gruppenanalyse. Adressen variieren in der Qualität und können unterschiedlich generierbar sein. Sie sollten vor der Nutzung und unabhängig von dem Ursprung validiert werden. Bei der Gestal-tung empfiehlt sich der Einsatz von interessanten Texten, emotionalen Bildern und gut platzierten Call-to-Actions. Die Nutzung einer Personalisierung und Individualisierung erhöht die Aufmerksam-keit und die E-Mail sollte abschließend getestet werden. Grundsätzlich muss für eine inhaltliche Relevanz für den Nutzenden gesorgt sein. Hinsichtlich des Versands sollten Frequenz und Zeit-punkt an die individuellen Zielgruppen angepasst werden. Der Einsatz einer Blacklist vor dem Ver-sand und die Aufnahme in eine Whitelist führen beide zu einer verbesserten Resonanz auf Kun-denseite. Ein erfolgreiches Controlling besteht, neben der Vielzahl an Kennzahlen, vor allem aus einem transparenten Tracking dieser. Nur durch ein Zusammenspiel beider kann die Zielerreichung realistisch betrachtet werden. Die regelmäßige Bereinigung des Adressverteilers von Abmeldern und nicht erreichbaren Adressen, sowie das zielgerichtete Anschreiben von Nicht-Reagierern er-höhen die Performance. Software wirkt dabei unterstützend und sollte genutzt werden
Weiterführende Forschung im E-Mail-Marketing Marketings für Newsletter könnte auf eine noch genauere Betrachtung des Controllings oder der Zielgruppenanalyseausgerichtet sein.
Der Begriff Crowdfunding hat im Laufe der vergangenen Jahre an Bedeutung gewonnen und ist heute immer mehr Menschen bekannt. Crowdfunding gibt den Künstlern die Möglichkeit, finanzielle Unterstützung von vielen, vor allem privaten, Geldgebern zu erhalten. Viele Crowdfunding-Projekte scheitern, weil nicht genug Geld gesammelt werden kann. Was aber tatsächlich der Grund für das Scheitern des Projekts war bleibt vielen Künstlern unklar. Diese wissenschaftliche Arbeit soll sich auf der einen Seite mit den Gründen dieses Scheiterns beschäftigen, auf der anderen Seite aber auch aufzeigen, was erfolgreiche Crowdfunding-Projekte ausmacht. Diese Gründe sollen in Form von einzelnen erfolgssteigernden Faktoren, den Erfolgsfaktoren, erklärt und anschließend in Form einer multiplen Fallstudie untersucht werden. Der starke Bezug zur praktischen Anwendung in Crowdfunding-Projekten entsteht unter anderem durch Studien und Experteninterviews aus verschiedenen Quellen, aber auch durch die durchgeführte Fallstudie. Durch die Beachtung der erforschten Faktoren können Finanzierungen über Crowdfunding-Kampagnen eher erfolgreich abgeschlossen werden und die Musiker ihren künstlerischen Zielen wesentlich näher gebracht werden.
E-Learning hat als ergänzendes Erlösmodell ein hohes Potenzial im Online-Journalismus, findet bisher allerdings wenig Beachtung. Insbesondere Garten- und Pflanzenthemen lassen sich aufgrund ihrer Praxisnähe gut über Onlinekurse vermitteln. Die Arbeit untersucht die Ansprüche der gartenjournalistischen Zielgruppe an einen entsprechenden Onlinekurs sowie an das dazugehörige Erlösmodell. Dazu gibt die Masterthesis theoretische Einblicke in die Themen Online-Journalismus, Erlösmodelle und E-Learning und betrachtet diese im Kontext der Erfolgsfaktoren von Onlinekursen. Neben der Themenrelevanz und dem Anbietervertrauen wurden die Motivierung und der Unterhaltungswert, Verständlichkeit und Praxisbezug sowie Betreuungsleistung und Kollaborationsmöglichkeiten als Erfolgsfaktoren ermittelt. Be- züglich des Erlösmodells stellen der Leistungsumfang sowie die Erlösform und Preisattraktivität ele- mentare Faktoren dar. Mit Hilfe qualitativer Sozialforschung am Beispiel der Zielgruppe von Mein schö- ner Garten wurden die Aspekte analysiert und deren Bedeutsamkeit bestätigt. Besonders die Wissens- vermittlung durch eine kompetente Lehrkraft, eine individuelle Betreuung, Live-Events und Community-Aspekte stellen einen Mehrwert gegenüber anderen gartenjournalistischen Angeboten dar. Jedoch unterscheiden sich die konkreten Ansprüche an die Gestaltung der Faktoren und die Gewichtung ihrer Relevanz ist abhängig vom Lerntyp. Das zeigt sich auch in einer variierenden Zahlungsbereitschaft, die wesentlich von den persönlichen Erwartungen und dem gebotenen Zusatznutzen abhängt. Individuelle Tarife und eine ergänzende Werbefinanzierung sind deshalb sinnvoll.
Sowohl die allgemeinen Erfolgsfaktoren von Start-ups als auch die Erfolgsfaktoren durch die Beteiligung eines Medienunternehmens werden in dieser Arbeit näher beleuchtet und einander gegenübergestellt. Im Fokus steht insbesondere die Frage, wie ein Medienunternehmen zu einer Wertsteigerung beitragen kann, damit das Start-up erfolgreicher ist, als es ohne die Beteiligung wäre.
Dieses Buch erklärt, wie Führungskräfte reflektiert und verantwortungsvoll mit ihrer Macht umgehen können, und zeigt die Zusammenhänge zwischen Gestaltungsfeldern der Macht und Führungserfolg auf. Denn Macht ist eine entscheidende Größe, um innerhalb von sozialen Systemen Veränderungen durchzusetzen und Entwicklungen voranzutreiben oder gar erst zu ermöglichen.
Gerade in Unternehmen ist der bewusste und konstruktive Umgang mit Macht oft einer der Erfolgsfaktoren für Entscheider und Führungskräfte. Sie kann dabei nur durch die Menschen ausgeübt werden, denen sie durch andere zugesprochen oder auch zugebilligt wird. Deshalb kommt dem Verständnis von Macht eine entscheidende Bedeutung zu.
Der Autor beschreibt neben den Grundlagen 20 konkrete Anwendungsfelder im Arbeitsalltag von Führungskräften, ergänzt durch Beispiele, Checklisten und Handlungsempfehlungen.
Onlineshops in Deutschland verschenken sehr viel Potenzial im Registrierungs- und Bestellprozess. Dabei lässt sich mit wenigen gezielten Verbesserungen der Checkout barrierefrei und smart gestalten. Zu diesem Ergebnis kommt eine heuristische Untersuchung der Top 100 Onlineshops von Uniserv gemeinsam mit der Hochschule Offenburg. Die Eingabe und Qualität von Adressdaten spielen dabei eine besondere Rolle.
China ist eine aufstrebende Volkswirtschaft. Das Wirtschaftswachstum im Land führt zu einer steigenden Kaufkraft und der digitale Fortschritt verändert die Kaufgewohnheiten und die komplette Customer Journey. Einheitliche Online Marketing-Ansätze sind dabei längst überholt. Die Konsumierenden erwarten eine persönliche Customer Experience mit Integration von neuesten Technologien, die ihren mobilen Lebensstil effizienter gestaltet.
Deutsche Unternehmen erkennen die Auswirkungen dieser Veränderungen und stehen vor der Herausforderung die neuen, anspruchsvollen Verbraucher/innen mit innovativen Online Marketing-Maßnahmen anzusprechen.
Für die eigene Studie wurden deutsche Unternehmen befragt, die bereits erfolgreiches Online Marketing in China betreiben. Anhand der Online-Befragung und Experten-/Expertinneninterviews sollen die wichtigsten Online Marketing-Instrumente, deren Plattformen, Ziele und Herausforderungen ermittelt werden.
Erfolg versprechende Gestaltungsoptionen und Effektivität viraler Marketingkampagnen im Web 2.0
(2013)
Die zunehmende Anzahl an Kommunikationskanälen führt zu einer Reizüberflutung Konsumierender. Mit klassischen Werbestrategien fällt es Unternehmen immer schwerer die anvisierte Zielgruppe effektiv zu erreichen. In dieser wissenschaftlichen Arbeit werden die Vorgehensweise und die Erfolg versprechenden Gestaltungsoptionen bei der Durchführung viraler Kampagnen erarbeitet. Weiteres Ziel ist die Beurteilung der Effektivität von Viral-Marketing. Zur Datenerhebung dienten ExpertenInnen-Interviews. Partiell sind die praxisorientierten Ergebnisse der qualitativen Befragung einem Vergleich mit Empfehlungen aus der Theorie unterzogen. Grundsätzlich lässt sich die Durchführung einer intensiven Zielgruppenanalyse als eine der wichtigsten Erfolg versprechenden Gestaltungoptionen bestimmen. Eine crossmediale Einbindung und die markenkonforme Aufbereitung der Werbebotschaften lassen sich ebenfalls als ausschlaggebend für den Erfolg ableiten. In der Gestaltung der Werbebotschaft sollte die Marke eher zurückhaltend positioniert werden. Vor allem emotionale Mehrwerte und WOW-Erlebnisse steigern die Viralität. Der Einsatz sozialer Online-Medien in einem intensiven Seeding-Prozess ist für eine schnelle Verbreitung unerlässlich. Die Effektivität viraler Kampagnen wirkt sich primär auf die Imageprägung und auf die Steigerung des Bekanntheitsgrads von Unternehmen aus. Daraus folgt eine erhöhte Kaufbereitschaft, welche die Verkaufsförderung positiv beeinflusst und somit nicht komplett ausschließt. Der Vergleich von Theorie und Praxis zeigt, dass die Vorgehensweisen und Ansichten an einigen Stellen auseinander laufen, weitgehend sind allerdings Parallelen zu erkennen. Schlussfolgernd lässt sich zusammenfassen, dass viele Faktoren den Erfolg viraler Kampagnen beeinflussen können. Dazu zählen auch Faktoren, welche von Unternehmen nicht steuerbar sind. Mit dem Einsatz der aufgezeigten Gestaltungsoptionen steigt jedoch die Wahrscheinlichkeit einer hohen Viralität der Werbeinhalte.
Erfinderisches Problemlösen mit TRIZ : Zielbeschreibung, Problemdefinition und Lösungspriorisierung
(2017)
Die Theorie des erfinderischen Problemlösens, TRIZ, ist eine Systematik von Annahmen, Regeln, Methoden und Werkzeugen zur innovativen Systemverbesserung z.B. von Produkten, Prozessen, Dienstleistungen oder Organisationen. Diese Richtlinie erläutert TRIZ-Werkzeuge und -Methoden, die insbesondere in den Phasen "Zielbeschreibung", "Problemdefinition" und "Lösungspriorisierung" des Problemlösungsprozesses eingesetzt werden. Die Detailtiefe der Beschreibung erlaubt eine Einschätzung der Werkzeuge und Methoden hinsichtlich Einsatzzwecken, Ergebnissen und Funktionsweise. Die jeweilige Beschreibung der Methoden und Werkzeuge enthält konkrete Aussagen über Zielsetzung und Ergebnis ihres Einsatzes.
Rasch auftretende grundsätzliche Veränderungen der Rahmenbedingungen, wie sie durch die Corona-Pandemie für Unternehmen der Agentur- und Eventbranche spürbar wurden, stellen Unternehmen sowie Unternehmerinnen und Unternehmer vor besondere Herausforderungen. Zwei Vertreter aus Unternehmen dieser Branche – eine inhabergeführte Eventagentur und eine inhabergeführte Werbeagentur – zeigen in einem kurzen Interview auf, welche Erfahrungen sie gemacht haben und welche Herausforderungen sie daraus für die Zukunft ableiten.
Mit zunehmend komplexer werdenden Schaltungen wachsen auch die Anforderungen an die Entwicklung einer entsprechenden Leiterplatte. Mit der BOARD-Station von MENTOR-Graphics können professionelle Leiterplatten entwickelt werden.
Im Rahmen dreier Entwicklungsprojekte an der Fachhochschule Offenburg wurden mehrere aufwendige Layoutentwürfe mit der BOARD-Station in verschiedenen Diplomarbeiten durchgeführt. Im Folgenden wird über die dabei gewonnenen Erfahrungen berichtet.
This paper presents an overview of EREMI, a two-year project funded under ERASMUS+ KA203, and its results. The project team’s main objective was to develop and validate an advanced interdisciplinary higher education curriculum, which includes lifelong learning components. The curriculum focuses on enhancing resource efficiency in the manufacturing industry and optimising poorly or non-digitised industrial physical infrastructure systems. The paper also discusses the results of the project, highlighting the successful achievement of its goals. EREMI effectively supports the transition to Industry 5.0 by preparing a common European pool of future experts. Through comprehensive research and collaboration, the project team has designed a curriculum that equips students with the necessary skills and knowledge to thrive in the evolving manufacturing landscape. Furthermore, the paper explores the significance of EREMI’s contributions to the field, emphasising the importance of resource efficiency and system optimisation in industrial settings. By addressing the challenges posed by under-digitised infrastructure, the project aims to drive sustainable and innovative practices in manufacturing. All five project partner organisations have been actively engaged in offering relevant educational content and framework for decentralised sustainable economic development in regional and national contexts through capacity building at a local level. A crucial element of the added value is the new channel for obtaining feedback from students. The survey results, which are outlined in the paper, offer valuable insights gathered from students, contributing to the continuous improvement of the project.
Um als Unternehmen heutzutage aus der Masse hervorzustechen und sich von der Konkur- renz abzuheben, bedarf es mehr als nur eines guten Produkts oder einer guten Dienstleis- tung. Kunden möchten wissen, welches Unternehmen dahintersteckt und ob sie sich damit identifizieren können. Um diese Werte und ein einheitliches Erscheinungsbild vermitteln zu können, ist eine ganzheitliche Corporate Identity erforderlich, die sowohl innen als auch außen wirkt. Das bietet die Möglichkeit, ein Markenimage aufzubauen, das langfristig Kun- den bindet und Vertrauen schafft.
Die Entwicklung einer neuen Corporate Identity erfordert zunächst eine entschlossene Ent- scheidung der Unternehmensführung. Sie muss sicherstellen, dass das gesamte Unterneh- men für ein solches Vorhaben bereit ist. Erst dann kann mit der Bildung eines CI-Teams begonnen werden, das mit der Entwicklung und Durchführung des Corporate Identity-Pro- zesses beauftragt wird. Dabei wird nach der AMC-Strategie vorgegangen, die mit einer aus- führlichen Ist- und Sollanalyse beginnt. Hierbei wird ermittelt, welche Fähigkeiten das Un- ternehmen besitzt und welches Image bei den unterschiedlichen Interessensgruppen vor- herrscht. Auch die internen und externen Auswirkungen einer CI sollten bedacht werden und dass die Angestellten einen maßgeblich Teil zur externen Wirkung beitragen. Die ge- sammelten Informationen dienen als Grundlage für die einzelnen Bestandteile der Corpo- rate Identity.
Basierend auf dem theoretischen Teil wurde für Dialogpunkt eine neue Corporate Identity entwickelt, wodurch verdeutlicht wurde, wie die theoretischen Grundlagen in die Praxis umgesetzt werden können. Durch eine gründliche Marktanalyse wurde ein neues Leitbild (Corporate Philosophy) für Dialogpunkt erstellt. Dieses Leitbild und die gewonnenen Er- kenntnisse dienten wiederum als Grundlage für die Entwicklung des Corporate Behaviors, der Corporate Communication und des Corporate Designs.
Das Ziel dieser Bachelorthesis ist es die Funktionsweise und die Grundlagen des (digitalen) stereoskopischen Films in einer wissenschaftlichen Arbeit zu entwickeln. Die dadurch erlangten Kenntnisse sollen dann in einer Produktion von stereoskopischen Inhalten angewandt und somit verinnerlicht werden. Dabei soll der gesamten Workflow solch einer Produktion, von der Vorproduktion über die Dreharbeiten bis hin zur Postproduktion, dargestellt werden.
Introduction: Despite lots of developments in the last years, radiofrequency ablation of rhythm diseases is a safe but still complex procedure that requires special experience and expertise of the physicians and biomedical engineers. Thus, there is a need of special trainings to become familiar with the different equipment and to explain several effects that can be observed during clinical routine.
Methods: The Offenburg University of Applied Sciences offers a biomedical engineering study path specialized in the fields of cardiology, electrophysiology and cardiac electronic implants. It`s Peter Osypka Institute for Pacing and Ablation provides teaching following the slogan “Learning by watching, touching and adjusting”. It conducts lots of trainings for students as well as young physicians interested in electrophysiology and radiofrequency ablation.
Results: In-vitro trainings will be provided using the Osypka HAT 200 and HAT300s, Stockert EPshuttle and SmartAblate system as well as the Boston EPT-1000XP and Maestro 3000 and the Radionics RFG-3E cardiac radio frequency ablation generators. All of them require different handling as well as special accessories like catheter connection cables or boxes and back plates. The participants will be trained in the setup of temperature, power and cut-off impedance dependent on different ablation catheters. Furthermore troubleshooting in hard- and software is part of the program. Performing procedures in pork or animal protein and using physiological saline solution to simulate the blood flow, they can study the influence of contact force and impedance on lesion geometry etc. and to avoid adverse effects like “plops”. Lots of catheter types are available: 4mm tip, 8mm standard and gold tip, open and closed irrigated tip ablation catheters of different companies. The experiments will be completed by measuring the lesion size dependent on the used catheter type and ablation settings.
Conclusion: In-vitro training in radiofrequency ablation is a challenge for biomedical engineering students and young physicians.
Experimental and theoretical investigations of the time of equalization of the concentration of an impurity in a rectangular flow‐type chamber have been carried out. It has been shown that the process of equalization of the concentration with time is exponential in character. The characteristic equalization time has been computed using the theory of turbulent diffusion. Theoretical results describe experimental regularities with an accuracy of about 10%. The value of the coefficient of turbulent diffusion for different configurations of flows in the chamber has been obtained from a comparison of experimental and calculated results.
Enzyme‐assisted HPTLC method for the simultaneous analysis of inositol phosphates and phosphate
(2023)
Background
The analysis of myo‐inositol phosphates (InsPx) released by phytases during phytic acid degradation is challenging and time‐consuming, particularly in terms of sample preparation, isomer separation, and detection. However, a fast and robust analysis method is crucial when screening for phytases during protein engineering approaches, which result in a large number of samples, to ensure reliable identification of promising novel enzymes or target variants with improved characteristics, for example, pH range, thermal stability, and phosphate release kinetics.
Results
The simultaneous analysis of several InsPx (InsP1‐InsP4 and InsP5 + 6) as well as free phosphate was established on cellulose HPTLC plates using a buffered mobile phase. Inositol phosphates were subsequently stained using a novel enzyme‐assisted staining procedure. Immobilized InsPx were hydrolyzed by a phytase solution of Quantum® Blueliquid 5G followed by a molybdate reagent derivatization. Resulting blue zones were captured by DAD scan. The method shows good repeatability (intra‐day and intra‐lab) with maximum deviations of the Rf value of 0.01. The HPTLC method was applied to three commercially available phytases at two pH levels relevant to the gastrointestinal tract of poultry (pH 5.5 and pH 3.6) to observe their phytate degradation pattern and thus visualize their InsPx fingerprint.
Conclusion
This HPTLC method presents a semi‐high‐throughput analysis for the simultaneous analysis of phytic acid and the resulting lower inositol phosphates after its enzymatic hydrolysis and is also an effective tool to visualize the InsPx fingerprints and possible accumulations of inositol phosphates.
This review provides an overview on the production and analysis techniques of antioxidative peptides from food proteins. Regarding the production of antioxidative peptides, interlinked factors must be considered. Depending on the protein substrate, different peptidases or peptidase systems containing multiple enzymes as well as a specific production process must be chosen. The antioxidative peptides might be produced in a batch process including multiple pre- and post-treatments, besides the hydrolyses with peptidases itself. As an alternative, the potential of continuous production systems is discussed in this review. Furthermore, robust analyses tools are needed to gain control of the process and final product properties. With no standardized methodology available for antioxidative peptide evaluation, pros and cons of various strategies for peptide separation and antioxidative measurement are discussed in this review. Therefore, this review provides a roadmap for antioxidative peptide generation from various sources for research and development as well as for potential industrial use.
As the population grows, so does the amount of biowaste. As demand for energy grows, biogas is a promising solution to the problem. Lignocellulosic materials are challenged of slow degradability due to the presence of polymers such as cellulose, lignin and hemicellulose. There are several pretreatment methods available to enhance the degradability of such materials, including enzymatic pretreatment. In this pretreatment, there are few parameters that can influence the results, the most important being the enzyme to solid ratio and the solid to liquid ratio. During this project, experiments were conducted to determine the optimal conditions for those two factors. It was discovered that a solid to liquid ratio of 31 g of buffer per 1 gram of organic dry matter produced the highest reducing sugar release in flasks when combined with 34 mg of protein per 1 gram of organic dry mass. Additionally, another experiment was carried out to investigate the impact of enzymatic pretreatment on biogas production using artificial biowaste as a substrate. Artificial biowaste produced 577,9 NL/kg oDM, while enzymatically pretreated biowaste produced 639,3 NL/kg oDM. This resulted in a 10,6% rise in cumulative biogas production compared to its use without enzymatic pretreatment. By the conclusion of the investigation, specific cumulative dry methane yields of 364,7 NL/kg oDM and 426,3 NL/kg oDM were obtained from artificial biowaste without and with enzymatic pretreatment, respectively. This resulted in a methane production boost of 16,9%. Additionally in case of the reactors with enzymatically pretreated substrate kinetic constant was lower more than double, where maximum volume of biogas increased, comparing to the reactors without enzymatic pretreatment.
Economic growth and ecological problems have pushed industries to switch to eco-friendly technologies. However, environmental impact is still often neglected since production efficiency remains the main concern. Patent analysis in the field of process engineering shows that, on the one hand, some eco-issues appear as secondary problems of the new technologies, and on the other hand, eco-friendly solutions often show lower efficiency or performance capability. The study categorizes typical environmental problems and eco-contradictions in the field of process engineering involving solids handling and identifies underlying inventive principles that have a higher value for environmental innovation. Finally, 42 eco-innovation methods adapting TRIZ are chronologically presented and discussed.
Eingebettete Systeme werden immer komplexer.Dabei werden System-on-Chips (SoC) eingesetzt und spielen eine sehr wichtige Rolle. Unter SoC versteht man „die Integration aller oder eines großen Teils der Funktionen eines Systems auf einem Chip“ [G]. SoCs haben sehr viele Vorteile. Vor einigen Jahren gab es noch riesige Leiterplatten mit Schaltungen, die aus mehreren Schaltkreisen aufgebaut wurden. Heute werden diese auf einem einzigen Chip realisiert. SoCs sind nicht nur sehr kompakt, sondern verbrauchen auch weniger Energie, da einerseitsdie Bauteile näherbeieinander sind, sie andererseits mit besseren Technologien ausgerüstet sind. Heutige SoCs sind so gebaut, dass sie wiederverwendet werden können. Sie bestehen aus mehreren einzelnen Systemkomponenten, um sowohl Kosten, als auch Entwicklungszeit zu sparen. Neben SoCs sind FPGAs (Field Programmable Gate Array) und CPLDs (ComplexProgrammableLogic Devices)sehr beliebte programmierbare Logikbauelemente, die in der Digitaltechnik ihren Einsatz finden. Sie sind die zwei wesentlichen Gruppen von ProgrammableLogic Devices (PLDs), dieexistieren. Sie bestehen hauptsächlich aus FlipFlops, CPLDs weisen sie aber vergleichsweise weniger auf. FPGAs sind komplexer als CPLDs. In der Hardware wird die Implementierung von arithmetischen Funktionen wie Addierern, Subtrahierern und Multiplizierern teilweise unterstützt. FPGAs sind aus diesem Grund die passenden Bauelemente zur Realisation von Anwendungen wie digitalen Signalverarbeitungssystemen oder Mikroprozessorsystemen.Die größten Hersteller von FPGAs sind Altera und Xilinx. Ein anderes aktuelles Thema sind die Bussysteme in Chips. Aufgrund der Komplexität der oben beschriebenen System-on-Chips, bestehen sie auch aus immer komplexeren Baugruppen, wie Prozessoren, Speichern oder auch Interfacecontrollern. Bussysteme werden zur Verbindung dieser Baugruppen eingesetzt. Je nach Baugruppe-Interfaces werden unterschiedliche Bussystem verwendet. Diese Bussysteme sind mit speziellen Spezifikationen dotiert, die aus diversen Anforderungen folgen. Einheitliche Standards sind daher wichtig. Unter anderen sind Bussysteme wie AMBA, Wishbone und CoreConnect häufig in FPGAs eingesetzt. Ihr Vorteil liegt an Ihren standardisierten Schnittstellen. Auf diese Bussysteme wird ins Detail in Kapitel 2.1 eingegangen. Zu der Familie von AMBA-Bussen gehört der AXI-Bus.Die vorliegende Arbeit beschäftigt sich mit dem AufbaueineswiederverwendbarenMasters, der aufAXI4-Protokoll basiert ist. Dieser sollte zunächst als Ethernet-Master eingesetzt werden, um Burst-Transaktionen zwischen dem Ethernet MAC und einemSpeicher zu ermöglichen, wird aber in anderen Projekten wiederverwendet.
Im Beitrag wird ein zweistufiges Verfahren für den Entwurf eines Störgrößenbeobachters für lineare, zeitinvariante Systeme vorgestellt. Hierbei wird davon ausgegangen, dass die Beobachterrückführung für den Beobachter ohne Störmodell bereits vorliegt. Es wird dargestellt, wie darauf basierend mit einfachen formelmäßigen Zusammenhängen die Rückführkoeffizienten für den Störgrößenbeobachter ermittelt werden können. Die beschriebene Methode erhöht die Übersichtlichkeit hinsichtlich des Einflusses des Störmodells auf die Beobachterrückführkoeffizienten und ist außerdem für Modelle mit geringer Systemordnung rechenzeitsparender.
Als Fortsetzung des FHOP-Projektes wurde an der Fachhochschule Offenburg auf Basis des bestehenden Mikroprozessorkerns im Rahmen einer Diplomarbeit ein Mikrocontroller in ES2-0.7 μm-Technologie entworfen. Der Controller wurde modular aufgebaut mit den Komponenten: FHOP-Mikroprozessor, Buscontroller, Waitstate-Chipselect-Einheit, 16x16 Bit Multiplizierer, 2KB ROM, 256 Byte RAM, Watchdog, PIO mit 16 konfigurierbaren Ports, SIO, 2 Timer und ein Interruptcontroller für 8 Interrputquellen.
Der Chip benötigt bei einer Komplexität von ca. 65400 Transistoren eine Siliziumfläche von etwa 27 mm². Er wurde im September 1996 zur Fertigung gegeben und mittlerweile erfolgreich getestet. Das interne ROM des Mikrocontrollers enthält das BIOS sowie ein Testprogramm. Zur Erstellung der Software steht eine komplette Entwicklungsumgebung zur Verfügung. Sämtliche Komponenten stehen im FHOP-Design-Kit in Kürze zur Verfügung.
Im Frühjahr 1995 entstand die Idee, einen Lottozahlengenerator als Demonstrations- und Studienobjekt, für die Anwendung komplexer digitaler Entwurfsmethoden, zu entwerfen. Mit Hilfe der Schaltung ist es möglich, 6 verschiedene Zahlen zufällig aus 49 Zahlen zu ermitteln. Bei der Ziehung der einzelnen Zahlen werden verschiedene Töne und Melodien erzeugt. Die Schaltung ist so konzipiert, daß eine einfache Bedienung möglich ist. Der Chip wurde als Standardzellen-Entwurf mit einer Fläche von ca. 7 um² geroutet.
Die Elektronikindustrie bietet für die Realisierung digitaler Logik eine Vielzahl integrierter Bausteine an, die ein Höchstmaß an Zuverlässigkeit als auch Integrationsdichte ermöglichen.
Je nach Integrationsdichte unterscheidet man hierbei zwischen Standardlogik (TTL,CMOS,DTL...), programmierbarer Logik (PLA, GAL...), Gate Arrays und ASIC-Bausteinen. Mit steigender Integrationsdichte werden Systemeigenschaften verbessert, wie Leistungsverbrauch, Platzbedarf, und Zuverlässigkeit.
Jedoch steht ihr auch ein stark erhöhter Kosten- und Entwicklungsaufwand gegenüber, der den Einsatz hochintegrierter Bausteine in Einzelfertigung bzw. Kleinserien verhindert.
Xilinx bietet nun mit seiner LCA-Produktreihe (logic cell array) eine Alternative zu bestehender hochintegrierbarer Logik an, mit der es möglich sein soll, Vorteile der genannten Einzelproduktgruppen zu übernehmen, und deren Nachteile zu beseitigen.
Im Rahmen einer Diplomarbeit wurde ein solcher LCA-Baustein (XC3020) eingesetzt. Anhand der gegebenen konkreten Anwendung konnte hierbei untersuch twerden, wie schnell sich ein solcher Baustein in bestehende Hardware eingliedern läßt, und welche Integrationsdichte er ermöglicht.
Im Folgenden sollen nun als Schwerpunkte das Einsatzgebiet, die Entwicklung und die Simulation des LCA bei vorliegender Aufgabenstellung aufgezeigt werden.
Bei bimodaler Cochlea-Implantat-/Hörgerät-Versorgung kann es aufgrund seitenverschiedener Signalverarbeitung zu einer zeitlich versetzten Stimulation der beiden Modalitäten kommen. Jüngste Studien haben gezeigt, dass durch zeitlichen Abgleich der Modalitäten die Schalllokalisation bei bimodaler Versorgung verbessert werden kann. Um solch einen Abgleich vornehmen zu können, ist die messtechnische Bestimmung der Durchlaufzeit von Hörgeräten erforderlich. Kommerziell verfügbare Hörgerätemessboxen können diese Werte häufig liefern. Die dazu verwendete Signalverarbeitung wird dabei aber oft nicht vollständig offengelegt. In dieser Arbeit wird ein alternativer und nachvollziehbarer Ansatz zum Design eines simplen Messaufbaus basierend auf einem Arduino DUE Mikrocontroller-Board vorgestellt. Hierzu wurde ein Messtisch im 3D-Druck gefertigt, auf welchem Hörgeräte über einen 2-ccm-Kuppler an ein Messmikrofon angeschlossen werden können. Über einen Latenzvergleich mit dem simultan erfassten Signal eines Referenzmikrofons kann die Durchlaufzeit von Hörgeräten bestimmt werden. Frequenzspezifische Durchlaufzeiten werden mittels einer Kreuzkorrelation zwischen Ziel- und Referenzsignal errechnet. Aufnahme, Ausgabe und Speicherung der Signale erfolgt über einen ATMEL SAM3X8E Mikrocontroller, welcher auf dem Arduino DUE-Board verbaut ist. Über eigens entworfene elektronische Schaltungen werden die Mikrofone und der verwendete Lautsprecher angesteuert. Nach Abschluss einer Messung (Messdauer ca. 5 s) werden die Messdaten seriell an einen PC übertragen, auf dem die Datenauswertung mittels MATLAB erfolgt. Erste Validierungen zeigten eine hohe Stabilität der Messergebnisse mit sehr geringen Standardabweichungen im Bereich weniger Mikrosekunden für Pegel zwischen 50 und 75 dB (A). Der Messaufbau wird in laufenden Studien zur Quantifizierung der Durchlaufzeit von Hörgeräten verwendet.
In der vorliegenden Bachelorarbeit geht es um den Entwurf eines Dauerfestigkeitsprüfstands für Kraftsensoren, deren Messprinzip auf Dehnmessstreifen basiert. Ziel des Dauerfestigkeitsprüfstands ist es, die in der Konstruktionsphase simulierten Ergebnisse für die Dauerfestigkeit der Sensoren nachzuweisen. Erst dadurch sind optimale Verbesserungen der Messkörpergeometrien möglich.
Das Ziel der vorliegenden Arbeit ist es, einen Leitfaden für eine Social Media Strategie für agile Berater*innen in kleinen B2B-Unternehmen zu entwerfen. Diese Strategie wird beispielhaft für die Emendare GmbH & Co. KG angewendet. Aus der Zielsetzung ergibt sich folglich die Fragestellung: „Wie können kleine B2B-Unternehmen der Beratungsbranche und deren agilen Berater*innen Social Media zielführend nutzen?“. Auf Basis einer ausführlichen Literaturrecherche werden zu Beginn alle theoretischen Grundlagen aufgezeigt. Für die Ausarbeitung der Social Media Strategie wird auf eigenständige Recherchen und Analysen mithilfe von Analyse-Tools, Literaturrecherchen und eine unternehmensinterne Online Umfrage zurückgegriffen. Die Literaturrecherche zu Beginn zeigt, dass die Orientierung an einem Planungsprozess für eine effektive Nutzung von Social Media durch Unternehmen unabdinglich ist. Aufgrund dessen wird sich für die weitere Vorgehensweise an dem Planungsprozess von Christopher Zerres orientiert. Dabei werden zunächst in einer Situationsanalyse alle internen und externen Gegebenheiten untersucht. Im Anschluss werden Ziele definiert, Strategien ausgearbeitet und Implementierungsmöglichkeiten aufgezeigt. Letztendlich zeigt die Arbeit, dass die Nutzung von Social Media für kleine B2B-Unternehmen, wie die Emendare GmbH & Co. KG, von großem Nutzen ist, wenn eine strategische Vorgehensweise verfolgt und kontinuierlich kontrolliert wird.
Wie in allen Management-Prozessen braucht man auch bei der Umsetzung von Maßnahmen in Verbindung mit der IT-Sicherheit die Möglichkeit, Entscheidungen möglichst gut fundiert treffen und im Nachgang auch hinsichtlich der Wirksamkeit bewerten zu können.
IT-Sicherheit ist mit - zum Teil sehr hohen - Kosten verbunden. Diese Kosten müssen zum einen wirtschaftlich unter Kosten/Nutzen-Gesichtspunkten zu rechtfertigen sein, zum anderen ist sicherzustellen, dass die Investitionen, die zur IT-Sicherheit getätigt werden, eine möglichst große Wirkung zeigen.
In fast allen Management-Bereichen werden heute Kennzahlen erhoben, die in komprimierter Form Sachverhalte widerspiegeln, die die Entscheidungsträger schnell und objektiv wahrnehmen müssen, um zu richtigen und langfristig wirtschaftlich richtigen Entscheidungen zu kommen. Betriebswirtschaftliche Kennzahlen sind heute fester Bestandteil in allen Management-Ebenen.
Diese Arbeit soll zeigen, auf welche Normen und Standards ein Informationssicherheits-Verantwortlicher, der die umgesetzten Maßnahmen bewerten und das Ergebnis dem Management berichten können möchte, zurückgreifen kann. Darauf aufbauend werden exemplarisch einige Kennzahlen gebildet. Der Schwerpunkt liegt hierbei eher auf technischen als organisatorischen Merkmalen, da die Bildung von organisatorischen Kennzahlen in der Literatur bereits recht gut beschrieben ist.
Die Normen und Standards folgen alle einem ähnlichen Vorgehen bei der Planung und Implementierung eines Kennzahlensystems zur IT-Sicherheit. Gerade technische Kennzahlen haben einen sehr engen Zusammenhang mit klassischen Systementwicklungen. Daher wird erläutert, wie zielgerichtet im Sinne eines Leitfadens vorgegangen werden kann, um ein Kennzahlensystem zu entwickeln, das eine Bewertung der Wirksamkeit von Maßnahmen auch wirklich zulässt.
Das Ziel der vorliegenden Bachelorarbeit war es, die Fähigkeiten des LDC1000 EVM von Texas Instruments (TI) zur hochauflösenden induktiven Distanzmessung, integriert in ein Kraftmesssystem, als Alternative zur Dehnungsmessung mit Dehnungsmessstreifen zu untersuchen. Hierzu wurden zunächst Versuche an einem Wegmessaufbau bezüglich Auflösung, Rauschverhalten und der Qualitätsmerkmale für messtechnische Systeme wie Nullpunktstabilität, Linearität und Hystereseverhalten durchgeführt. Anschließend diente eine entworfene Druckmessdose, mit applizierten Dehnungsmessstreifen als Referenz, zur weiteren Untersuchung der Qualitätsmerkmale und zur Optimierung des LDC1000-Systems. Als Messobjekte zur Abstandsmessung kamen die Werkstoffe AlMgSi0,5, St37, AlCu4Mg1 und 1.4305 verschiedener Geometrien zum Einsatz. Die Ergebnisse bestätigen die Angabe von TI zur Sub-Mikrometer-Auflösung des Systems, ein relativ hoher Rauschanteil beschränkt allerdings die Genauigkeit. Die Resultate der Untersuchungen von Nullpunktstabilität und Hystereseverhalten lassen einen Einsatz im Bereich der Kraftmesstechnik unter gewissen Voraussetzungen zu, das nichtlineare Verhalten der induktiven Wegmessung hingegen macht eine nachträgliche Linearisierung der Messwerte unumgänglich. Diese Bachelorarbeit richtet sich an all diejenigen, die sich detallierter mit Alternativen zur Dehnungsmessung auseinandersetzen oder genauere Untersuchungen zum LDC1000 EVM von TI durchführen.
Diese Arbeit handelt von der Entwicklung zweier zukunfts- und handlungsorientierter e-Learning Module für das Triebwerkswechselgerät „Cobra“. Dabei wird das didaktische Konzept für diese e-Learning Module entwickelt und reflektiert. Dies beinhaltet die Auseinandersetzung mit verschiedenen Lerntheorien und didaktischen Modellen. Neben diesen didaktischen Modellen findet die Instruktionstheorie nach Gagnè eine Anwendung. Um den Wissenserwerb zu prüfen werden Aufgaben unter Berücksichtigung der Taxonomien nach Bloom entwickelt. Ausschnitte aus den e-Learning Modulen geben einen Einblick in die Umsetzung des didaktischen Konzeptes.
Das Ziel dieser Arbeit ist es eine Reihe an Informationen und Erfahrungen zur Verfügung zu stellen, um es der Hochschule Offenburg zu ermöglichen, den Zumi-Roboter für pädagogische Zwecke, speziell für den neu angebotenen Studiengang „Angewandte Künstliche Intelligenz“, einzusetzen. Sie umfasst die Analyse der verbauten Komponenten, Aufschluss über die Bedienoberflächen, die Handhabung des Roboters und Erfahrungsberichte über das Programmieren mit Zumi. Ebenfalls wurden zwei Vorführprogramme konzipiert, welche an Infotagen zur Promotion der Hochschule eingesetzt werden können. Den größten Teil der Arbeit umschließt eine voll ausgearbeitete Laboraufgabe, welche in kommenden Semestern für den bereits angesprochenen Studiengang zum Einsatz kommen und gegen Ende der Arbeit im Detail erläutert wird.
Es wurden verschiedenste Versuche durchgeführt, um die Komponenten zu analysieren und um deren Genauigkeit, Funktionsweise und Verlässlichkeit bewerten zu können.
Diese Arbeit beschäftigt sich mit der Einführung von Digital Asset Management Systemen in einem Unternehmen. Ein Digital Asset Management dient der Verwaltung von digitalen Dateien von besonderer Bedeutung, sogenannte digitale Assets. Meist handelt es sich dabei um Bilder, aber auch Videos, Textdokumente und viele andere Dateitypen können in einem solchen System verwaltet werden. Unternehmen verfolgen dabei in der Regel das Ziel, einen zentralen Speicherort für alle relevanten Assets zu schaffen, um von dort aus die Verteilung steuern und die Dateien aktuell halten zu können. Systeme dieser Art werden beispielsweise in Marketingabteilungen eingesetzt, um Markeninhalte zentral verwalten und verteilen zu können. Die Einführung eines solchen Systems erfordert aufgrund der damit verbundenen Komplexität ein strukturiertes Vorgehen. Hierzu wird in dieser Arbeit ein mehr phasiges Vorgehen vorgeschlagen, das zu einer erfolgreichen Einführung eines Digital Asset Management Systems führt. Darüber hinaus werden auf Basis dieses Phasenansatzes Erfolgsfaktoren identifiziert und vorgestellt, auf die bei der Einführung besonders zu achten ist. Die Fallstudie einer tatsächlichen Einführung aus der Praxis beleuchtet die theoretisch erarbeiteten Erkenntnisse nochmals aus praktischer Sicht und erlaubt Rückschlüsse auf das vorgestellte theoretische Vorgehen.
Die Modellierung von Risikoszenarien ist allgemein und mit Bezug auf Cyberrisiken eine herausfordernde Tätigkeit. Domain-Expertise und Methodenkenntnisse sind erforderlich, um ein Gesamtbild entwickeln zu können. Der vorliegende Beitrag greift auf die Cyber Threat Intelligence und das STIX-Rahmenwerk zurück und verbindet die Ergebnisse mit einer Szenariotechnik.
Diese Bachelorarbeit analysiert die Indie- bzw. Computer- und Videospielbranche genauer und beleuchtet markante Unterschied zwischen klassischen Entwicklerstudios und Indie-Entwicklern. Diese Merkmale fließen in eine PR-Kampagnenerstellung, welche auf die Bedürfnisse und Ausgangssituation von Indie-Entwicklern angepasst ist. Die Arbeit bietet dabei einen weitläufigen Überblick über die Computer- und Videospielbranche, die eigentliche Kampagnenerstellung mit einem Schwerpunkt auf die Umsetzung sowie zukünftige Trends und Herausforderungen für PR-Verantwortliche in diesem Bereich. Dazu zeigen Beispiel aus der Zusammenarbeit mit dem Indie-Entwickler EnterTalement, die praktische Anwendung
In dieser Bachelor-Thesis wird zunächst einmal die Situation der alternden deutschen Gesellschaft aufgezeigt. Besonders berücksichtigt wird dabei die Stadt Villingen, da sich in dieser Stadt der praktische Teil meiner Thesis verortet hat. Die Bedeutung von „Altsein“, bzw. „Altwerden“ und die neuen Anforderungen, die der demografische Wandel für die Gesellschaft mit sich bringt, werden hierbei kurz aufgeführt. Daneben soll deutlich gemacht werden, dass der demografische Wandel neue Bildungsangebote, welche auch mediale Angebote umfasst, fordert. In dem zweiten Teil wird meine praktische Arbeit vorgestellt. Es wird erläutert welche Strategien notwendig sind um ein Medienprojekt für ältere Menschen anzubieten sowie welche didaktischen und methodischen Arbeitsschritte sinnvoll sind. Die Überlegungen, die ich in meiner theoretischen und praktischen Arbeit anstelle, sollen dazu dienen, der Senioren-Radiogruppe im Kirchenbezirk Villingen soviel Knowhow zu vermitteln, dass sie am Ende meiner Arbeit autonom Hörbeiträge produzieren und diese auf eine Homepage hochladen können.
Diese Bachelor-Thesis befasst sich mit der Entwicklung eines Torsomodells, das zur Simulation von Herzkatheteruntersuchungen mit Hilfe von projektorbasierter erweiterter Realität verwendet werden soll. Das zu erstellende Modell beinhaltet ein Herz sowie eine Leistenarterie, welche zum Herzen führt. Aufgrund des zur Verfügung stehenden Budgets konnte lediglich das Herzmodell als 3D-Druck realisiert werden, jedoch nicht das Torsomodell. Hierfür wurde eine Schaufensterpuppe verwendet, da diese zusätzlich zum Kostenpunkt leicht in der Bearbeitung war.
Die vorliegende Bachelor-Thesis ist bei der Firma AUMA in Müllheim in der Abteilung Testingentstanden.
Diese Arbeit ist in zwei Teile unterteilt. Im ersten Teil wird näher auf den Entwurf eines Motorenprüfstands und dessen Realisierung eingegangenen, während sich der zweite Teil damit befasst, wie dieser für die Ausbildung – und die Einarbeitung in Mess- und Steuerungstechnik – von Auszubildenden genutzt werden soll. In diesem Versuchsaufbau wird vorrangig ein Gleichstrommotor getestet.
Die Begründung für die Erstellung eines Motoren-Bremsprüfstands liegt darin, dass es eine der Hauptaufgaben der Abteilung Testing ist, in Labor-Prüfeinrichtungen Antriebe der AUMA Gruppe zu testen. Diese Prüfeinrichtungen arbeiten in der Regel mit gefährlichen Spannungen und dürfen nur von Fachkräften in Betrieb genommen werden. In Zukunft sollen Auszubildende im Zuge einer praxisnahen und handlungsorientierten Ausbildung die Möglichkeit haben, sich selbstständig in die Bereiche der Mess- und Steuerungstechnik einzuarbeiten.
Mit dem realisierten Motoren-Bremsprüfstand ist es in der Abteilung Testing möglich, in Zukunft Auszubildende ressourcenschonend und in einem gefahrenfreien Umfeld in die Aufgaben der Abteilung Testing einzuarbeiten. Somit reduziert sich die benötigte Einarbeitungszeit, in der ein Mitarbeiter die Auszubildenden betreuen muss. Mit dem gebauten Prüfstand können Auszubildende die Charakteristik eines Gleichstrommotors verstehen und die Messmethoden, zur Erfassung von Drehmoment, Drehwinkel, Temperatur, sowie elektrische Größen, anwenden. Diese Erkenntnisse lassen sich optimal auf größere Prüfstände übertragen und bereiten die Auszubildenden auf spätere Aufgaben im Unternehmen AUMA und der Abteilung Testing vor.
Entwicklung und Realisierung eines Konzepts zur Erweiterung des Messbereichs einer Druckmesszelle
(2022)
Die Messung, von Prozessdrücken in industriellen Anlagen, ist heutzutage nicht mehr wegzudenken. Hierbei können während des Betriebs gelegentlich ungewollte Überdrücke auftreten, welche über dem Messbereich der eingesetzten Sensorik liegen. Mit den bisher bekannten Drucksensoren können solche Überdrücke daher nicht detektiert werden. Ziel dieser Arbeit ist die Entwicklung eines Konzepts, welches eine Messbereichserweiterung hervorbringt. Mit diesem sollen Drücke bis zu einer messbereichsspezifischen Grenze detektiert werden können.
Im ersten Schritt werden die Kapazitäten der Messzellen der aktuell bestehenden Sensorelektronik aufgenommen und ausgewertet. Aufgrund der Verläufe der gemessenen Kapazitäten, wird der Fokus auf die Auswertung der Referenzkapazität gelegt. Anschließend folgt das Approximieren des Verlaufs der Referenzkapazität durch geeignete mathematische Funktionen und das Entwickeln eines messbereichsübergreifenden Algorithmus. Hierfür wird die Methode der kleinsten Fehlerquadrate angewandt. Nachdem sich ein vielversprechendes Fitting, mittels zwei Polynomen herauskristallisiert hat, erfolgt die softwareseitige Implementierung des Algorithmus für einen Mikrocontroller auf der Sensorelektronik. Im letzten Teil der Arbeit werden Testmessungen durchgeführt, um die approximierten Polynome zu validieren.
Am Ende der Arbeit entsteht eine funktionierende Messbereichserweiterung zur Detektion von Drücken im Überlastbereich. Hierbei wird eine verhältnismäßig hohe Genauigkeit mit wenigen zusätzlichen Messpunkten erzielt.
Im ersten Teil der vorliegenden Master-Thesis geht es um die Entwicklung einer Low-Power Wireless-Lichtschranke. Der Hardware-Aufbau wird ausführlich beschrieben und Besonderheiten für die Low-Power-Auslegung, wie beispielsweise Power-Management, werden vorgestellt. Optische Einheiten, Power-Management-Einheiten, System-On-Chip und Funkstufe werden ausführlich angesprochen. Die interrupt-gesteuerte und zeitlich optimierte Programmierung wird im Anschluss an den Hardware-Aufbau vorgestellt. Auch hier werden Low-Power-Eigenschaften diskutiert. Die Anbindung der Lichtschranke an einen Hub im 868 MHz ISM Band (engl.: Industrial, Scientific and Medical Band) und die Datenübertragung mittels Bluetooth an einen Computer, sowie die Programmierung einer Anzeige-GUI zur Visualisierung der Funkdaten mit LabVIEW werden weiterführend behandelt. Ergänzend hierzu wird die entwickelte Hardware vermessen und charakterisiert. Die Messergebnisse werden ausgewertet und vorgestellt.
Im zweiten Teil der Master-Thesis geht es um die Entwicklung eines Schulungskonzepts. In der Sick AG halten sich alle Abteilungen (Divisions) beim Entwickeln eines Produktes an einen vorgegebenen Produktentstehungsprozess. Division 1 hat im Rahmen dieses Produktentstehungsprozesses eine Konkretisierung vorgenommen: den Masterplan. Für die Einführung des Masterplans wurde ein teilnehmerorientiertes Schulungskonzept entwickelt. Es wird zuerst auf die Inhalte eingegangen. Im Anschluss werden die Teilnehmer untersucht und Motive und Lernvoraussetzungen charakterisiert. Nachdem diese und weitere Rahmenbedingungen geklärt sind, wird ein didaktisch durchdachtes Schulungskonzept entwickelt, ausführlich vorgestellt und diskutiert.
Die Firma HYDRO Systems KG ist ein weltweit anerkanntes Unternehmen für Luftfahrt-Bodengeräte. Um im Wettbewerb mithalten zu können und die weltweit führende Position im Bereich der Luftfahrt-Bodengeräte weiter ausbauen zu können, muss die Firma HYDRO Systems KG ihre Produkte ständig verbessern und ausbauen. Dazu zählt auch eine Neuentwicklung des Hebeadapters zur Anwendung bei dem Triebwerkswechselsystem COBRA.
Hebeadapter dienen als Verbindungsglied zwischen dem Hubsystem COBRA und den Trieb-werksständen. Sie sind zwingend notwendig um die Triebwerksstände für den Ein- und Ausbau der Triebwerke anheben zu können. Aktuell reicht die Vielfalt von Einschiebe-Adaptern über mehrteilige Adapter-Kits bis hin zu klappbaren Lösungen. Für viele Triebwerksstände gibt es bereits Lösungen, mit denen das Hubsystem COBRA mit dem Triebwerksstand verbunden werden kann. Jeder Hebeadapter kann für mehrere Kombinationen zwischen Triebwerk und Triebwerkstand benutzt werden, jedoch betrifft dies nur eine geringe Anzahl von Kombinationen pro Hebeadapter. Um diese Vielfalt einzugrenzen, muss eine Universallösung gefunden werden. Die Universallösung soll auch als Anreiz für Kunden dienen, da mit ihr sowohl die Familie A320 von Airbus, wie auch die Familie B737 von Boeing bedient werden können, die aktuell das Duopol im Bereich der Narrow-Body-Flugzeugtypen haben.
Diese Bachelor-Thesis beschäftigt sich deshalb mit der Entwicklung und Konstruktion eines universellen COBRA-Hebeadapters zur Anwendung an möglichst allen Flugzeugen des Typs Narrow-Body. Zur Beschreibung der Anforderungen an den Hebeadapter werden im Rahmen der Ausarbeitung Normen analysiert und dokumentiert, woraus wiederum eine Anforderungs-liste (Compliance Matrix) erstellt wird. Mithilfe der VDI-Richtlinie 2225 wird eine Variantenbewertung zu den Konzepten durchgeführt. Dadurch lässt sich die Beste der gefundenen Lösungen ermitteln. Ebenfalls wird eine Auswertung zur Universalität des Hebeadapters gefahren. Im Rahmen der Auswertung werden auch Kollisionsprüfungen aufgezeigt.
Diese Arbeit beschreibt darüber hinaus nicht nur das Ergebnis der Ausarbeitung; auch die nötigen Grundlagen werden erläutert, z. B. wie das Hubsystem COBRA funktioniert oder was Flugzeuge des Typs Narrow-Body ausmachen.
Die vorliegende, schriftliche Dokumentation befasst sich mit der Entwicklung, Konstruktion und Ausarbeitung eines speziellen Sonderbetriebsmittels im Bereich der Umformtechnik.
Aus Gründen der Materialersparnis soll ein Stanzwerkzeug zur Herstellung von asymmetrischen Blech-Rohlingen dahingehend optimiert werden, dass die Schneid-Elemente pro Ar-beitsgang eine Drehung um 180° durchführen können. Durch diese Maßnahme soll erreicht werden, dass zwischen den ausgeschnittenen Rohlingen weniger Abfallmaterial anfällt, wo-durch Materialkosten im laufenden Fertigungsprozess eingespart werden können.
Die Arbeit beinhaltet das systematische Erfassen von Anforderungen und prozessbedingten Gegebenheiten, die Erarbeitung von Lösungskonzepten, sowie das Ausarbeiten eines aus-gewählten Konzepts als detaillierte Konstruktion. Letztgenannte umfasst das Erstellen funktions- und fertigungsgerechter Einzelkomponenten und Baugruppen, die Auslegung und Auswahl benötigter Zukauf-Komponenten, sowie das Ableiten fertigungsgerechter technischer Zeichnungen.
Als Nachweis der Funktion der erarbeiteten Vorrichtung werden sowohl eine Bewegungssimulation, als auch entsprechende Nachweisrechnungen der Bauteilfestigkeit unter Berücksichtigung wirkender Prozesskräfte durchgeführt.
Resultat dieser Arbeit ist eine erwiesenermaßen funktionsfähige Konstruktion, die sämtliche von Seiten des Auftraggebers gestellten Anforderungen erfüllt.
Das Projekt „Tilty“ befässt sich mit der Konstruktion eines Speed- Pedelecs. Dieses verfügt über eine Vorderachse mit 2 Rädern und Neigemechanismus. Hinten besitzt es ein Rad. Der Sitz dieses Fahrzeuges sollte ein Fahren in aufrechter Sitzhaltung ermöglichen. Dabei ist der Sitz auf derselben Höhe wie bei einem Auto, um im Straßenverkehr besser wahrgenommen werden zu können als bei einem Liegefahrrad. Ein Ziel dieser Arbeit war es, einen Sitz unter Berücksichtigung der Physiologie eines Menschen zu konstruieren. Die Position der Kurbel war ebenso ein zentrales Thema dieser Arbeit. Dabei spielte der sogenannte runde Tritt eine wichtige Rolle. Beide Komponenten mussten ebenfalls gemeinsam betrachtet werden um eine Aussage treffen zu können. Die Lenkung und damit die Position der Arme sind auch von Bedeutung. Die Konstruktion dieser Lenkung übernimmt eine Masterstudentin, daher ist die Lenkung nur ein Randthema. Eine Aussage über die Position der Arme konnte ebenfalls aufgrund der physiologischen Parameter getroffen werden.
Das Ziel dieser Arbeit ist die technische Konstruktion eines Prototyps für einen Kopf-und Rumpfsimulator aus dem 3D-Druck mit integriertem Zwei-Kanal-System zur Freifeldmessung akustischer Signale. Die akustischen Eigenschaften sind abhängig von der anatomischen Geometrie eines menschlichen Schädels und des Gehörs, somit soll die Konstruktion des Prototyps möglichst realitätsgetreu nachgeahmt werden. Der Prototyp soll technische Anforderungen wie den Ein- und Ausbau von unterschiedlichen Mikrofonen und Pinna-Modellen gewährleisten.
In dieser Abschlussarbeit wurden die vorgenommen Ziele seitens der Projektaufgabe im Rahmen der Bachelor-Thesis erfüllt. Hierbei wurde der Ist-Zustand des UniAuSter´s aufgenommen und technisch hinterfragt. Zusätzlich wurden die Grenzen der mechanischen Lösung aufgezeigt und mögliche Ursachen erläutert.
Des Weiteren konnten auf Grundlage der Berechnungen die Taktzeiten bestimmt und daraufhin über die Recherche eine Auswahl des Magnetventils getroffen werden, welches den zuvor ermittelten Anforderungen entspricht. Diese sind zum einen die einfache Anpassung der Taktgeschwindigkeit über eine Maschinensteuerung und die Möglichkeit, bis zu 30.000 Flaschen pro Stunde auszuschleusen.
Der vorgegebene maximale Bauraum, wurde trotz zusätzlich erforderlichen Komponenten nicht überschritten. Hierbei wurden Lösungen in der elektrischen sowie der pneumatischen Versorgung entwickelt. Weiterführend kann durch den Ringverteiler eine optimale Druckluftversorgung durch den integrierten Druckregler realisiert werden, Er ist durch seine Konstruktionsweise für die Anlage kein Störfaktor, sondern dient zusätzlich als Verschlauchungsführung.
Für den weiteren Verlauf des Projekts werden die konstruierten Komponenten weiter ausgearbeitet und die noch nicht vorhandenen technischen Zeichnungen erstellt . Zusätzlich wird eine endgültige Lösung für die Signalverarbeitung der Magnetventile über eine elektrische Drehdurchführung entwickelt. Um die gesamte Konstruktion auf ihre Funktion prüfen zu können, wird von der Hochschule Offenburg zusammen mit dem Projektpartner Kematec, ein Prototyp in naher Zukunft erstellt.
Mit der beim Fraunhofer IPM erforschten Digitalen Holographie können sekundenschnelle und sub-mikrometergenaue Höhenvermessungen von Oberflächen durchgeführt werden. Der am Institut verfügbare Sensor HoloTop NX ist dabei so kompakt und leicht, dass dieser über Koordinatenmessgeräte oder Werkzeugwechsler von Werkzeugmaschinen eingesetzt werden kann. Um auch Hinterschneidungen und große Innenzylinder vermessen zu können, wird im Rahmen dieser Arbeit eine selbstreferenzierende Umlenkeinheit zur Anpassung der Messrichtung des Sensors entwickelt und integriert. Die Umlenkeinheit setzt sich aus vielen funktionellen Bestandteilen zusammen, bei denen es sich um Spiegel, Schrittmotoren, Schleifringe, Zahnräder, Gleit- und Rillenkugellager handelt. Bei der Problembehandlung während der Montage werden Unstimmigkeiten analysiert und anschließend Lösungsoptionen ermittelt und umgesetzt. Über die zusammengestellte Steuereinheit und die Arduino-Plattform wird die Möglichkeit geschaffen, die integrierten Schrittmotoren gezielt anzusteuern. Referenzmarkierungen auf dem Spiegel ermöglichen mittels numerischem Fokussieren die Selbstreferenzierung der Umlenkeinheit – sie werden durch Sputtern erzeugt und bei Messungen erprobt. Abschließend wird bei der Charakterisierung des Systems der Einfluss von Schrittverlusten, Schrittfehlern und dem Spiel im Zahnrad und Kugellager auf die Positioniergenauigkeit der Umlenkeinheit untersucht.
Die Arbeit befasst sich mit der Inbetriebnahme eines Batteriemanagementsystems des asiatischen Herstellers „LLT Power“ zur Verwendung im batterieelektrisch betriebenen Hocheffizienzfahrzeug der Hochschule Offenburg (Schluckspecht S6). Zudem wird eine Adapterplatine entwickelt, gefertigt und getestet, die per Schalter wahlweise einen Bluetooth- oder USB-Zugriff auf die UART-Schnittstelle des BMS ermöglicht. Gleiches gilt für die im Fahrzeug eingesetzte Spannungsversorgungsplatine die sowohl die Hupe als auch die Leistungselektronik versorgt. Darüber hinaus wird im Rahmen dieser Arbeit auf diverse Programme und Arbeitsschritte eingegangen, die für den Entwicklungsprozess benötigt wurden. Exemplarisch wird das Vorgehen bei der Auswahl der Komponenten sowie der Bestellprozess der Platine aufgezeigt. Auf den Entwurf der zugehörigen 3D-Modelle, die für die Konstruktion der Gehäuse herangezogen werdenkönnen wird ebenso wie auf die Fertigung der Platine eingegangen. Abschließend wird der Projektverlauf resümiert und ein Ausblick auf zukünftige Entwicklungsmöglichkeiten gegeben
In dieser Arbeit wurde ein Getriebesteuergerät für ein Zweigang-Schaltgetriebe entwickelt. Dieses soll sowohl im manuellen als auch im autonomen Fahrbetriebe des Schluckspecht 5 einen Gangwechsel mittels eines Elektromotors ermöglichen. Da für den autonomen Fahrbetrieb eine rechnergestützte Ansteuerung der Drosselklappe erforderlich ist, wurde auch der Anschluss eines dafür gedachten Servomotors vorgesehen und die Auswertung des Motordrehzahlsensors realisiert. Für die eigentliche Getriebesteuerung wurden ein Raddrehzahlsensor, ein Getriebeeingangsdrehzahlsensor, Endlagensensoren für die beweglichen Teile sowie ein Stromsensor zum Schutz des Elektromotors und des Motortreibers vor thermischer Überlastung an den ausgewählten Mikrocontroller angeschlossen und der notwendige Source-Code zur Auswertung bzw. Ansteuerung geschrieben. Darüber hinaus wurden Zustandsautomaten für die Elektromotor- und die Getriebesteuerung vorbereitet.
In den letzten Jahrzehnten haben permanentmagneterregte Synchronmaschinen und deren Regelung immer mehr Einzug in industrielle Applikationen erhalten. Durch die weltweit wachsende Elektromobilität partizipiert das Automobil an deren fortschreitenden Einsatzmöglichkeit.
Die Modellierung eines physikalisch-technischen Systems ist ein wichtiger Bestandteil in der Entwicklung einer Regelung. Inhaltlich setzt sich die Abschlussarbeit mit dieser Vorgehensweise für eine 6-phasige permanentmagneterregte Synchronmaschine auseinander. Durch die doppelte Anzahl an Statorwicklungen existieren unter anderem zwei verschiedene Wicklungskonzepte, wie eine elektrische Maschine aufgebaut sein könnte. Beide Wicklungskonzepte, bei dem entweder eine volle magnetische Kopplung oder keine magnetische Kopplung der betrachteten Teilsysteme vorliegt, werden untersucht. Ziel der Masterthesis ist es, eine mathematische Grundlage für die Modellbildung einer 6-phasigen permanentmagneterregten Synchronmaschine herzuleiten, um darauf aufbauend eine feldorientierte Regelung zu entwerfen. Wie in der industriellen Antriebstechnik gebräuchlich, erfolgt die Regelung in einem rotierenden Koordinatensystem. Die Stromregelung basiert auf einen zeitkontinuierlichen PI-Regler samt Spannungsbegrenzung und einer Anti-Windup-Struktur. In der Ausarbeitung wird mithilfe zweier Simulationsmodelle bewiesen, dass sowohl das mathematische Modell einer 6-phasigen permanentmagneterregten Synchronmaschine als auch deren Regelung simulationstechnisch die erwarteten Resultate liefern.
Entwicklung und Implementierung einer Methode zur Funktions- und Verschleißprüfung von Sägeanlagen
(2019)
Die Firma KASTO Maschinenbau produziert Lagersysteme und Sägemaschinen und möchte in Zukunft mit Hilfe von prädiktiver Wartung einen Mehrwert für den Kunden, die firmeneigenen Servicetechniker und die Inbetriebnehmer generieren. Für diesen Weg in Richtung prädiktive Wartung werden in der vorliegenden Arbeit, zunächst mittels Recherche, Grundlagen definiert. Die anschließende Analyse verschiedener Bauteile und Baugruppen in der Lagertechnik und im Sägemaschinenbau führt zur Konkretisierung der Umsetzungsmöglichkeiten.
Im weiteren Verlauf der Arbeit werden die verschleißkritischen Bauteile eines KASTOwin-Bandsägeautomats behandelt. Durch die Analyse der einzelnen Verschleißformen und -erscheinungen an dessen Komponenten können Parameter zur Verschleiß-überwachung ermittelt werden. Die Überwachung dieser Prozesse soll dabei mit bestehender Sensorik durchgeführt werden und beschränkt sich deshalb hauptsächlich auf die Messeinrichtung der Frequenzumformer. Für die Komponenten Sägebandantrieb, Sägevorschubantrieb, Materialvorschubantrieb, Bandverlaufsensor, sowie das Hydrauliksystem werden entsprechende Methoden zur Funktions- und Verschleiß-prüfung ausgearbeitet.
Auf Basis dieser Methoden wird dann die Implementierung in Form eines SPS-Programms und einer dazu passenden, grafischen Benutzeroberfläche durchgeführt. Das bestehende SPS-Programm und die Benutzeroberfläche werden durch zusätzliche Programmteile ergänzt. Sämtliche Ergänzungen sind portabel und modular ausgelegt, sodass diese problemlos auch in anderen Sägemaschinen ergänzt werden können. Um kritische Verschleißsituationen nach deren Eintritt zu analysieren und daraus Schlüsse im Sinne der prädiktiven Wartung zu ziehen, ist die Sicherung aller Langzeitdaten von enormer Bedeutung. Da der remanente Speicher der SPS jedoch begrenzt ist, werden sämtliche Daten über die Visualisierung gesichert. Alle aufgenommen Daten werden sowohl grafisch als auch in Form von Werten visualisiert und können dem Kunden und Servicetechniker, sowie dem Inbetriebnehmer Aufschluss über den Zustand der Komponenten geben.
Letztlich werden die implementierten Abläufe an einer Vorführmaschine getestet. Es kann dabei die Funktion sämtlicher Prüfungen bestätigt werden
Das Lokalisationssystem besteht aus einem Anwender-PC mit Bluetooth-Adapter, einem Lautsprecherkreis sowie einem Tablet. Eine Funktion im Programm Matlab auf dem Anwender-PC dient zur Eingabe der Steuerparameter, welche in einer Textdatei an eine Schnittstelle, die ebenfalls auf dem Anwender-PC installiert ist, übergeben und via Bluetooth an eine native App auf einem Tablet gesendet wird. Die Schnittstelle wurde mithilfe der IDE Eclipse mit der Programmiersprache Java erstellt und kann unter der Bedingung, dass auf dem verwendeten PC JRE Version 1.8.0 oder jünger vorinstalliert ist, systemunabhängig ausgeführt werden. Je nach gesendeten Parametern wird eine von sechs möglichen GUIs auf dem Bildschirm des Tablets angezeigt, welche die Anordnung der Lautsprecher im Audiometrieraum wiedergibt. Nach dem Schallereignis hat der Proband die Möglichkeit, je nach gewählter GUI, einen von sieben bzw. zwölf angezeigten Lautsprechersymbolen oder einen beliebigen Punkt auf dem Bildschirm anzutippen. Diese Eingabe entspricht der Richtung, welche der Proband als Schallquelle lokalisierte. Nach Eingabe der Probandenantwort wird diese via Bluetooth an die Schnittstelle und somit an Matlab gesendet, wo die Antwort ausgewertet werden kann.
In dieser Arbeit werden 3D-Scanner, deren verschiedene Funktionsarten und Einsatz-möglichkeiten vorgestellt. Ein besonderes Augenmerk liegt hierbei auf medizinischen Anwendungen.
Außerdem wird eine programmierte Ansteuerung in C++ eines 3D-Scanners vom Typ Artec Eva demonstriert. Hierbei werden die mit Qt erstellte GUI und Teile des Quellcodes vorgestellt und erklärt. Ziele der Programmierung waren, außer der Ansteuerung in C++ eine Darstellung mit Hilfe des Visualization Toolkits VTK und es zu ermöglichen, die aufgenommenen Daten auch abspeichern zu können.
Schließlich werden Grundlagen der Kalibrierung und der Koordinatentransformation dargelegt und am Beispiel der Kalibrierung des Artec EVA Scanners exemplarisch aufgezeigt.
Der gesamte Quellcode, welcher im Rahmen dieser Arbeit entstand, ist im Anhang der Arbeit zu finden.
Entwicklung und Evaluierung eines adaptiv-prädiktiven Algorithmus für thermoaktive Bauteilsysteme
(2017)
Der Gebäudesektor ist einer der Hauptverbraucher von Energie und somit mitverantwortlich für einen wesentlichen Anteil an CO2-Emissionen. Heiz- und Kühlkonzepte, die erneuerbare Energiequellen nutzen können, gewinnen daher immer mehr an Bedeutung. Hierfür besonders geeignet sind Niedertemperatursysteme, wie beispielsweise Thermoaktive Bauteilsysteme (TABS). Die große thermische Trägheit und die geringe Leistung dieser Systeme verhindern eine schnelle Reaktion auf Raumtemperaturänderungen. Bisherige Steuer- und Regelstrategien für TABS können nur sehr schlecht mit der thermischen Trägheit umgehen, da diese in der Regel keine Prädiktionen verwenden. Hinzu kommt eine aufwändige Parametrierung dieser TABS-Strategien, was in der Praxis zu Inbetriebnahmephasen von oft mehreren Jahren führt. Die Möglichkeit TABS als einen Kurzzeitenergiespeicher für das durch die wachsende Einspeisung aus fluktuierenden erneuerbaren Energiequellen belastete Stromnetz nutzbar zu machen, spielt bei diesen Standard-TABS-Strategien bisher keine Rolle.
In dieser Arbeit wurde ein neuartiger Algorithmus für die Steuerung von TABS entwickelt, der hier durch die Abkürzung AMLR gekennzeichnet wird. Die AMLR nutzt Vorhersagen der Hauptstörgrößen einer TABS-Zone zur Berechnung eines innerhalb des nächsten Tages zuzuführenden Energiepaketes. Zu den Hauptstörgrößen zählen die tagesgemittelte Außentemperatur, die tagesgemittelte globale Einstrahlung sowie ein Belegungsplan jeder TABS-Zone. Die AMLR verwendet ein dynamisches und ein stationäres Widerstands-Kapazitäten(RC)-Modell mit einem Verzögerungsglied erster Ordnung (PT1). Das stationäre TABS- und Raummodell wird für eine Adaptionsfähigkeit und das dynamische Modell für die zeitdiskrete Berechnung von Leistungen genutzt. Es wird gezeigt, dass die Genauigkeit eines Modells mit PT1-Glied für die Steuerung von TABS ausreichend ist. Durch die Adaptionfähigkeit kann sich der Algorithmus automatisiert an unterschiedliche Gebäude, Standorte und Nutzungsprofile anpassen. Auf die Erstellung eines Gebäudemodells inklusive dessen technischer Gebäudeausrüstung (TGA), der Wärmelasten sowie der Wettereinflüsse kann somit verzichtet werden. Weiterhin können mit der AMLR mittlere Soll-Raumtemperaturen pro TABS-Zone vorgegeben werden, was bei Standard-TABS-Strategien nicht möglich ist. Dem Autor stehen als Testumgebungen zur Evaluierung der AMLR die Triple-Klimakammer des Instituts für Energiesystemtechnik (INES) der Hochschule Offenburg sowie zwei reale Gebäude und deren Simulationsmodelle zur Verfügung. Bei den Gebäuden handelt es sich um das in Basel befindliche IWB CityCenter sowie das Seminargebäude der Hochschule Offenburg.
Mit Hilfe der Triple-Klimakammer werden die verwendeten RC-Modelle sowie das TRNSYS-Simulationsmodell der Kammer selbst validiert. Durch den direkten Vergleich der AMLR zu Standard-TABS-Strategien kann in Model-in-the-Loop (MiL) Simulationen, Laborversuchen und Pilotanlagen gezeigt werden, dass die AMLR insbesondere dann thermische Energie einsparen kann, wenn es bei der Standardstrategie zu Überhitzungen im Heizfall und Unterkühlungen im Kühlfall kommt. Des Weiteren zeigen sich Energieeinsparpotenziale durch die Möglichkeit der zonenspezifischen Beladung der TABS. Anhand von Messdaten einer Pilotanlage kann eine Reduktion des thermischen TABS-Energiebedarfs von über 41 % belegt werden. In allen Testumgebungen kann eine Einsparung an Hilfsenergie von bis zu 86 % für die TABS-Pumpen bei gleichzeitiger Verbesserung des thermischen Komforts nachgewiesen werden. Neben Energieeinsparungen sind durch den Einsatz der AMLR Investitionseinsparungen durch eine vereinfachte TABS-Hydraulik möglich, da keine konstanten Vorlauftemperaturen notwendig sind. Weiterhin kann gezeigt werden, dass die Leistung eines Zusatzkühlsystems durch den Einsatz der AMLR im Vergleich zur Standard-TABS-Strategie reduziert werden kann, ohne den thermischen Komfort zu beeinträchtigen. Anhand von Simulationsrechnungen wird das Potenzial von TABS für Lastverschiebemaßnahmen quantifiziert. Durch die Verwendung der AMLR mit dynamischen Strompreisen ist im gezeigten Beispiel eine Einsparung an monetären Kosten von 38 % möglich. Weiterhin konnten Anfragen zur Abschaltung der Beladung der TABS zum Ausgleich fluktuierender erneuerbarer Energieerzeuger durch die AMLR unter Einhaltung des thermischen Komforts durchgeführt werden.
Da Perturbationen die Hauptursache für Stürze in der Ebene darstellen, befasst sich diese Studie mit der Erzeugung von Gangstörungen unter sicheren Laborbedingungen. Dies hat sich als nützliches Werkzeug im Bereich der Rehabilitation bewährt. Zunächst wurde ein Perturbationstest auf einem instrumentierten Laufband unter Verwendung von Matlab entwickelt. Anschließend wird dieser auf die Präzision und Wiederholbarkeit evaluiert. Hierfür wurden die Parameter Auslöseverzögerung, maximale Laufbandgeschwindigkeit und Abweichung der zu störenden Schritte untersucht sowie der Einfluss der Faktoren Plot, Ganggeschwindigkeit und Perturbationsintensität auf die Parameter bestimmt. Die Auslöseverzögerung liegt bei 0,24 ± 0,004 s und wird maßgeblich von dem Faktor Plot beeinflusst. Die maximale Laufbandgeschwindigkeit liegt bei 3,10 ± 0,03 m/s und wird signifikant von dem Faktor Störungsintensität beeinflusst. Die Abweichung der Schritte beträgt 3,9 ± 3,6 Schritte und wird stark von dem Faktor Plot beeinflusst. Die erreichten Werte sind für Studien mit normalen Ganggeschwindigkeiten und mittlerer Perturbationsintensität ausreichend. Für höhere Belastungen ist eine Überarbeitung des Matlab-Skripts erforderlich.
Das Ziel der vorliegenden Abschlussarbeit war es, ein automatisches Testsystem für die Entwicklung der Embedded-C++-Softwarebibliothek semf zu erstellen. Bei den Software-Modulen die dabei getestet werden, handelt es sich um sogenannte Hardware-Abstraktionen, die die Verwendung der von den Mikrocontroller Herstellern bereitgestellten Hal-Bibliotheken vereinfachen.
Die wohl größte Herausforderung dieser Abschlussarbeit bestand darin, die von dem zu testenden Gerät nach außen gesendeten Nachrichten zu validieren, so wie von außen kommende Nachrichten zu generieren, mit welchem die Leseoperationen des zu testenden Gerätes überprüft werden können. Mithilfe einer Helper-Gegenstelle konnte dies jedoch umgesetzt werden. Das Ergebnis ist ein System mit welchem bestehende und zu entwickelnde Hardware-Abstraktionen zuverlässig, automatisch und effizient validiert werden können.
Diese Abschlussarbeit ist sowohl für Nutzer von semf, als auch für diejenigen Softwareentwickler interessant, die sich für das Testen von eingebetteten Systemen interessieren.
Die Bachelor-Thesis "Entwicklung eines Web-Portals für M+I-Studierende" befasst sich mit der Entwicklung des Studierendenportals MI-Complete der Fakultät M+I der Hochschule Offenburg. In den üblichen Arbeitsschritten (Analyse, Konzeption, Umsetzung, Evaluation, Ausblick) wird darin der Werdegang des neuen Studierendenportals MI-Practix beschrieben.
Videokonferenzen, überregionale Teamarbeit und ständig mögliche Kommunikation: Durch den in den letzten Jahrzehnten vorangetriebenen technischen Fortschritt sind die Möglichkeiten, global vernetzt zu arbeiten immer weiter gestiegen. Auch die Digitalisierung von Organisationen und die globale Wirtschaft erfordern durch den damit einhergehenden Wandel an Wettbewerb eine verstärkte und sogar notwendige Auseinandersetzung mit virtuellen Unternehmens- und Arbeitsstrukturen. So ergibt sich die Notwendigkeit, virtuelle Teambildung und die damit verbundenen Strukturen zu beleuchten. Ziel dieser Arbeit ist es, ein Modell zur virtuellen Teamentwicklung zu erarbeiten, das als Planungsrahmen für digitale Führungskräfte dienen soll.
Hersteller von Laufschuhen versprechen ihren Kunden Schuhe, die einen durch gezielte Energierückgabe der Mittelsohlen oder durch eine optimale Dämpfung bei der sportlichen Leistung unterstützen. Als aktueller Teststandard für das Materialreaktionsverhalten von Sportschuhen gilt der ASTM F1976. In diesem Test werden die Schuhe durch einen wiederholten Impulstest untersucht. Allerdings weder Rücksicht auf die zurückgelegte Distanz, noch auf variierende Körpergewichte genommen. In dieser Arbeit wird ein Messverfahren entwickelt, das Sportschuhe über eine simulierte Marathondistanz in Bezug auf die verarbeitete Energiemengen und das Verändern der Festigkeit analysiert. Es wurde ein Schuh der „Ghost“-Reihe der Firma „Brooks“ mit Hilfe einer elektro-dynamischen Prüfmaschine LMT10 der Firma Zwick/Röll zwei Mal im Bereich des Rückfußes mit zwei verschiedenen Lasten analysiert. Die Einstellungsparameter sind recherchierte Durchschnittswerte, die einen erwachsenen Europäer darstellen. Es hat sich herausgestellt, dass ein um 20% geringeres Körpergewicht eines Läufers nicht eine äquivalente geringere umgesetzte Energiemenge bedeutet. Im Vergleich zu der Messung des schwereren Läufers wurden lediglich 65% der Energiemenge umgesetzt. Darüber hinaus nimmt die Festigkeit der Mittelsohle bei der Messung mit 20% weniger Last kontinuierlich ab, wobei sie bei der Messung mit 100% im letzten Drittel der Messung wieder zunimmt. Als Gründe für dieses Verhalten wurden das nichtlineare Reaktionsverhalten von EVA-Schäumen und das anfängliche Verbessern der Gleitfähigkeit der Polymerketten festgestellt.
Diese Bachelorarbeit behandelt die Konstruktion eines Vakuumtisches, welcher zum Fixieren dünner, flexibler Materialien in Lasermaschinen verwendet wird. Das Hauptaugenmerk der Arbeit liegt auf der methodischen Konstruktion des Vakuumtisches, welche anhand einer detaillierten Anforderungsliste erfolgt. Es wird eine Konzeptidee ausgearbeitet, welche den preislichen Rahmen nicht einhalten kann. Durch Vereinfachung der in der Baugruppe enthaltenen Komponenten wie auch der physikalischen Wirkprinzipien in der Baugruppe kann in einem zweiten Konzept eine deutlich preiswertere Konstruktion realisiert werden. Anhand eines Prototypen wird die Funktion und das Verhalten des Vakuumtisches erprobt und bewertet.
Entwicklung eines unabhängigen Systems zur Verstellung schiebergesteuerter Werkzeuge im Prozess
(2024)
Die Aufgabenstellung der Arbeit beinhaltete das Ausarbeiten eines unabhängigen Antriebssystems für Werkzeuge mit verstellbaren Schneiden. Hierbei bestand der Antrieb der Werkzeuge bisher aus einem rein mechanischen Anstriebsflansch. Dieser hat durch eine Drehspindel die rotatorische Bewegung der Maschinenspindel zu einer axialen Bewegung der Zugstange umgewandelt. Da die mechanische Drehspindel nicht in jeder Maschinenspindel vorhanden war, konnten die Werkzeuge von LMT Kieninger nur beschränkt eingesetzt werden. Aus diesem Grund sollte ein Antriebssystem entwickelt werden, welches auf jedem Bearbeitungszentrum unabhängig von der Maschinenspindeltechnologie eingesetzt werden konnte.
Für die Entwicklung des unabhängigen Antriebsflansches wurde zunächst eine Marktanalyse durchgeführt. Diese vergleichte bestehende Lösungsansätze auf dem Markt miteinander und untersuchte, welche davon für ein eigenes Lösungskonzept infrage kam. Hierbei wurde insbesondere der Antrieb, der die Bewegung erzeugen sollte, die Übergabe des Steuersignals und die Energieversorgung betrachtet. Ein vielversprechendes Lösungskonzept, das den vorliegenden Anforderungen entsprach, war eine elektrische Antriebsvariante mit einer Akkueinheit und einer Funksteuerung.
Um die elektronischen Komponenten in den bestehenden Antriebsflansch zu integrieren, mussten die Prozessparameter bestimmt werden. Dafür wurde ein Werkzeug als Referenz verwendet, das zum Ausspindeln der Laufflächen von Zylinderbuchsen verwendet wurde. In diesem Werkzeug befanden sich unterschiedliche Bauteile, welche den Mechanismus der Schneidenverschleißkompensation ermöglichten und die Drehbewegung des Antriebsflansches in den Verstellweg der Schneiden umsetzte. Unter Berücksichtigung der Bauteile sowie der vorhandenen Reibung und Verluste ergab sich ein Drehmoment, welches benötigt wurde, um die Schneiden zu verstellen. Nach der rechnerischen Ermittlung des benötigten Drehmoments konnte ein Kompaktantrieb von Maxon vorgeschlagen werden. Dies erfolgte unter Berücksichtigung der Anforderungen an den verfügbaren Bauraum, die Energieversorgung und die Akkueinheit. Dieser Kompaktantrieb bestand aus einem Motor, einem Planetenradgetriebe, einem Hall-Sensor zur Positionsbestimmung sowie einer Steuereinheit.
Die Konstruktion mit den einzelnen Bauteilen konnte nun erstellt werden. Der Konstruktionsprozess wurde durch die schrittweise und aufbauende Integration der Lösungen für die verschiedenen Funktionen des Bauteils systematisch und methodisch umgesetzt. Dabei erfolgte die Umsetzung in einem Modell, wobei jeder Schritt auf den vorherigen Überlegungen und Entscheidungen basierte. Der erste Schritt bestand darin, den Kompaktantrieb, der die Hauptfunktion darstellt, in den Grundkörper mit der HSK-Aufnahme zu integrieren. Anschließend wurden die Nebenfunktionen wie die axiale Lagerung, die Kühlmitteldurchführung und die Anpassung der Flanschgeometrie zur Aufnahme des Werkzeuges implementiert. Im nächsten Schritt wurden die Steuerung und die Akkueinheit als Blackbox positioniert sowie die Kabelkanäle in den Grundkörper konstruiert.
Abschließend wurden für die eigens entwickelten Bauteile technische Zeichnungen erstellt. Auf ihnen wurden alle relevanten technischen Merkmale hinterlegt, die für die Fertigung der Bauteile benötigt wurden. Hierzu gehörten beispielsweise Angaben zum Werkstoff, Toleranzen, Passungen, Oberflächenangaben sowie Form- und Lagetoleranzen. Zudem wurde eine Baugruppenzeichnung erstellt, die die Anordnung der einzelnen Bauteile mit ihrer Stückzahl und Positionsnummer in einer Stückliste klar und deutlich erkennbar machte.
Damit wurde die Neuentwicklung eines unabhängigen Antriebsflansches abgeschlossen und bot einen Einblick in die mögliche Integration eines mechatronischen Antriebs in den Antriebsflansch.
Im Rahmen dieser Abschlussarbeit wurde ein automatisertes Test-Framework für eine Datenanalyse-Software namens MARS entwickelt. Der Zweck der Entwicklung dieses Frameworks ist es, die von der Software, zurückgegebenen Ergebnisse zu testen und zu vergleichen. In Zukunft soll dieses Framework verwendet werden, um den Start von Tests bei jeder neuen Version von MARS zu automatisieren.
Darüber hinaus ist dieses Framework in zwei Versionen erhältlich. Die erste ist eine grafische Version, um bestimmte Tests gezielt auszuführen und zu evaluieren. Die zweite Version ist eine Kommandozeilenversion, die es ermöglicht, schnell mehrere Tests zu generieren. Diese Version kann bspw. von einem Jenkins-Server aus gestartet werden.
Das Test-Framework wurde mit der Programmiersprache Python erstellt und mit dem Qt-Framework grafisch unterstützt. Die Vielzahl an Modulen und die große Anzahl an Nutzern machen Python zu einer beliebten Sprache für diese Art von Anwendungen. Die hohe Modularität von Qt für Python und die einfache Handhabung machen es zu einem reichhaltigen Werkzeug für die Erstellung von grafischen Benutzeroberflächen.
Im Rahmen eines von der Deutschen Forschungsgemeinschaft geförderten Projekts des Instituts für Rechtsmedizin der Universität Freiburg und des Freiburger Materialforschungszentrums entwickelt die Robotikgruppe der Hochschule Offenburg ein robotergestütztes mobiles Messsystem zur spektroskopischen Vermessung von Leichenflecken. Ziel des Gesamtprojekts ist die Charakterisierung von intravitalen und postmortalen Hautveränderungen auf der Basis reflektionsspektrometrischer Messungen an menschlicher Haut durch ein physikalisches Hautmodell. Projektleiter ist Prof. Dr. Michael Bohnert, Institut für Rechtsmedizin Freiburg, der den grundlegenden Anstoß zum Einsatz spektroskopisch aufgelöster Messungen der Färbung von Leichenflecken gab [1]. In Zusammenarbeit mit dem Freiburger Materialforschungszentrum wurde dazu ein Modell für das optische Verhalten der Haut entwickelt [2]. Im Anschluss wurde insbesondere die Reoxygenierung der Leichenflecken bei gekühlter Lagerung untersucht [3]. Der Dokumentation der Messreihen liegt ein elektronisches Laborbuch zugrunde, das von der Servicegruppe Wissenschaftliche Informationsverarbeitung des Materialforschungszentrums entwickelt wurde [4]. Als problematisch erwies es sich, dass sich eine Messreihe über 50 bis 60 Stunden erstreckt und in der Regel nur zweimal täglich Handmessungen durchgeführt werden konnten, die zudem bei Raumtemperatur erfolgen mussten.
Die neue EU-Medizinprodukteverordnung 2017/745, die Medical Device Regulation (MDR), wird nach einer vierjährigen Übergangsphase zum 26. Mai 2021 für sämtliche Medizintechnikhersteller rechtswirksam (Vgl. Europäische-Kommission, 2020). Die MDR ersetzt die bis dato geltende Medical Device Directive (MDD). Ein wesentlicher Bestandteil der MDR für Medizintechnikhersteller ist die verpflichtende Konzeption und Einführung eines Qualitätsmanagementsystems. Die R&E Stricker Reha-Entwicklungen GmbH hat bis zu Beginn dieses Projektes noch kein Qualitätsmanagementsystem in ihrer Unternehmensstruktur implementiert. Da dies allerdings mit der MDR verpflichtend wird, soll durch diese Arbeit ein auf die Firma Stricker angepasstes Qualitätsmanagementsystem erarbeitet werden. Zusätzlich werden durch die MDR erweiternde wie auch neue Anforderungen an die verschiedenen Unternehmensbereiche der Medizintechnikhersteller gestellt (Vgl. Johner Institut GmbH, 2020a). Durch neu konzipierte und implementierte Prozesse sollen jene Anforderungen bzw. der gesamte Bereich des Qualitätsmanagements der Firma Stricker ausgebaut werden.
Diese Bachelorthesis behandelt die Entwicklung eines Prototyps zur Identifizierung und Verhinderung von Angriffen mithilfe von KI- und ML-Modellen. Untersucht werden die Leistungsfähigkeit verschiedener theoretischer Modelle im Kontext der Intrusion Detection, wobei Machine-Learning-Modelle wie Entscheidungsbäume, Random Forests und Naive Bayes analysiert werden. Die Arbeit betont die Relevanz der Datensatzauswahl, die Vorbereitung der Daten und bietet einen Ausblick auf zukünftige Entwicklungen in der Angriffserkennung.