Refine
Year of publication
Document Type
- Bachelor Thesis (575)
- Article (unreviewed) (439)
- Part of a Book (395)
- Conference Proceeding (317)
- Contribution to a Periodical (229)
- Book (210)
- Master's Thesis (142)
- Other (140)
- Article (reviewed) (128)
- Working Paper (86)
- Report (73)
- Patent (65)
- Periodical Part (53)
- Doctoral Thesis (11)
- Letter to Editor (2)
- Study Thesis (2)
Conference Type
- Konferenzartikel (215)
- Konferenzband (65)
- Konferenz-Abstract (22)
- Konferenz-Poster (10)
- Sonstiges (7)
Language
- German (2867) (remove)
Keywords
- Mikroelektronik (62)
- Marketing (46)
- Digitalisierung (44)
- Social Media (38)
- E-Learning (28)
- Künstliche Intelligenz (27)
- Arbeitszeugnis (22)
- Social Media Marketing (20)
- Management (19)
- Biomechanik (18)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (946)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (527)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (411)
- Fakultät Wirtschaft (W) (366)
- Fakultät Medien (M) (ab 22.04.2021) (302)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (189)
- INES - Institut für nachhaltige Energiesysteme (78)
- Zentrale Einrichtungen (65)
- POIM - Peter Osypka Institute of Medical Engineering (32)
- Rektorat/Verwaltung (32)
Open Access
- Closed Access (1038)
- Open Access (856)
- Closed (463)
- Bronze (207)
- Diamond (25)
- Hybrid (5)
- Grün (4)
- Gold (2)
Inventar und Bilanz
(2015)
Im Rahmen der Cochleaimplantat (CI)-Versorgung werden sowohl intraoperativ als auch postoperativ verschiedene elektrische und elektrophysiologische Diagnostikverfahren eingesetzt, bei denen elektrische Messgrößen vom CI erfasst und elektrophysiologische Messungen bei CI-Patienten durchgeführt werden. Zu den elektrophysiologischen Diagnostikverfahren zählen die Messung der elektrisch evozierten Summenaktionspotenziale des Hörnervs, die Registrierung der elektrisch evozierten auditorischen Hirnstammpotenziale und die Erfassung der elektrisch evozierten auditorischen kortikalen Potenziale. Diese Potenziale widerspiegeln die Erregung des Hörnervs und die Reizverarbeitung in verschiedenen Stationen der aufsteigenden Hörbahn bei intracochleärer elektrischer Stimulation mittels eines CI. Bei den aktuellen CI sind die Beurteilung der Elektrodenlage sowie die Prüfung der Ankopplung des Implantats an den Hörnerv wichtige Anwendungsgebiete der elektrophysiologischen Diagnostikverfahren. Ein weiteres bedeutendes Einsatzfeld stellt die Prüfung der Reizverarbeitung in der Hörbahn dar. Das Hauptanwendungsgebiet dieser Verfahren bildet jedoch die Unterstützung der Anpassung der CI-Sprachprozessoren bei Säuglingen und Kleinkindern auf der Basis elektrophysiologischer Schwellen.
Internet-Auktionsvertrag
(2020)
Internet-Auktionsvertrag
(2021)
Die wesentlichen Prinzipien und die Zukunft des Internet werden vorgestellt. Neben reinem Faktenwissen werden die Einschätzungen des Autors wiedergeben. An der Wertschöpfungskette wird unter Berücksichtigung der technischen Randbedingungen und der neu geschaffenen Möglichkeiten gezeigt, wie gewinnbringende Anwendungen des Internet entworfen werden können. Die Internet-Technik, die Internet-Organisation, die Internet-Protokollfamilie, die Internet-Dienste und das World Wide Web (WWW) werden ausführlich erörtert. Durch die Einbettung der Dienste in Internet-Anwendungen wie Just-in-time-Informationsbeschaffung, Electronic Commerce oder weltweite Unternehmenskommunikation wird der eigentliche Mehrwert zum Benutzer gebracht. Die Internet-Anwendungen werden unter den drei Aspekten Information, Kommunikation und Transaktion betrachtet. Mit der Anbindung existierender Software-Systeme an das WWW werden neue Möglichkeiten für Internet-Anwendungen aufgezeigt.
Der Artikel beschreibt die Herausforderungen für die Kommunikation in Ganztagsschulen im Jahr 2020 als es notwendig war bei einer sehr unbeständigen Organisations- und Kommunikationslage von Seiten der Schulverwaltungen einen Unterrichts- und Ganztagsbetrieb zu organisieren und gegenüber den wesentlichen Stakeholdern zu kommunizieren.
Interne Revision: Anforderungen an die Wirksamkeit – ein Vergleich von IDW EPS 983 und MaRisk
(2017)
Kleine und mittlere Unternehmen müssen sich heute mehr denn je differenzieren. Vor diesem Hintergrund kann etwa durch eine Markenführung nach innen, die Kommunikationspolitik, oft mit geringem finanziellem Aufwand, erleichtert und verbessert werden. Ihre Mitarbeitenden stellen hier ein hohes Potenzial dar, das es auszuschöpfen gilt. Eine aktuelle empirische Analyse zur internen Markenkompetenz in kleinen und mittleren Mediendienstleistungsunternehmen in der Metropolregion Oberrhein hat gezeigt, dass diese allerdings eher gering ist. Indizien hierfür sind beispielsweise, dass Maßnahmen unkoordiniert und intuitiv eingesetzt werden. Es ist wenig Planung oder gar Strategie zu erkennen. Trotz dieses Kompetenzdefizits ist jedoch ein durchgängiges Bewusstsein für die Bedeutung der Markenführung, speziell auch für die interne Markenführung vorhanden.
Zu Beginn dieser Arbeit wird dem Leser eine Einführung in die Mitarbeiterkommunikation geboten. Es werden kommunikationswissenschaftliche Grundlagen aufgezeigt und anschließend betriebswirtschaftliche Aspekte beleuchtet. Der Leser bekommt Einsicht in die Planung und Durchführung erfolgreicher Mitarbeiterkommunikation und die damit verbundene Erfolgskontrolle. Im empirischen Teil der Abschlussarbeit wird der Bezug zur Praxis hergestellt. Es wird dargestellt wie Beratungshäuser ihre interne Kommunikation verwirklichen und wo diese auf besondere Herausforderungen stoßen. Ziel der Arbeit ist es, dem Leser eine Übersicht über die oft umfangreichen Aufgaben der internen Kommunikation zu bieten und wie die Theorie letztendlich in der Praxis umgesetzt wird. Im ersten Teil dieser Arbeit wird größtenteils die Methode der Literaturanalyse verwendet. Betriebswirtschaftliche Arbeitstexte, sowie Literatur zu den Instrumenten der internen Kommunikation und Werke aus dem Personal- und Organisationsbereich bilden hierfür die Grundlage. Im zweiten Teil werden die Ergebnisse der empirischen Forschung zur internen Kommunikation in Management-Beratungshäusern gezeigt und anschließend Schlussfolgerungen zusammenfassend dargelegt.
Getragen vom großen Erfolg der Veranstaltungen in den USA in 2008, weitete die Forschungsgruppe nachhaltige Energietechnik (net) seine Aktivitäten in den USA, aber auch in Kanada, Brasilien und in Ländern Osteuropas aus. Trotz anhaltender Wirtschaftskrise in 2009 herrscht in den USA, aber auch weltweit eine erfreulich optimistische Grundstimmung, wenn es um die Nutzung alternativer, erneuerbarer Energien und Fragen der effizienten Energieversorgung geht.
Mit der Initiative „Werbung für den Innovationsstandort Deutschland“ des Bundesministeriums für Bildung und Forschung (BMBF) wird seit November 2006 der Forschungsstandort Deutschland unter der Marke „Research in Germany – Land of Ideas“ international vermarktet. Im Programm unter dem Thema „Technologieumfeld Umwelttechnologien“ hat sich die Forschungsgruppe „Zentrum für angewandte Forschung an Fachhochschulen – Nachhaltige Energietechnik“ (zafh.net) mit einem Antrag über nachhaltiges Gebäudemanagement beworben. Vorrangig sollen die Ergebnisse des zafh.net, das vor allem auf dem Gebiet „Energieeffizienz in Gebäuden und Kommunen“ arbeitet, international vermarktet sowie der Bekanntheitsgrad der Hochschulen verbessert und neue internationale Projekte initiiert werden.
Internationale Projektarbeit
(2019)
Intermediales Gestalten bildet in der Fakultät M+I ein dichtes Produktionsnetz. Es umfasst ein großes Spektrum von Schrift, Bild und Fotografie zu zeitbasierten Formen, audiovisueller Komposition und Medienkunst. Experimentelles Screen- und Webdesign tragen mit interaktiven Momenten dazu bei, als Werkstattberichte und DVD-Arrangements. Dazwischen entfalten sich Sound und Design als eigene Klangsprache – Klanguage‘ – wie auch quer-synergetisch zu allen Medien und deren Bezugsdisziplinen. Zwar ist der Acoustic Turn der Kulturwissenschaft im Vergleich zu Texten und Bildern noch recht verhalten. [1] Aber Interdisziplinarität und wieder neu zu entdeckende (Poly-)Ästhetik [2] verbinden die unterschiedlichen Medien über ihre parallelen Workflows und Produktionsstrukturen wie auch in wissenschaftlichen Diskursen zur Konzeption und Produktion. [3] Doch auch der theoretische Ausdruck Intermedialität ist ein reicher Schirmbegriff zwischen Gattungen und Genres. [4] Das zeigt sich als Längsschnitt, in dem Medien historisch aus- und miteinander entstehen und vergehen. Andererseits verfügen wir heute über einen frei konfigurierbaren Querschnitt an neuen Formaten, etwa von der noch wenig erprobten Akustischen Fotografie zur visuellen Virtualität und Simulation. Modelle wachsen aus Arbeitsprojekten und auch in der teilnehmenden, teilseienden Doppelrolle von Praxisforschern. Gestalter sind Beobachter und Akteure zugleich, wie bei Ihnkens Studio als ‚Labor der Emotionen‘ [5]. Intermediales Gestalten ist also immer ein doppelter Prozess: in den Medien selbst als Transfer der Gestaltungskraft von einer Schicht zur anderen und als Mitte zwischen Produktions- und Wissenskultur.
Die multimedialen Informationsdienste im Internet werden immer umfangreicher und umfassender, wobei auch die nur in gedruckter Form vorliegenden Dokumente von den Bibliotheken digitalisiert und ins Netz gestellt werden. Über Online-Dokumentenverwaltungen oder Suchmaschinen können diese Dokumente gefunden und dann in gängigen Formaten wie z.B. PDF bereitgestellt werden.
Dieser Artikel beleuchtet die Funktionsweise der Humboldt Digital Library, die seit mehr als zehn Jahren Dokumente von Alexander von Humboldt in englischer Übersetzung im Web als HDL (Humboldt Digital Library) kostenfrei zur Verfügung stellt. Anders als eine digitale Bibliothek werden dabei allerdings nicht nur digitalisierte Dokumente als Scan oder PDF bereitgestellt, sondern der Text als solcher und in vernetzter Form verfügbar gemacht.
Das System gleicht damit eher einem Informationssystem als einer digitalen Bibliothek, was sich auch in den verfügbaren Funktionen zur Auffindung von Texten in unterschiedlichen Versionen und Übersetzungen, Vergleichen von Absätzen verschiedener Dokumente oder der Darstellung von Bilden in ihrem Kontext widerspiegelt.
Die Entwicklung von dynamischen Hyperlinks auf der Basis der einzelnen Textabsätze der Humboldt‘schen Werke in Form von Media Assets ermöglicht eine Nutzung der Programmierschnittstelle von Google Maps zur geographischen wie auch textinhaltlichen Navigation.
Über den Service einer digitalen Bibliothek hinausgehend, bietet die HDL den Prototypen eines mehrdimensionalen Informationssystems, das mit dynamischen Strukturen arbeitet und umfangreiche thematische Auswertungen und Vergleiche ermöglicht.
Die vorliegende Bachelorarbeit behandelt das Thema interaktive Nachrichtensendungen im Web 2.0. Im theoretischen Teil der Arbeit wird allgemein auf Nachrichtensendungen, deren Bedeutung und Nutzen sowie auf soziales und interaktives Fernsehen eingegangen. Weiterhin wird das Konsumverhalten der jungen Altersklasse hinsichtlich bevorzugten Kanälen, Themengebieten und Darstellungsformen beleuchtet. Schwerpunkte werden auf ihr Interaktionsverhalten sowie dessen Auswirkungen auf sie selbst und das Fernsehen gesetzt.
Nach Abhandlung der theoretischen Grundlagen folgt der erste praktische Teil der Arbeit, in dem ein bestehendes Nachrichtenformat für die junge Zielgruppe per Ist-Analyse formal-strukturell, inhaltlich und auf der Präsentationsebene untersucht werden soll. Eine hohe Gewichtung kommt hierbei der User-Interaktion und deren Bedeutung zu. Um die Akzeptanz und den Bedarf der jungen Zielgruppe für eine interaktive Nachrichtensendung herauszufinden, wird diese qualitativ bezüglich Interaktivitätsverhalten und Integration von sozialen Netzwerken in Nachrichten-sendungen befragt.
Im nächsten Schritt soll ein Prototyp einer interaktiven Nachrichtensendung für die junge Altersgruppe erstellt werden. In die Konzeption sollen die Ergebnisse der Ist-Analyse und der Bedarfs- und Akzeptanzanalyse des praktischen Teils miteinbezogen werden. Der Prototyp soll dem Interaktionsverhalten der User angepasst und somit ihren Anforderungen und Wünschen entsprechen, sodass die Akzeptanz der Nachrichtensendung bei der Zielgruppe steigt.
Intelligentes Data Governance und Data Management – Neue Chancen für die Kundendatenbewirtschaftung
(2022)
Mit der Digitalisierung haben sich für Marketing und Vertrieb vielzählige unterschiedliche neue Kanäle, Werbeformate und Zielgruppen eröffnet. Expertinnen und Experten schätzen, dass ca. 4.000 bis 10.000 Werbe- und Markenbotschaften täglich auf jede und jeden von uns einprasseln. Mögen diese Zahlen umstritten und eine Zahl zwischen 300 bis 500 Botschaften pro Tag realistischer sein, so ist dies noch immer eine Menge, die kaum noch verarbeitet und wahrgenommen werden kann. Als Reaktion auf diese Werbemasse und Reizüberflutung haben Konsumentinnen und Konsumenten zum Teil eine Art „Werbeblindheit“ entwickelt.
Für Unternehmen wird daher zunehmend herausfordernder, ihre Zielgruppe aktiv zu erreichen. Was können Unternehmen nun tun, um dennoch nachhaltig Aufmerksamkeit zu gewinnen, und wie kann Künstliche-Intelligenz-gestütztes Kundendatenmanagement dabei helfen?
Mit dem Klimaschutzgesetz 2021 wurden von der Bundesregierung die Klimaschutzvorgaben verschärft und die Treibhausgasneutralität bis 2045 als Ziel verankert. Zur Erreichung dieses ambitionierten Ziels ist es notwendig, im Bereich der Mobilität weitgehend von Verbrennungsmotoren mit fossilen Kraftstoffen auf Elektromobilität mit regenerativ erzeugtem Strom umzusteigen. Dabei ist die zügige Bereitstellung einer ausreichenden Ladeinfrastruktur für die Elektrofahrzeuge eine große Herausforderung. Neben der Installation einer ausreichend großen Zahl von Ladepunkten selbst besteht die Herausforderung darin, diese in das bestehende Verteilungsnetz zu integrieren bzw. das Verteilungsnetz so auszubauen, dass weiter ein sicherer Netzbetrieb gewährleistet werden kann. Dabei sind insbesondere Lösungen gefragt, bei denen der Ausbau der Ladeinfrastruktur und der Netzbetriebsmittel durch intelligentes Management des Ladens so gering wie möglich gehalten wird, indem vorhandene oder neu zu installierender Hardware möglichst effizient genutzt wird.
Hier setzte das Projekt „Intelligente Ladeinfrastruktur für Elektrofahrzeuge auf dem Parkplatz der Hochschule Offenburg (INTLOG)“ (Projektlaufzeit 15.11.2020 – 30.09.2022) an. Inhalt des Projekts war es, einen Ladepark für den Parkplatz der Hochschule Offenburg mit 20 Ladepunkten à 11 kW und somit einer Gesamtladeleistung von 220 kW an einen vorhandenen Ortsnetztransformator mit 200 kW Nennleistung anzuschließen, der aber bereits von anderen Verbrauchern genutzt wurde. Das übergeordnete Ziel war es also, eine Ladeinfrastruktur von maßgeblichem Umfang in die bestehende Netzinfrastruktur ohne zusätzlichen Ausbau zu integrieren.
Dabei wurden zukunftsweisende Technologien genutzt und weiterentwickelt sowie teilweise in Praxis, im Labor und in der Computersimulation demonstriert.
Intelligente Assistenten - Untersuchung der Spracheingabe in Verbindung mit dem ERP-System SIVAS.ERP
(2018)
Die vorliegende Bachelorarbeit wurde für die schrempp edv GmbH erstellt. Die Untersuchung von Technologien intelligenter Assistenz und eine fundierte Einsatzempfehlung für zukünftige Entwicklungen in Verbindung mit dem ERP-System SIVAS sind die primären Ziele der Abschlussarbeit. Das Hauptaugenmerk der Analyse liegt auf der Spracherkennung und der Sprachverarbeitung. Diese Technologien sollen den Umgang mit den komplexen Anwendungen im SIVAS-Umfeld erleichtern.
Der erste Teil der Abschlussarbeit befasst sich mit den theoretischen Grundlagen intelligenter (Sprach-) Assistenz. Im zweiten Teil wird die SIVAS.Montage-App und ein Szenario zur prototypischen Umsetzung intelligenter Assistenz vorgestellt.
Die folgenden Teile beschäftigen sich mit der Spracherkennung und Sprachverarbeitung von Google und Microsoft. Die beiden Unternehmen betreiben seit Jahren intensive Forschungen zu den Sprachtechnologien und bieten erfolgreiche Lösungskonzepte an. Analysierte Frameworks der Spracherkennung sind die Google Speech API und die Bing Speech API. Kandidaten der Sprachverarbeitung sind Dialogflow von Google und LUIS von Microsoft.
Das Ergebnis der Analyse ist die Einsatzempfehlung der Frameworks von Google. Insbesondere bei der ermittelten Fehlerrate als Schlüsselkriterium der Spracherkennung, kann Google mit 11,11 % gegenüber Microsoft mit 23,09 % überzeugen. Der Vergleich der Frameworks zur Sprachverarbeitung liefert ähnliche Resultate. Google ist Microsoft bei der Klassifizierung bisher unbekannter Aussagen der Anwender mit einer Genauigkeit von 86,67 % um fünf Prozentpunkte überlegen. Informationen werden mit Hilfe von Dialogflow erfolgreicher und strukturell besser aufbereitet extrahiert.
Abschließend wird SIVAS mit den analysierten Google-Technologien mittels einer prototypischen Umsetzung des ausgewählten Szenarios zur Erfassung von Montagezeiten zusammengebracht.
Intelligent und nachhaltig
(2013)
Die Entwicklung der Cyber-Bedrohungslandschaft zwingt Unternehmen zur Auseinandersetzung mit neuen funktionalen Herausforderungen. Da sich die Angriffsoberflächen genauso dynamisch verändern wie die Taktiken und Techniken, sollte die Corporate Governance für ein integratives Cyber-Risikomanagement sorgen, um das Cybersicherheitsmanagement differenziert einzubetten. Dadurch leistet die Corporate Governance einen Beitrag zur Steigerung der Cyber-Resilienz.
Zu Beginn dieser Arbeit wurde das Problem beschrieben, dass das Ersetzen von einzelnen Modulen innerhalb TYPO3s durch React bisher nicht möglich war. Dadurch ergab sich die Aufgabe eine Lösung zu finden, mit der die Vorteile von React in TYPO3 eingebracht werden können, möglichst ohne große Veränderungen und Aufwände zu betreiben. Als zusätzliche Anforderung wurde definiert, dass React in TypeScript geschrieben werden soll.
Um dem Leser dieser Arbeit die Möglichkeit zu geben, den angefertigten Code verstehen und interpretieren zu können, wurden zunächst Grundlagen in TypeScript, React und TYPO3 geschaffen. Daraufhin wurde der Ist-Stand beschrieben, welcher ein simples TYPO3-Plugin beschreibt. Dies wurde für die grundsätzliche Umwandlung in React möglichst simpel gehalten, war dennoch mit einigen Grundsätzen wie AJAX und Rerendering ausgestattet, um gewisse Vorteile und Problematiken bei der Umsetzung aufzeigen zu können. Daraus ergab sich ein Soll-Stand, welcher zugleich weitere Anforderungen an die spätere Lösung definierte.
Um ein mögliches Lösungskonzept erarbeiten zu können wurden im Kapitel „Stand der Technik“ 2 verwandte Arbeiten und Möglichkeiten vorgestellt. Daraufhin wurden die beiden zu entwickelnden Plugins beschrieben, zunächst das Dummy-TYPO3-Plugin, gefolgt vom in React entwickelten Äquivalent.
In Kapitel 8 wurde ein Konzept erstellt und daraufhin die Umsetzung Schritt für Schritt durchgeführt. Dabei konnte erfolgreich React in TYPO3 aufgesetzt und zur Entwicklung genutzt werden. Das Dummy-Plugin konnte ohne größere Probleme umgesetzt werden und zeigte somit eine mögliche Lösung für die Umwandlung von TYPO3 zu React auf. Um diese Lösung zu validieren, wurde im Folgekapitel das ProofOfConcept entwickelt. Dabei handelte es sich um ein produktiv eingesetztes Projekt, welches auf einer älteren Version basiert und verschiedene Anforderungen mitbrachte. Dies wurde nach Vorstellung des Projektes und Lösungskonzept Schritt für Schritt umgesetzt.
Blockchain frameworks enable the immutable storage of data. A still open practical question is the so called "oracle" problem, i.e. the way how real world data is actually transferred into and out of a blockchain while preserving its integrity. We present a case study that demonstrates how to use an existing industrial strength secure element for cryptographic software protection (Wibu CmDongle / the "dongle") to function as such a hardware-based oracle for the Hyperledger blockchain framework. Our scenario is that of a dentist having leased a 3D printer. This printer is initially supplied with an amount of x printing units. With each print action the local unit counter on the attached dongle is decreased and in parallel a unit counter is maintained in the Hyperledger-based blockchain. Once a threshold is met, the printer will stop working (by means of the cryptographically protected invocation of the local print method). The blockchain is configured in such a way that chaincode is executed to increase the units again automatically (and essentially trigger any payment processes). Once this has happened, the new unit counter value will be passed from the blockchain to the local dongle and thus allow for further execution of print jobs.
Integration eines Shopsystems in Typo3 am Beispiel „Relaunch des Webauftritts Elbe&Flut Edition“
(2013)
Im Rahmen meiner Bachelorarbeit habe ich bei Elbe&Flut, Agentur für Fotografie und Gestaltung in der Hamburger Speicherstadt, eine Neuauflage der Webpräsenz für den Verlag Elbe&Flut Edition erstellt. Themenschwerpunkt der Elbe&Flut Edition ist Hamburgs Viertel zwischen Tradition und Vision — die Speicherstadt mit der wachsenden Hafencity. Ziel der Bachelorthesis war ein ganzheitlicher Webauftritt der Website mit einem Gesamtumfang von circa 25 Seiten, erstellt mit dem Content Management System Typo3 Version 4.5, um das nachträgliche Ändern und Einfügen von Inhalten effizient und simpel zu gestalten. Hinzu wurde ein Online-Shop für die Elbe&Flut Edition integriert, über den Bücher sowie Kalender geordert werden können. Dafür werden verschiedene Web-Shopsysteme wie die Typo3-Erweiterung Commerce und tt_products zu einem funktionalen Vergleich herangezogen. Die Einbindung von JQuery-Elementen wie Slidern, Lightboxes und Popups soll eine ästhetische und angemessene Benutzerfreundlichkeit sinnvoll unterstützen. Ausgangspunkt für die neuen Webpräsenzen war die damalige Website der Elbe&Flut Edition euf-edition.de, von der ein Großteil des Inhaltes übernommen wurde.
Um die Akzeptanz und Relevanz von Mailings zu steigern, ist es für Unternehmen wichtig, die Kundeninteressen möglichst gezielt anzusprechen. Bereits jetzt wird die E-Mail-Marketing Lösung Inxmail Professional zusammen mit Recommender Systemen eingesetzt, was das Erstellen und Versenden von E-Mails mit personalisierten Produktempfehlungen ermöglicht. Das notwendige Wissen für den Aufbau und den Betrieb dieser Recommender Systeme liegt dabei jedoch bei (externen) Technologie-Partnern, wodurch höhere Kosten und zusätzliche Abhängigkeiten für Inxmail und seine Kunden entstehen.
Mit dieser Arbeit wurde erforscht, was es für das Unternehmen Inxmail bedeutet, mit Open-Source-Software ein eigenständiges Recommender System aufzubauen und in die E-Mail-Marketing Lösung Inxmail Professional zu integrieren. Hierfür wird Inxmail Professional in einem typischen Kontext mit einem angebundenen Onlineshop System betrachtet. Das Recommender System soll anhand der Daten, die es aus dem Onlineshop System bekommt, individuelle Produktempfehlungen berechnen, um diese automatisiert beim Versand für jeden Empfänger abfragen und in die E-Mail integrieren zu können.
Auf Basis des Machine Learning Servers Harness und der integrierten Universal Recommender Engine wurde ein Recommender System aufgebaut.
Für die Integration des Onlineshop Systems Shopware wurde ein Plugin entwickelt, welches das Recommender System über alle relevanten Benutzeraktionen benachrichtigt. Die Inxmail Professional Integration basiert auf einem Webservice, der implementiert wurde, um die individuellen Produktempfehlungen für einen Kunden/Empfänger beim Recommender System abzufragen und mit den Detailinformationen zu den Produkten aus dem Onlineshop aufzubereiten.
Es konnte gezeigt werden, dass auf der Grundlage von Open-Source-Technologien ein eigenständiges Recommender System aufgebaut, evaluiert und in Inxmail Professional mit angebundenem Onlineshop System integriert werden kann. Der Gesamtprozess für die Evaluation des Systems wurde weitestgehend automatisiert, wodurch viele manuelle und zeitintensive Schritte über Steuerungsskripte abgehandelt werden können. Das System erlaubt die reibungslose Verarbeitung großer Datenmengen (> 19.000.000 Events) auf einem einzelnen Server. Die Vorhersagequalität wurde anhand realer Interaktionsdaten aus öffentlichen E-Commerce-Datensätzen mit Offline-Tests gemessen. Dadurch wurde sichergestellt, dass das System in der Lage ist, bei stetig wachsender Eventmenge zuverlässige aufempfehlungen zu berechnen. Die Tests haben gezeigt, dass bei mehreren Millionen Events von mehreren Tausend Benutzern für mehrere Tausend Produkte, 13 % bis 15 % aller tatsächlichen Käufe in den Top-10 der vom System vorgeschlagenen Empfehlungen enthalten waren.
Damit wurde die Grundlage für den selbstständigen Aufbau und Betrieb eines Recommender Systems gelegt, was eine sinnvolle und kostengünstige Alternative zu externen Systemen sein kann.
Ein digitaler Sprachassistent soll die Mensch-Maschine-Kommunikation vereinfachen, indem zur Bedienung technischer Geräte und Anwendungen auf einem dem Menschen vertrautes Verständigungsmittel zurückgegriffen wird - die Sprache. Gerade älteren Menschen, welche durch die Technologie unterstützt werden könnten, muss eine einfache und intuitive Bedienung der Geräte und Anwendungen gegeben sein. Die Bedienung derzeitiger Technologien wie Smartphones erfordert technische Affinität und Erfahrungen, welche bei den heute älteren Menschen größtenteils nicht vorhanden sind und aus diesem Grund die Technologie abgelehnt wird. Infolge dessen ist auch die Kommunikationsmöglichkeit mit älteren Familienangehörigen eingeschränkter, als sie es bei der jungen Generation ist. Um dennoch den aktuellen Technologiestand dieser Generation näher zu bringen, erweisen sich digitale Sprachassistenten als optimal, denn bei einer sprachgesteuerten Anwendung wird der Nutzer durch den persönlichen Sprachassistenten bei der Bedienung begleitet und unterstützt. Dies ermöglicht, dass auch Menschen mit einer weniger ausgeprägten technischen Affinität, Sprachassistenten nutzen können.
Seit einiger Zeit wird an der Fachhochschule in Offenburg ein Entwicklungsprojekt verfolgt, an dessen Ende ein GPS Empfänger stehen soll. Dabei handelt es sich um einen Satellitenempfänger, mit dem weltweit eine genaue dreidimensionale Standortbestimmung durchgeführt werden kann. Für diesen Empfänger sollte ein Großteil der Analogschaltung, bestehend aus ZF Verstärker, Costas Loop Synchrondemodulator und Pegeldetektor, in das Transistorarray B500a von AEG intgriert werden. Das Chipdesign wurde im Labor für ASIC Design an der FH Offenburg während des Wintersemesters 1990/91 erstellt. Gefertigt wurde der Chip von der Firma AEG in Ulm, wobei die Fertigungszeit des ASIC 6 Wochen betragen hat.
Arduino ist weitaus mehr als eine Leiterplatine mit verschiedenen Hardwarekomponenten, welche behilflich sind, die physische Welt zu erfassen und eine Verbindung zur virtuellen Welt herzustellen. Arduino besteht aus Communities, Plattformen und engagierten Entwicklern, die diese Open-Source-Plattform stetig weiterentwickeln. Durch die bereitgestellte Entwicklungsumgebung und der eigenen Programmiersprache können sogar Programmier-Laien mit diesen Boards umgehen und erste Projekte realisieren. Darüberhinaus existieren viele Klone auf dem Markt, welche eine preiswerte Integration eines Mikrocontrollers in ein Projekt ermöglichen und dennoch kompatibel zu Arduino sind und die Entwicklungsumgebung mitsamt den Bibliotheken nutzen lassen. Die Nachfrage nach vernetzten Lösungen zum Beispiel in der Hausautomation wächst unaufhaltsam und ist präsenter denn je. Für Hobbybastler und Entwickler bietet auch Arduino hierzu die geeigneten Hardwareerweiterungen an, um den Arduino in eine vernetzte Umgebung zu integrieren. Hierbei wird das Board nicht nur in Verbindung zur Client/Server-Kommunikation über das Internet verwendet, sondern auch im Funkbereich in Heimnetzwerken. Aufgrund der großen Nachfrage bezüglich Lösungen im Phyiscal- Computing-Bereich, können schon jetzt viele Standards in den genannten Bereichen eingesetzt werden, indem ein entsprechendes Erweiterungs-Shield für Arduino bezogen wird. Durch Bibliotheken ist die Einbindung mit nur geringem Aufwand verbunden und lässt somit experimentell in kurzer Zeit eine Idee in eine prototypische Implementierung umsetzen. Durch verschiedene Sensoren und Aktuatoren kann die Umgebung erfasst werden und zum Beispiel mechanische Komponenten gesteuert werden. In dieser Thesis wurde untersucht, inwiefern ein Arduino-Board als Monitoring-Anwendung im Gesundheitswesen eingesetzt werden kann. Der Anwendungsfall, der dabei durch den Autor festgelegt wurde, befasst sich mit unter Epilepsie leidenden Kindern. Der Prototyp soll hierbei über Sensoren den Schlaf dieser überwachen und die gewonnenen Daten an einen Server übermitteln. Die Implementierung des Boards in eine derartige Anwendung umschließt auch die Integration des Controllers in vernetzte Umgebungen, da für den Heimbereich die über Sensoren erfassten Daten, zum Ermitteln der Vitalfunktionen und Bewegungen, über ein Funknetzwerk übertragen werden und anschließend eine Client/Server-Kommunikation zwischen Arduino und PaaS-Server eine Verbindung über das weltweite Netzwerk abdeckt. Insofern wurden diesbezüglich bei der prototypischen Implementierung zwei vernetzte Umgebungen abgedeckt. Im Zusammenhang mit der Recherche und Implementierung eines Prototypen wird zudem das Potenzial von Arduino aufgezeigt, welches sich in der einfachen Handhabung, guten Konfigurationsmöglichkeiten und umfangreichen Hardwareerweiterungen beweist.
Immer turbulenter werdende und härter umkämpfte Märkte stellen Unternehmen besonders seit Beginn des 21. Jahrhunderts vor wachsende Herausforderungen, um wettbewerbsfähig zu bleiben. Zu viele ähnliche und austauschbare Produkte drängen auf die Märkte und zwingen die Erzeuger dazu, sich etwa durch Kommunikation vorteilhaft zu positionieren. Der wirtschaftliche Wettbewerb und der Kampf um Kundschaft findet dabei häufig nicht mehr nur auf der Ebene der Produkte und Dienstleistungen statt, sondern hat sich maßgeblich auf die Kommunikation ausgeweitet. Erfolgreiche Unternehmenskommunikation ist allerdings nicht nur die Kommunikation mit Interessenten und Kunden, sondern auch mit der eigenen Belegschaft. Zwar wird dem Teilbereich der internen Kommunikation häufig noch weniger Beachtung geschenkt als dem der externen, jedoch scheint das Bewusstsein dafür weiter zu steigen. Mangelnde Kommunikation kann im Unternehmen zu Konflikten und Missverständnissen führen und die Effizienz sowie den daraus resultierenden Gewinn beeinträchtigen.
Gegenwärtig ist es zudem nahezu existenziell geworden, als Unternehmen äußerst flexibel aufgestellt zu sein, um auf Veränderungen in der Wirtschaftslage schnell reagieren zu können. Wenn schnelles Handeln gefordert ist, ist es besonders wichtig, dass alle Angestellten wissen, worauf es ankommt, die Unternehmensstrategie kennen und über aktuelle Entwicklungen informiert sind. Auf diese Weise können sie unabhängig und vorausschauend im Sinne des Unternehmens in ihrem Verantwortungsbereich handeln. Vor diesem Hintergrund geben die Autoren in diesem Arbeitspapier einen Überblick über die wichtigsten Instrumente einer internen Unternehmenskommunikation.
Auch wenn kaum eine andere Branche in Deutschland durch die weltweite Finanzkrise so stark getroffen wurde wie der Maschinenbau, gehört dieser nach wie vor zu den erfolgreichsten Branchen (vgl. VDMA 2010). In vielen Produktsegmenten sind deutsche Maschinenbauer Weltmarktführer. Jedoch stehen sie seit einigen Jahren Herausforderungen gegenüber, die zu einem Umdenken und einer Neuausrichtung führen. Insbesondere das nach wie vor existente Problem der Produktpiraterie sowie die zumeist aus den asiatischen Räumen eingetretenen Wettbewerber, die für einen enormen Preisdruck sorgen, haben in den letzten Jahren dazu geführt, dass Standardmaschinen nur noch eine geringe Profitabilität aufweisen. Mit produktbegleitenden Dienstleistungen (Services) hingegen lasst sich mit durchschnittlich 21 % eine rund viermal so hohe operative Marge realisieren wie mit Maschinen (vgl. Schmiedeberg/Strahle/Bendig 2010, S. 3). Annahmen gehen davon aus, dass Services das Potenzial haben, einen Umsatzanteil von bis zu 35 % und damit einen Gewinnanteil von bis zu 60 % zu erreichen.
Instruktionale Texte und Lernvideos – Konzeption und Evaluation zweier multimedialer Lernformate
(2021)
Bei der Konzeption von digitalen Lernmedien sind von Seiten der Entwickler viele Entscheidungen hinsichtlich der Präsentation von Lerninhalten zu treffen, was zum einen die mediale Darstellung und zum anderen die didaktische Aufbereitung der fachlichen Inhalte betrifft. Im vorliegenden Text werden zwei digitale Lernmedien auf der Basis von Einschätzungen von Studierenden wirtschaftswissenschaftlicher und technischer Studiengänge an den Hochschulstandorten Offenburg und Pforzheim analysiert. Die Konzepte der beiden Hochschulen unterscheiden sich deutlich voneinander. Während in Offenburg Lernvideos mit Audiokommentar Verwendung finden, wird in Pforzheim mit statischen instruktionalen Texten und obligatorischen Single-Choice-Übungsaufgaben in einer Moodle-Lernumgebung gearbeitet. Aus Sicht des Aufforderungscharakters, also der Motivation, sich mit den entsprechenden Materialien zu beschäftigen, werden sowohl die instruktionalen Texte als auch die Lernvideos von den Studierenden geschätzt. Es zeigt sich weiterhin, dass Studierende die Lernvideos mit einer gewissen Präferenz lieber allein als zu zweit bearbeiten, während die Bearbeitung der statischen Texte differenzierter betrachtet werden muss. Fokussierende Fragen bewerten nahezu alle Studierenden als lernförderlich für ihren Lernprozess. Allerdings finden sich Hinweise darauf, dass fokussierende Fragen von leistungsschwächeren im Vergleich zu leistungsstärkeren Studierenden als weniger hilfreich angesehen werden. Ebenso lässt sich die Hypothese aufstellen, dass manche Studierende sowohl auf die Unterstützung eines Lernpartners/einer Lernpartnerin als auch auf lernförderliche Fragen verzichten möchten, um ihren Lernprozess möglichst autonom organisieren zu können.
Die Bologna-Reform ist gescheitert (Nida-Rümelin; 1). Der Bachelor ist der Abschluss für Studienabbrecher (Liessmann; 2). Die Akkreditierung von Studiengängen erweist sich als – sehr teurer – Akt der sinnfreien Bürokratisierung (Kühl; 3). Die Zitierten weisen darauf hin, dass man sich mit den „Reformen“ der letzten Jahre verrannt hat und empfehlen nachzudenken und umzusteuern. Doch die Kritisierten denken nicht daran, den Umbau von „Hochschulen zu Unternehmen“ als Sackgasse zu erkennen. Stattdessen übertragen sie ein weiteres Instrument der produzierenden Industrie auf Bildungseinrichtungen: das „Institutionelle Qualitätsaudit“ (IQA). Doch wer sich kritisch mit Qualitätsmanagement (QM) befasst, wird IQA für Bildungseinrichtungen mit IDF übersetzen: Institutionalisierte Denkfehler.
Massiv- Heiz-/Kühldecken bestehen im wesentlichen aus in der tragenden Deckenkonstruktion eingegossenen Kunststoffrohren, die je nach Jahreszeit von Heiz- bzw. Kühlwasser durchströmt verden. Das instationäre Verhalten wurde mit dem Anlagen und Simulationsprogramm TRNSYS untersucht. Anhand ausgesuchter Ergebnisse können die Anforderungen an die notwendigen Regelkonzepte abgeleitet werden. Es eignen sich für derartige Systeme, insbesondere wegen ihrer großen Speicherfähigkeit und damit Trägheit, modifizierende selbstadaptierende Regler. Aufgrund der großen Trägheit der Massivdecke ist eine direkte außentemperaturgeführte Vorlauftemperaturregelung des Wasserstromes nicht sinnvoll. Es sollte ein selbstadaptierendes Regelsystem verwendet werden, das anhand der vorangegangenen Lastverläufe die Gebäudekonstante und damit das Speicherverhalten der Räume ermittelt. Damit der Regelaufwand reduziert werden kann, sollen mehrere Räume als Gruppe zusammengefaßt werden. Als weitere Größe für das Regelkonzept ist die Speichertemperatur am Ende der Ladezeit zu messen und in das Programm mit einzubinden.
Instagram-Marketing: Erfolgsfaktoren und Handlungsempfehlungen am Beispiel der Kosmetikindustrie
(2015)
Das Ziel dieser Arbeit lag darin, Faktoren, die den Erfolg eines Instagram-Auftritts von Kosmetik produzierenden oder vertreibenden Unternehmen aus dem deutsch-sprachigen Raum steigern, zu ermitteln und auf Grundlage der Ergebnisse Handlungs-empfehlungen auszusprechen. Im Zuge dessen wurden sieben qualitative Befragungen von Experten durchgeführt und anschließend mit Hilfe der zusammen-fassenden Inhaltsanalyse nach Mayring ausgewertet. Aus der empirischen Studie geht hervor, dass Instagram bereits jetzt eine große Rolle im Social-Media-Mix einnimmt und Unternehmen primär Ziele des Brandings und der Markenrepräsentation auf Instagram verfolgen. Desweiteren konnten mit Hilfe der leitfadengestützten Experteninterviews 15 Faktoren identifiziert werden, die positiven Einfluss auf das Instagram-Marketing ausüben: Persönlichkeit, Qualität, Authentizität, Aktualität, Kanalmix, Hashtags, Videos, die Verknüpfung mit anderen Unternehmensbereichen, Transparenz, Relevanz, Influencer-Relations, Community, Bestätigung und Management. Als am bedeutend-sten haben sich die Punkte Persönlichkeit, Qualität und Relevanz gezeigt: Marken stehen demnach vor der Herausforderung, ästhetische, zielgruppenrelevante Inhalte, die an die Eigenheiten Instagrams als Plattform angepasst sind, zu veröffentlichen und auf Augenhöhe mit den Nutzern zu kommunizieren, ohne sich selbst als Marke zu verlieren. Ferner führte die Expertenbefragung zu der Erkenntnis, dass Instagram sowohl als Community als auch als Marketing-Tool weiterhin an Bedeutung gewinnen wird, vor allem im deutschen Raum und in der Beauty-Branche.
Inzwischen hat sich Instagram für Unternehmen als relevante Marketing-Plattform etabliert. Weltweit sind etwa 25 Millionen Business-Profile aktiv und die Zahl wird voraussichtlich noch deutlich steigen. Stories sind aktuell wohl eines der modernsten Content-Formate in der Social Media Welt. Umso wichtiger ist es, sich als Unternehmen frühzeitig mit dem Thema zu beschäftigen und sich auf der Plattform richtig zu positionieren. Die Hälfte aller Instagram Business Profile veröffentlichen pro Monat mindestens eine Instagram Story. Je mehr Unternehmen die Stories nutzen, desto höher wird der Wettbewerb innerhalb des Story-Features. Für Unternehmen wird es daher auch zunehmend schwieriger an eine der vorderen Positionen innerhalb des Story Feeds zu gelangen. Wer sich als Werbetreibender positionieren will, muss sich den stets neuen Entwicklungen, der Geschwindigkeit der Neuheiten, der Aktualität der Trends und den Anforderungen der Community anpassen.
Die Social Media Plattform Instagram, welche es Usern erlaubt, ihre Interessen, Einstellungen und Erlebnisse bildhaft mit einer weltweiten Community zu teilen, stellt u. a. auf Grund ihrer hohen Reichweite und des hohen Userengagements ein attraktives Marketinginstrument für Unternehmen dar. Die Beliebtheit der Plattform Instagram lässt sich am Zuwachs der Nutzerzahlen ablesen, die binnen drei Jahren und vier Monaten von 100 Millionen auf 500 Millionen im Juni 2016 anstiegen.1 Bereits in Deutschland folgen ca. 50 % der neun Millionen Instagramnutzer einem Unternehmen. Pro Beitrag, Post genannt, wird durchschnittlich eine Interaktionsrate von ca. 4,8 % durch die eigenen Follower erzielt. Diese Interaktionszahlen kann zum gegenwärtigen Zeitpunkt kein anderes soziales Netzwerk vorweisen.
Über den Kern von Instagram, das visuelle Bild, welches bei Rezipienten zur schnellsten Verarbeitung und Interpretation führt, können Unternehmen und Marken gewollt kognitive Prozesse bei den Verbrauchern auslösen.4 Dahingehend sind der Transport eines direkten Markenimages, die Begünstigung der Brand Awareness und eine Vorwegnahme von subjektiven Kaufentscheidungen möglich.
Viele Unternehmen tun sich jedoch mit dem jungen und schnelllebigen Kanal schwer und verlieren sich oft in den Möglichkeiten der Instrumente. Ein unstrukturiertes Vorgehen führt dazu, dass die Effizienz des Kanals verfehlt wird, man in der Masse untergeht und nicht konkurrenzfähig ist. Daher bedarf es einer adäquaten Vorbereitung auf den Kanal und dessen Instrumente, damit die Marketingaktivitäten auch den erhofften Return on Investment liefern. Für Unternehmen gilt es, in einem fundierten Planungsprozess zu klären, in welchem Segment sie sich platzieren wollen, was für eine Zielgruppe erreicht werden soll, mit welcher Intention sie diese ansprechen wollen und allen voran, mit welchem Instrument dies geschehen soll. Auf Instagram haben werbende Unternehmen die Wahl zwischen Content-Marketing, Advertising Kampagnen oder Influencer-Marketing.
Die Insolvenzzahlen in Deutschland sind das sechste Jahr in Folge rückläufig. Im Jahr 2016 gab es in Deutschland insgesamt 21.700 Unternehmensinsolvenzen. Dies ist der niedrigste Stand seit Einführung der Insolvenzordnung im Jahre 1999. Das weiter rückläufige Insolvenzgeschehen lässt sich auf das grundsätzlich sehr gute Konjunkturumfeld zurückführen. Die gute Binnenkonjunktur und Finanzierungssituation sorgen für steigende Umsätze und Erträge und verbessern die Stabilität der Unternehmen.1 Mit 30,3 % entfiel der zweitgrößte Anteil der Unternehmensinsolvenzen auf die Rechtsform der GmbH, am häufigsten von Insolvenzen betroffen waren mit 48,3 % nach wie vor die Kleingewerbetreibenden.2 Ca. 98 % aller Unternehmen in Deutschland sind kleine und mittlere Unternehmen (KMU).
Kleine Unternehmen haben weniger als zehn Mitarbeiter und einen Jahresumsatz oder eine Jahresbilanzsumme von höchstens zehn Millionen Euro. Mittlere Unternehmen hingegen verfügen über weniger als 250 Mitarbeiter und einen Jahresumsatz von höchstens 50 Millionen Euro oder eine Jahresbilanzsumme von höchstens 43 Millionen Euro. Diese Unternehmen sind überdurchschnittlich oft von Insolvenzen betroffen.3 Eine Auswertung des Statistischen Bundesamtes aus dem Jahr 2014 zeigt, dass die GmbH als gewählte Rechtsform bei den eingetragenen Betriebsgründungen mit 39,3 % weiterhin hoch im Kurs liegt und verdeutlicht somit deren Bedeutung im deutschen Wirtschaftsverkehr.4 Die GmbH ist die typische Gesellschaftsform für kleine und mittlere Unternehmen und wird als Unternehmensträger gewählt, wenn keiner der Beteiligten eine volle persönliche Haftung übernehmen möchte und wenn die Form einer Kapitalgesellschaft zwar gewollt, aber aufgrund der geringen Unternehmensgröße sowie der überschaubaren Gesellschafterzahl die AG nicht geeignet ist.5 Die folgenden Ausführungen beziehen sich daher auf Kapitalgesellschaften in der Rechtsform der GmbH und richten sich vor allem an die Geschäftsführer mittelständischer Unternehmen, in denen z. B. häufig eine fundierte Unternehmensplanung fehlt.
Große Wellen, die die Welt verändert haben: Nein, es ist nicht die Rede von Tsunamis oder ähnlichen Naturkatastrophen. Es geht um eine Pandemie, deren Anzahl nacheinander folgender Wellen leider derzeit noch nicht absehbar ist. Lockdown war die erste Maßnahme zur Eindämmung, die sich bis heute etabliert hat, aber an Zuspruch enorm verloren hat. Insbesondere den Handel hat diese Maßnahme getroffen: Einzelhandelsgeschäfte und Dienstleistungsbetriebe mussten schließen – trotz Hygienekonzepte immer wieder. Nun könnte es ein logischer Schluss sein, dass Unternehmen überlegen, die Waren des geschlossenen Ladens über andere erlaubte Kanäle zu verkaufen. Wäre diese Situation in den 80er-Jahren eingetreten, hätten höchstens Katalog- oder Teleshopping als Alternativen für die Direktvermarktung zur Verfügung gestanden. Nun aber – dank Internetverbindung in alle Welt – gibt es eine für jeden und jede verfügbare und schon etablierte digitale Schnittstelle zu den Kunden und Kundinnen: Doch wird diese vom stationären Einzelhandel genutzt? Das vorliegende Kapitel arbeitet aktuelle Erfahrungen und Wahrnehmungen auf, fasst die Herausforderungen zusammen und bietet direkt anwendbare Handlungsempfehlungen für die klassischen Face-to-Face-Handelsunternehmen an.
Kleinstunternehmen, kleine und mittlere Unternehmen (KMU) sind ein wichtiger Motor für das Wirtschaftswachstum und somit entscheidend für erfolgreiche Volkswirtschaften. In vielen verschiedenen Industrieländern fungieren KMU nicht nur als starke Partner und Zulieferer für Großunternehmen, sondern sind häufig, aufgrund ihrer hochinnovativen Produkte, Weltmarktführer in ihrem Marktsegment. Dies verdeutlicht, dass KMU eine treibende Kraft hinter Innovationen sowie technologieorientierten Produkten und Dienstleistungen sind.
Die Mittelbayerische Zeitung ist ein Verlagsbeispiel, das deutlich macht, wie mithilfe einer kontinuierlichen und systematischen Marktbearbeitung auch in stagnierenden Printmärkten eine Stabilisierung der Kundenstruktur möglich ist. Die Kombination mit digitalen Angeboten und die ebenfalls kombinierte Nutzung von unterschiedlichen, teilweise digitalen Kommunikations- und Absatzkanälen sind dabei zentrale Erfolgsfaktoren.
Having 22 GW of nominal power installed Germany is the leading nation in wind energy conversion. While the number of suitable installation sites ashore is limited, and the average windspeed and thus the utilization level offshore is significantly higher, more and more offshore wind farms are planned. In order to reduce the cost of building the foundations and of connecting the wind turbines to the power grid, the single plant is designed as powerful as possible and therefore the components become huge and weighty. For instance: In order to lift the nacelle with around 500 tons of weight up on the tower - which can be up to 120 m above the water level - at the time special ships and cranes are designed and built. But those firstly will be very expensive and secondly will be available only on a limited scale. Hence the installation cost of those huge wind turbines significantly influence the rentability of a wind farm. Against this background a joint research project supported by the German Federal Ministry for the Environment, Nature Conservation and Nuclear Safety (BMU) was started comprising the project partners Ed. Züblin AG, Berg-idl GmbH (an engineering company and a maker of special purpose machines in Altlußheim, Germany), the IPEK (institute for product development) at the university of Karlsruhe and the Hochschule Offenburg, university of applied science. Project target is the conceptual design of a heavy-duty elevator, which can be used to install the tower segments and the nacelle of a wind turbine offshore without a crane. The most relevant challenges in this context result of holding up extreme loads by means of comparatively filigree carrying structures. The paper shows some examples of structural analysis and optimization work accomplished during the project. For the structural analysis of the heavy loaded components ANSYS workbench was used. The development process was also supported by optimization tools like TOSCA and OPTIMUS. The linking of the FE solver and the optimizer provides important hints concerning improvement of the topology and the dimensions of the components. Examples of designs illustrate the development process and the methods applied.
Unternehmen im B2B und B2C stehen zunehmend vor der Herausforderung etablierte Geschäftsmodelle zu überdenken und die Integration neuer Kommunikations- und Vertriebskonzepte in Erwägung zu ziehen. Doch fehlt es zumeist an „digitalen Kompetenzen“, welche in Form neuer Mitarbeiter und Mitarbeiterinnen eingestellt bzw. durch die Hinzuziehung von Dienstleistern eingekauft werden müssen. Diese benötigen aber zunächst Zeit das Selbstverständnis, die Kultur und Vision des betreffenden Unternehmens zu erfassen.
Massive Umwälzungen im Marktumfeld, verstärkt durch disruptive Technologien, stellen viele Unternehmen vor die existenzielle Frage, wie sie ihr etabliertes Geschäftsmodell zukunftsfähig weiterentwickeln können beziehungsweise wie sie sich unter Umständen grundlegend neu aufstellen müssen. Volatilität, Unsicherheit, Komplexität und Ambiguität (kurz VUKA) sind in diesem Kontext jene ungünstigen Begleiterscheinungen, die auch genossenschaftliche Unternehmen beeinflussen. Die vielfältigen Herausforderungen im Unternehmensumfeld, wie beispielsweise ungünstige demografische Entwicklungen, eine zunehmende Urbanisierung bei steigendem Bedarf an regionaler Daseinsvorsorge, Wettbewerbsdruck durch neue Geschäftsmodelle und Konkurrenten infolge der Künstlichen Intelligenz beziehungsweise Digitalisierung – zum Beispiel durch FinTechs – bedingen die Suche nach Orientierung, nach einem strategischen Kompass sowohl für Politik, Wirtschaft und Gesellschaft.
Führungskräfte deutscher Unternehmen sehen sich gegenwärtig zwei branchenübergreifenden Anforderungen gegenüber: Innovationen und Digitalisierung. Handelt es sich bei Innovationen um ein wissenschaftlich gut durchdrungenes Thema, zeichnen sich die neuen Möglichkeiten der Digitalisierung erst in Umrissen ab. Einig ist man sich darin, dass die Digitalisierung nicht nur einen bestimmten Unternehmensteil betrifft, sondern das ganze Unternehmen übergreift. So eröffnet sie nicht nur neue Möglichkeiten für einzelne Teilfunktionen, sondern auch Verbesserungen bei funktionsübergreifenden Aufgaben. Wie diese genutzt werden können, zeigen die Autoren und Autorinnen dieses Sammelbandes. Sie präsentieren neue Denkansätze und konkrete Entscheidungshilfen für Unternehmen, die in einer digitalen Wirtschaft innovativ bleiben wollen.
Im Jahre 2010 bot die Hochschule Offenburg ein Medizintechnikstudium mit dem Schwerpunkt ’Kardiologie, Elektrophysiologie und elektronische kardiologische Implantate’ als Bachelor- und später auch Masterstudiengang an. Ziel des auf diesen Schwerpunkt ausgelegten didaktischen Lehrkonzeptes ist die Vermittlung sofort anwendungsbereiten theoretischen Wissens und praktischen Könnens, welches die Absolventinnen und Absolventen in ihrer künftigen Berufsausübung in der Industrie oder als technische Partner der behandelnden Ärztinnen und Ärzte in hochspezialisierten klinischen Einrichtungen benötigen.
Aufgrund fehlender kommerzieller Angebote ist zur Umsetzung dieses Lehrkonzeptes die ingenieurtechnische Realisierung geeigneter Lehrmittel zwingend erforderlich. Dies betrifft die hard- und softwareseitige Erstellung visueller Demonstrationsmöglichkeiten für pathologische und implantatinduzierte Herzrhythmen, sowie die synthetische Bereitstellung originalgetreuer elektrokardiographischer Ableitsignale aus der klinischen Routine. Des Weiteren den Aufbau von in-vitro Trainingssystemen zu Therapien mit elektronischen kardiologischen Implantaten sowie zur Hochfrequenz-Katheterablation.
Insbesondere die Wahlfächer ’Programmierung von Herzschrittmachern’ und ‚Programmierung von Defibrillatoren’, deren Besuch den Teilnehmenden einen besonders raschen Berufseinstieg ermöglichen sollte, wurden in didaktischer Hinsicht in engem Bezug zum 4-Komponenten-Instruktionsdesign-Modell der Lehre gestaltet.
Durch den kontinuierlichen Einsatz der Instrumente der formativen Evaluation gelangen sowohl deutliche Verbesserungen am Gesamtkonzept der Lehrveranstaltungen als auch an den dort eingesetzten, selbst realisierten Lösungen des benannten speziellen Lehr- und Trainingsequipments.
Eine summative Evaluation des Lehrkonzeptes ist aufgrund seines Alleinstellungsmerkmals schwierig. Aus diesem Grund erschien die quantitative Prüfung des Einflusses eines Besuchs des praktisch orientierten Wahlfachs ’Programmierung von Herzschrittmachern’ auf die Note der kombinierten Abschlussklausur in den Fächern ’Elektrokardiographie’ und ’Elektrostimulation’ sinnvoll. In diese Evaluation eingeschlossen wurde eine Kohorte von 221 Studierenden, 76 Frauen und 145 Männer, von denen 93 am Wahlfach nicht teilnahmen und 128 die es besucht hatten.
Über 7 zusammengefasste Studienjahre zeigte sich, dass die praktische Ausbildung im Wahlfach ’Programmierung von Herzschrittmachern’ das Leistungsniveau der Studierenden der Medizintechnik in der kombinierten Abschlussprüfung ’Elektrokardiographie und Elektrostimulation’ deutlich beeinflusste.
Das im Rahmen dieser Arbeit mitgestaltete Lehrkonzept, die realisierten Lehrmaterialien und Lehrumgebungen wurden im Bachelor- und Masterstudiengang der Medizintechnik an der Hochschule Offenburg in den Praktika, Seminaren und Vorlesungen des Schwerpunktes ’Kardiologie, Elektrophysiologie und elektronische kardiologische Implantate’ vielfältig genutzt. Sie ermöglichten die Gestaltung interaktiver praktischer Weiterbildungsveranstaltungen für ärztliches und mittleres medizinisches Personal und für auf diesen Gebieten tätige medizintechnische Firmen.
Informationsvisualisierung im Kundenbeziehungsmanagement am Beispiel eines interaktiven Streamgraphs
(2014)
In dieser Arbeit wird der Streamgraph als Methode der Informationsvisualisierung im Kontext des Kundenbeziehungsmanagements vorgestellt. Neben der Auseinandersetzung mit den theoretischen Grundlagen dieser Themenbereiche wird die Eignung des Streamgraphs als Form der Visualisierung überprüft. Hierfür wird ein CRM-spezifischer Anwendungsfall erarbeitet und in einer webbasierten Applikation prototypisch realisiert. In diesem Zusammenhang werden Anforderungen in Bezug zu Interaktivität und Funktionalität aufgestellt und im Prototypen implementiert. Die Anforderungen an die Interaktivität orientieren sich hierbei an dem von Ben Shneiderman aufgestellten Mantra der visuellen Datenexploration.
In der abschließenden Auswertung wird eine bedingte Eignung für den Einsatz des Streamgraphs als effiziente Visualisierungsform im unternehmerischen Kontext festgestellt. Im Hinblick auf den Anwendungsfall erfüllt dieser zwar alle an ihn gestellten Anforderungen, die korrekte Lesbarkeit der Daten ist aufgrund seiner Form jedoch nicht gewährleistet.
Die vorliegende Masterarbeit hatte zum Ziel, die Effektivität des Influencer Marketings auf der Livestreaming-Plattform Twitch.tv zu untersuchen, da diesbezüglich zum einen bisher kaum geforscht wurde und zum anderen die Influencer Marketing Industrie weiterhin von Jahr zu Jahr wächst. Mittels eines Experiments basierend auf einem Forschungsmodell zweier norwegischer Masterstudentinnen wurde ein randomisiertes Zwei-Gruppen-Experiment durchgeführt, um die Effektivität des Influencer Marketings zu messen, sowie den Einfluss von Parasozialen Interaktionen auf die Effektivität des Influencer Marketings zu analysieren. Außerdem wurde ein Vergleich zwischen dem Influencer Marketing und einer regulären Online-Werbung gezogen. Für die Durchführung des Experiments konnten 184 Probanden gewonnen werden, welche randomisiert einem Treatment in Form eines gesponserten Twitch-Streams oder einem Videospieltrailer ausgesetzt waren. Trotz dieser Anzahl konnten im Laufe der Analyse keine signifikanten Ergebnisse erzielt werden. Jedoch konnten diverse Erkenntnisse gewonnen und Empfehlungen für zukünftige Forschung mit dem Fokus Influencer Marketing auf Twitch.tv ausgesprochen werden.
Die vorliegende Arbeit befasst sich mit dem Thema Influencer in der Gaming-Branche. Dabei wird untersucht, wie wichtig Influencer auch für Gamer und ihr Kaufverhalten, sowie für Gaming-Unternehmen und die Platzierung von Influencern in der Mediaplanung sind. Die Fragestellung wird aufgrund einer Online-Befragung mit Gamern, leitfadengestützten Interviews mit Influencern und Literaturrecherchen diskutiert.
Die Ergebnisse der Arbeit zeigen, dass Influencer auch in der Gaming-Branche einen sehr hohen Stellenwert einnehmen. Die Umfrage hat ergeben, dass Let's Player, Live Streamer und YouTuber einen großen, auch aktiven Einfluss auf die Kaufentscheidung besitzen. Besonders interessant sind in diesem Zusammenhang die rechtlichen Bestimmungen, die sehr viele Vorgaben für Influencer mit sich bringen, sowie die unbewusst und bewusst beeinflussenden Aspekte im Kaufentscheidungsprozess. Vor diesem Hintergrund werden in einer SWOT-Analyse einige Strategien entwickelt um beispielsweise rechtlichen Problemen entgegen zu wirken und die Stärken der Gaming-Influencer, wie beispielsweise hohe Reichweite, hohes Vertrauen und zielgruppengenaue Platzierung der Inhalte zu gewährleisten.
In diesem Kapitel geht es um die Frage, was unter dem Buzz-Word Industrie 4.0 zu verstehen ist und was nicht. Industrie 4.0 kann dabei unter gesellschaftlichen, kompetenzorientierten, produktionsorientierten oder verhaltensorientierten Gesichtspunkten unterschiedlich interpretiert werden. Die Umsetzung in Deutschland hat sich dabei vom politischen Konstrukt zur technisch-wirtschaftlichen Entwicklung im Rahmen der digitalen Transformation gewandelt.
Die Digitalisierung der Gesellschaft betrifft nicht nur einzelne Lebensbereiche, sondern beeinflusst und verändert enorm die Arbeitswelt. In diesem Sinne wird oft im Rahmen des Zukunftsprojekts Industrie 4.0 von Arbeiten 4.0, Arbeitswelt 4.0 und Arbeitsrecht 4.0 berichtet. Komplexe Produktionsprozesse lassen sich durch die Vernetzung von Systemen zu unterschiedlichen Zeiten und an nahezu jedem Ort steuern. Diese neuen Freiheiten können wiederum von den Arbeitnehmern positiv genutzt werden, um die persönliche Arbeitsgestaltung weiter zu individualisieren. Somit können beispielsweise die Arbeitszeiten und der Arbeitsort an die eigenen Bedürfnisse angepasst werden. Außerdem können diese sich neu ergebenden Möglichkeiten die Beschäftigten in ihrer Arbeitstätigkeit entlasten. Durch die Einführung neuer Technologien ergeben sich somit neue Chancen, aber auch Herausforderungen für das Arbeitsrecht. Infolgedessen sind diverse Handlungsfelder beziehungsweise Problemfelder betroffen, die es in diesem neuen Arbeitspapier darzustellen gilt. Es bezieht sich dabei speziell auf die Arbeitszeit, den Arbeitsort, die Arbeitnehmerqualifikation und die Datensicherheit. In diesem Zusammenhang werden die derzeit bestehenden Gesetze und Richtlinien aufgezeigt, die im Rahmen der Industrie 4.0 eine Rolle spielen. Auch die Herausforderungen, die durch die Interaktion der Digitalisierung in der Arbeitswelt aufkommen, gilt es, in diesem Arbeitspapier hervorzuheben.
Dieses Buch erläutert die allgemeinen Rahmenbedingungen von Industrie 4.0 und bietet innovativen KMUs im Industriesektor wertvolle Impulse.
Industrie 4.0 als Herzstück der digitalen Transformation vieler Produktionsbetriebe liefert ein sehr heterogenes Bild bezüglich der Umsetzung. Die Unterschiede in den organisatorischen Bedingungen liegen im Innovationsgrad der jeweiligen Organisation und lassen sich an der Nachhaltigkeit der Investitionen und dem damit verbundenen mittel- bis langfristigen Markterfolg festmachen.
Das Buch zeigt konkrete Umsetzungsbeispiele auf und beschreibt unter anderem Anwendungsszenarien von praxiserfahrenen und innovativen Ingenieur*innen im Maschinenbau und in der Medizintechnik. Zudem vermittelt es einen grundsätzlichen Überblick über Digitalstrategien und Anwendungsfelder von Industrie 4.0.
Es richtet sich gleichermaßen an Interessierte, Studierende sowie Praktiker aus den Themenfeldern Technologie, Ingenieurwesen und Management.
Das Zeitalter der Digitalisierung ist geprägt durch einen erhöhten Wettbewerb. Eine Chance, bei steigendem Wettbewerb erfolgreich zu bestehen, liegt daher nur in der durchgängigen Digitalisierung von Produktionsunternehmen. Dieser Beitrag stellt eine dreistufige generische Unternehmensmodellplattform Industrie 4.0 vor, die die Durchgängigkeit von Prozessen vom Kunden bis zum Lieferanten auf allen Unternehmensebenen in den Mittelpunkt stellt. Die Schritte zur Bewertung und Gestaltung des Fortschritts auf dem Weg zum digitalisierten Produktionsunternehmen werden aufgezeigt.
Unternehmen müssen aufgrund hohen Wettbewerbsdrucks ihre Produktivität stetig steigern. Ein Bereich, welcher sich deren permanenter Steigerung annimmt, ist das Industrial Engineering (IE). Gerade im Zuge der Digitalisierung und Vernetzung der Unternehmensprozesse beleuchtet der folgende Beitrag, wie sich Industrie 4.0 auf das IE auswirkt. Der Ansatz ist ein Industrial Engineering 4.0 zu gestalten, das die Fortschritte von Industrie 4.0 und der Digitalen Fabrik miteinander vereint.
Metallische Gehäuse stellen eine große Herausforderung für die Schnittstelle von aktiven medizinischen Implantaten dar. Ihre elektrische Leitfähigkeit und die sich dadurch ergebenden Wirbelströme verhindern das Eindringen von hochfrequenten elektromagnetischen Wellen und Feldern. Aus diesem Grund werden die Antennen außerhalb des Gehäuses platziert. Niederfrequentere magnetische Felder dringen jedoch durch das metallische Gehäuse, wenn auch abgeschwächt. Damit kann eine induktive Kommunikation realisiert und so elektrische Durchführungen durch das ansonsten hermetisch dichte Gehäuse vermieden werden.
In dieser Arbeit wird die induktive Datenübertragung durch ein metallisches Gehäuse untersucht. Ein Modell wird entwickelt, das die Effekte des metallischen Gehäuses auf die Übertragung berücksichtigt. Hierzu werden in einem neuen Ansatz anhand von FEM Simulationen Korrekturfaktoren ermittelt. Diese Korrekturfaktoren können visualisiert und direkt auf die Auslegung der Antennenspulen angewendet werden. Im Gegensatz zu anderen Modellierungen werden nur frei zugängliche Software-Lösungen verwendet. Zudem werden die Feldverteilungen durch die im metallischen Gehäuse entstehenden Wirbelströme untersucht. Die unterschiedlichen Gehäuse- und Spulenparameter werden im Hinblick auf deren Einfluss auf das Übertragungsverhalten diskutiert, was in dieser Form bisher noch nicht veröffentlicht wurde. Das resultierende Modell kann auf unterschiedliche Ausführungen der metallischen Kapselung angepasst werden um damit die Grenzen und Einschränkungen unterschiedlicher metallischer Gehäuse-Materialien zu untersuchen.
Mit der Weiterentwicklung eines Transceivers, der mit 10 kBit/s bei 125 kHz Trägerfrequenz arbeitet, wird ein Übertragungsbaustein entwickelt, der mit herkömmlichen Mikrocontrollern verwendet werden kann. Der Transceiver wird in einem ASIC mit 32 Pin QFN-Gehäuse implementiert. Anschließend werden die Funktionalität überprüft und die elektrischen Eigenschaften im Hinblick auf Temperatur-, Spannungs- und Frequenz-Verhalten charakterisiert. Durch die geringe Stromaufnahme und die hohe Datenrate bei niedriger Trägerfrequenz eignet sich dieser Transceiver für Langzeitanwendungen in medizinischen Implantaten. Das Neue an dem Transceiver ist seine Einsatzfähigkeit für metallische Gehäuse, die wegen der schmalen Bandbreite mit \approx\unit[4]{kHz} eine effiziente Datenübertragung trotz hoher Dämpfung ermöglicht und darüber hinaus die frequenzabhängige Verzerrung der Impedanz- und Übertragungsparameter minimiert.
Anhand einer konkreten Anwendung für eine implantierbare steuerbare Infusionspumpe werden die gesamte Elektronik des Implantats sowie eines kleinen und ein großen Bediengerätes konzipiert, entwickelt, programmiert und erfolgreich in Betrieb genommen. Darin werden sowohl das induktive Übertragungsmodell als auch der Transceiver verwendet und somit deren Funktionalität und Einsatzfähigkeit demonstriert. Mithilfe dieser Entwicklung ist es möglich, über einen Abstand von 65 mm, die Dosierung eines Medikaments einzustellen und an den Tagesrhythmus der Patient*innen anzupassen sowie die Funktionalität des Implantats zu überprüfen. Aktuell gibt es auf dem Markt ein weiteres ähnliches Produkt, zu dem jedoch keine wissenschaftlichen Veröffentlichungen vorliegen. Diese Arbeit liefert damit einen wissenschaftlichen Beitrag für die Entwicklung langlebiger metallisch gekapselter Implantate mit induktiver Schnittstelle.
Bei modernen Lokomotiven mit Drehstrom-Asynchronmotoren und mit bis zu 7 Megawatt Leistung, neigt das Antriebssystem bei nicht ausreichendem Kraftschluß zwischen Treibradsatz und Schiene zum 'Durchdrehen'. Bei diesem Vorgang wird nahezu die gesamte Energie zur Beschleunigung des Radsatzes eingesetzt, was zu mechanischen Schäden an den Rädern und Schienen führen kann. Beim Bremsen ist dies ähnlich, die Räder gleiten auf den Schienen, wenn zuviel Bremskraft gefordert wird. Die übertragbaren Zug- und Bremskräfte werden primär durch die Radsatzlast und den Kraftschlußbeiwert bestimmt, wobei der Verlauf der Kraftschlußkennlinie als Funktion des Schlupfs oder der Schlupfgeschwindigkeit im wesentlichen durch den Schienenzustand (naß oder trocken) bestimmt wird. Eine hohe Kraftschlußnutzung wird dann erreicht, wenn man laufend denjenigen Schlupfwert einstellt, der zum jeweiligen Kraftschlußmaximum führt. Hierzu werden in der Praxis verschiedene Konzepte und Methoden eingesetzt, es ist bis heute jedoch keine Methode bekannt, den Verlauf der Kraftschlußkennlinie meßtechnisch laufend zu erfassen oder rechentechnisch zu bestimmen. Bei der hier vorgestellten Vorgehensweise wurde der mechanische Antrieb zusammen mit dem Rad-Schiene-Kontakt als Zustandsraumodell beschrieben. Die Betrachtungen beruhen dann auf einer Frequenzganguntersuchung des eingeführten linearen Zustandsraummodells. Aufgrund der Linearisierung gelten die Ergebnisse der Frequenzgangsberechnung nur für den jeweiligen Betriebspunkt der Kraftschlußkennlinie, also für eine bestimmte Steigung. Variiert man nun die Steigung, so läßt sich der Einfluß der nichtlinearen Kraftschlußkennlinien ermitteln. Zur Messung von Frequenzgängen eignen sich insbesondere Verfahren der Orthogonalen Korrelation. Die technische Realisierung wird skizziert. Die Meßinformation ist dann die Basis für eine Regelung, die ein permanentes optimales Fahren im Kraftschlußmaximum zuläßt und zwar beim Beschleunigen und beim Bremsen. Das beschriebene Meß- und Regelungsverfahren ist derzeit in der Schweiz in der Betriebserprobung.
Der erste Shell Eco-Marathon in Deutschland fand 2009 auf dem Euro-Speedway Lausitzring statt. Mehr als 2500 Studenten aus 29 Länder haben in zwei Kategorien, Prototype und Urban Concept, um den Titel des sparsamsten Fahrzeugs gekämpft. Nach den Erfahrungen aus Nogaro in Frankreich war das Offenburger MITeam fest entschlossen, diese Ereignisse live ins Internet zu senden. Doch es kam anders. Bedingt durch die limitierte Teamstärke und Internetbandbreite wurde aus der Live-Sendung eine unabhängige Berichterstattung. So ging die Webseite www.eco-marathon.de nach einer Rundumüberholung mit neuem Design wieder online. Täglich wurden Spots vom Event produziert und ins Internet gestellt. Die Arbeit des MI-Teams kann unter der oben erwähnten Webseite verfolgt werden.
Beinahe jeder Online-Anbieter wünscht sich ausgiebiges Feedback, also möglichst viele Produktbewertungen, Likes u.Ä. Denn Feedback erzeugt Popularität und diese wiederum bringt neue Kunden. Die lauterkeitsrechtlichen Probleme von Incentives zur Steigerung der Feedback-Rate sind Thema dieses Beitrags.
Im Fokus dieser Arbeit steht die Analyse der mechanischen Eigenschaften von Gitterstrukturen. Die Gitterstrukturen werden aus einem niedrig legierten Stahl und mit Hilfe des L-PBF-Verfahrens gefertigt. Ein Teil der Gitterstrukturen wird im Prozess durch eine Doppelbelichtung wärmebehandelt. In einer weiteren Versuchsreihe wird die in-Situ-Wärmebehandlung nur lokal an Strebenelementen angewandt. Die Werkstoffeigenschaften der Gitterelemente werden durch die Methoden Dichtemessung und Härteprüfung charakterisiert sowie mit Hilfe der Elektronenrückstreubeugung metallografische untersucht. In dem Versuchsspektrum werden die Strebenwinkel, von 35° bis 60° und die Strebendurchmesser von 0,5 mm bis 2,25 mm variiert. Hierbei wird untersucht, ob sich die Werkstoffeigenschaften verändern.
In dieser Arbeit wird eine relative Dichte von über 99,7 % bei den Gitterstrukturen erreicht. Im Vergleich zu den einfachbelichteten Gitterelementen wird durch die in-Situ-Wärmebehandlung die Makrohärte signifikant gesteigert. Im Versuchsspektrum werden durch die Variation der Geometrie keine signifikanten Veränderungen der Makrohärte und der Mikrotextur des Gefüges festgestellt. Im Randbereich der Streben wird eine Reduzierung der Härte von bis zu 250 HV0,1 beobachtet. Eine messbare Veränderung der Mikrotextur ergibt sich nicht. Als Grund sind Anlasseffekte wahrscheinlich, welche bei der metallografischen Untersuchung im Randbereich festgestellt werden.
Der Bedarf an Bandbreite für Internetanwendungen ist in den letzten Jahren so stark gestiegen, dass Kupferleitungen diesen Anforderungen nicht mehr entsprechen können. Aus Expertensicht ist die Lösung dieses Problems ein optisches Netzwerk aus Lichtwellenleitern (LWL), das bis in die Wohnung zum Endkunden reicht – das sogenannte „Fiber to the Home“ (FttH)-Konzept.
Die von der Bundesregierung beschlossene Energiewende stellt Politik und Gesellschaft, Wirtschaft und Wissenschaft vor große Herausforderungen. Entscheidend für den Erfolg der Energiewende wird es sein, die Wettbewerbsfähigkeit des Industriestandortes Deutschland zu erhalten. Dafür muss weiterhin eine hohe Stromversorgungsqualität bei zugleich international wettbewerbsfähigen Strompreisen sichergestellt sein. Der BDI stellt fünf Prinzipien auf dem Weg zu einem neuen Strommarktdesign auf und zeigt, dass eine informations- und kommunikationstechnische Vernetzung relevanter Komponenten des Energiesystems für das künftige System essenziell ist.
In recent years, the additive manufacturing processes have rapidly developed. The additive manufacturing processes currently present a high-performance alternative to conventional manufacturing methods. In particular, they offer the opportunity of previously hardly imaginable design freedom, i.e. the implementation of complex forms and geometries. This capability can, for example, be applied in the development of especially light but still loadable components in automotive engineering. In addition, waste material is seldom produced in additive manufacturing which benefits a sustainable production of building components. Until now, this design freedom was barely used in the construction of technical components and products because, in doing so, both specific design guidelines for additive manufacturing and complex strength calculations must be simultaneously observed. Yet in order to fully take advantage of the additive manufacturing potential, the method of topology optimization, based on FEM simulation, suggests itself. It is with this method that components that are precisely matched and are especially light, thereby also resource-saving, can be produced. Current literature research indicates that this method is used in automotive manufacturing for reducing weight and improving the stability of both individual parts and assembly units. This contribution will study how this development method can be applied in the example of a brake mount from an experimental vehicle. In this, the conventional design is improved by means of a simulation tool for topology optimization in various steps. In an additional processing step, the smoothing of the thus developed component occurs. Finally, the component is generatively manufactured by means of selective laser melting technology. Models are manufactured using binder jetting for the demonstration of the process. It will also be determined how this weight reduction affects the CO2 emissions of a vehicle in use.
Implementierung von Softcore-Prozessoren und/oder weiteren IPs (Intellectual Property) in FPGAs
(2018)
Die zunehmende Integration von kompletten Systemen auf einem Chip (System-on-Chip, SoC) erfordert auch immer die Integration einer Recheneinheit bzw. eines Prozessorkerns. Möchte man insbesondere Low-Power-SoC-Systeme entwickeln, z.B. drahtlose Sensor-SoC-Systeme für Anwendungen im Rahmen von Industrie 4.0, ist die Implementierung eines solchen Prozessorkerns mit hohen Herausforderungen verbunden. Prinzipiell können hierfür verschiedene Ansätze verfolgt werden, nämlich die Implementierung einer Hardcore Prozessor-IP (IP = Intellectual Property) oder einer Softcore-Prozessor-IP. Im vorliegenden Beitrag wird zunächst auf den derzeitigen Stand der Technik verfügbarer Hardcore- oder Softcore-Prozessoren unter den Randbedingungen der Low-Power-Anforderungen und der weiten Verbreitung des Cores in industriellen Anwendungen eingegangen. Schließlich werden die Ergebnisse der Implementierung und Evaluierung eines derzeit frei verfügbaren 16-bit MSP430-kompatiblen Softcore Prozessors auf einem Altera-Cyclon-FPGA vorgestellt. Aus den Ergebnissen wird ein entsprechendes Fazit für die Implementierung von Low-Power-SoC-Systeme gegeben.
Implementierung von Softcore-Prozessoren und/oder weiteren IPs (Intellectual Properties) in FPGAs
(2017)
In heutigen Low-Power-Anwendungen ist es mittlerweile Standard sogenannte System-on-a-Chip (SoC)-Systeme zu entwickeln. Diese benötigen eine Recheneinheit, sowie nur die notwendigste Hardware, um die Energieversorgung auch über Energy-Harvesting zu ermöglichen.
Im Rahmen dieser Abschlussarbeit wurde der aktuelle Stand von verfügbaren Hardcore- und Softcore-Prozessoren evaluiert. Aufgrund der hohen Anforderung an den Prozessor in Low-Power-Systemen, wurden Hardcore-Prozessoren für die weitere Untersuchung ausgeschlossen. Obwohl diese sehr leistungstarke und energieeffiziente Prozessoren sind, weisen Hardcore-Prozessoren nicht die notwendige Flexibilität in einer minimalen Konfiguration auf, um die Ansprüche einer Low-Power-Anwendung zu erfüllen.
Aus diesem Grund wurden von verschiedenen Quellen Softcore-Prozessoren untereinander mit zusätzlich, ausgewählten Kriterien untersucht. Die Wahl fiel auf den NEO430, welcher auf der Architektur des Mikrocontrollers MSP430 von Texas Instrument basiert.
Mit dem NEO430 als Softcore, wurde ein Demonstrator-System entwickelt und auf dem Development-Board DE2-115 von Terasic implementiert. Im Zuge der Entwicklung des Demonstrators wurden weiterhin frei verfügbare IP-Cores zur Anbindung an den NEO430 untersucht. Der Demonstrator umfasste eine selbst entwickelte CRC-Berechnung, um damit die Programmierbarkeit, die Funktionen des NEO430 zu testen und dessen Ressourcenverbrauch, sowie Erweiterbarkeit über der Wishbone-Schnittstelle zu evaluieren.
Die Evaluierung des Demonstrator-Systems ergab einen Ressourcenverbrauch von 1253 Logikelemente des Development-Boards. Neben dem Demonstrator wurden weitere Konfigurationen, wie eine Minimale-, die Standard-Konfiguration und insbesondere eine Konfiguration ohne der Wishbone-Schnittstelle evaluiert.
Durch die starke Verbreitung der MSP430-Serie in der Industrie, ist der NEO430 ein interessanter Kandidat für Low-Power-Systeme
Implementierung von schnellen Algorithmen auf Basis der FFT in einem digitalen Signalprozessor
(2017)
In dieser Bachelor-Thesis geht es um die Weiterentwicklung des bestehenden Laborversuchs „Schnelle Algorithmen auf Basis der FFT“ des Labors „Digitale Signalverarbeitung“. Dieser Versuch wird momentan mit einem digitalen Signalprozessor (TMS320C6713) umgesetzt. Dabei sollen eine schnelle Faltung, sowie Erweiterungen der bestehenden Software, welche mit dieser zusammenhängen, implementiert werden. Des Weiteren sollen Verbesserungen und Korrekturen an dem bestehenden Projekt vorgenommen werden. Um herauszufinden, was bereits implementiert ist, wird das bestehende Projekt zunächst analysiert. Anschließend wird die schnelle Faltung mit dem für das Labor benötigten Funktionsumfang implementiert. Zudem werden darüber hinaus Erweiterungen der Software umgesetzt, wie z.B. eine Sprachauswahl.
Implementierung und Automatisierung von Performance-Tests aus den Erkenntnissen von Last-Tests
(2021)
Die Website des bayerischen Fußball-Verbandes hatte anfangs Performance Probleme, weshalb es zu Abstürzen der Seite kam. Um das Problem zu lösen wurden Last-Tests eingeführt. Diese können allerdings nicht immer ausgeführt werden, weshalb ein Performance-Test erstellt werden soll. In dieser Arbeit wird das Verhalten von Webservern unter Last analysiert, um einen Performance-Test zu entwickeln.
Um das Verhalten beurteilen zu können, wurden auf einem lokalen Computer Last-Tests ausgeführt und analysiert. Dabei fiel auf, dass die Steigung der Response Time nicht linear ansteigt im Vergleich zu den virtuellen Usern. Die Funktion steigt ab einem gewissen Punkt stark und nähert sich einer Asymptote an. Dieser Punkt ist durch eine Formel berechenbar.
Aus diesen Ergebnissen wurde eine Berechnungsformel entwickelt, die anhand von Messungen die Performance einer Website berechnen kann. Die Formel wurde in ein Testskript integriert, das die Website Ressourcen automatisch scannt und die Messungen ausführt. Der erstellte Test wird zum Schluss ausgeführt und teilweise automatisiert.
Diese Bachelorarbeit untersucht die Möglichkeiten der Persistierung und anschließenden Analyse verschiedener Messwerte in einer geeigneten Software-Architektur. Zunächst wird dazu die genaue Aufgabenstellung betrachtet. Im Anschluss soll die geplante Software-Architektur und die vorgesehene Kommunikationsart erklärt werden. Um das entwickelte Produkt einfach zur Verfügung stellen zu können, sollen die Tools Vagrant, Puppet und Docker gemeinsam genutzt werden. Nachdem im Anschluss auf die eingesetzte Servertechnologie eingegangen wurde, beschäftigt sich die Arbeit mit der Persistierung der Messdaten. Hierzu werden die verschiedenen Arten verfügbarer Datenbanktechnologien erläutert und darauf aufbauend eine Auswahl getroffen. Als letzten Teil der Anwendung wird auf die Demonstrationsapplikation eingegangen. Hier werden wieder die nötigen Anforderungen erörtert und die Umsetzung beschrieben.
Anhand der gewonnenen Erkenntnisse wird abschließend ein Fazit der verwendeten Technologien und der Architektur verfasst. Hier soll die Eignung der verwendeten Technologien zur Lösung des Problems überprüft und bewertet werden.
Abschließend wird noch ein Ausblick auf die zukünftige Entwicklung in diesem Bereich gegeben.
Das Ziel der Arbeit ist zu erforschen, ob die Erstellung eines Digital Twin des Hamburger Hafens durch Open Source Lösungen realisierbar ist. Die Grundlagen führen in die Themen Digital Twin und Smart City ein. Es wird darauf eingegangen, welche Vorteile durch die Verwendung eines Digital Twins gewonnen werden können und wie sich die verschiedenen Digital Twin-Typen unterscheiden. Es werden verschiedene Architekturen anhand eines Smart City Index weltweit evaluiert, um ein geeignetes Digital Twin-Framework zu finden. FIWARE hat sich als geeignetes Frame- work erwiesen und wird im Anschluss analysiert. Anhand der Evaluierung wird ebenfalls das 3D-Visualisierungs Framework CesiumJS als Open Source Lösung ermit- telt. Das Unternehmen Hamburg Port Authority wird vorgestellt und die interne IT- Infrastruktur betrachtet. Anhand der Architekturdokumentation arc42 werden die Anforderungen und die erforderliche Architektur in Zusammenarbeit mit der Hamburg Port Authority ermittelt. Im Anschluss wird der Architekturentwurf anhand eines Prototyps implementiert. Probleme oder Anforderungen, die nicht erfüllt werden können, werden beschrieben. Abschließend werden die Ergebnisse und das Fazit der Hamburg Port Authority zusammengefasst.
Hochgenaue Systeme zur Positionsbestimmung spielen im heutigen Zeitalter für den privaten, kommerziellen aber auch militärischen Bereich eine immer wichtigere Rolle. Anwendungsgebiete wie Wandern, Geocaching, Mauterhebungssysteme, autonome Luft-, Land- und Seefahrt, sowie etliche militärische Verwendungen sind nur ein kleiner Überblick dieser Anwendungsmöglichkeiten.
Die durch die Anwendungsgebiete auftretende Notwendigkeit der Satellitennavigation, stellt meine Motivation dar, den Laborversuch Messtechnische Analyse eines Systems zur Satellitennavigation zu erneuern. Dieser Laborversuch soll den Studierenden des Studiengangs Elektrotechnik/Informationstechnik mit dem Schwerpunkt Kommunikationstechnik die Satellitennavigation anhand moderner Laboreinrichtung näherbringen.
Die nachfolgende Arbeit beschäftigt sich zu Beginn mit den allgemeinen theoretischen Grundlagen der Satellitennavigation, gefolgt von systemspezifischen Beschreibungen. Die weiteren Kapitel beinhalten die Versuchsbeschreibung, eine Musterlösung und Informationen für den betreuenden akademischen Mitarbeiter.
Des Weiteren wurden Messreihen aufgezeichnet, welche die einzelnen
Satellitennavigationssysteme qualitativ gegenüberstellen. Auf die Messreihen wird in dieser Thesis nicht eingegangen. Hierfür darf an dieser Stelle auf einen Beitrag in der Hochschulzeitschrift Forschung im Fokus verwiesen werden.