Refine
Year of publication
Document Type
- Article (unreviewed) (439)
- Part of a Book (393)
- Conference Proceeding (256)
- Contribution to a Periodical (229)
- Book (195)
- Other (138)
- Article (reviewed) (126)
- Working Paper (86)
- Report (73)
- Patent (65)
- Periodical Part (53)
- Doctoral Thesis (11)
- Letter to Editor (2)
- Study Thesis (2)
Conference Type
- Konferenzartikel (214)
- Konferenz-Abstract (22)
- Konferenz-Poster (10)
- Sonstiges (7)
- Konferenzband (5)
Language
- German (2068) (remove)
Is part of the Bibliography
- yes (2068) (remove)
Keywords
- Digitalisierung (36)
- Arbeitszeugnis (22)
- Social Media (21)
- Management (18)
- Offenburg / Fachhochschule (18)
- Industrie 4.0 (17)
- Schule (17)
- Bildung (15)
- Marketing (15)
- Mathematik (15)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (662)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (382)
- Fakultät Wirtschaft (W) (357)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (288)
- Fakultät Medien (M) (ab 22.04.2021) (165)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (104)
- INES - Institut für nachhaltige Energiesysteme (74)
- Zentrale Einrichtungen (65)
- Rektorat/Verwaltung (32)
- POIM - Peter Osypka Institute of Medical Engineering (31)
Open Access
- Open Access (658)
- Closed Access (615)
- Closed (284)
- Bronze (147)
- Diamond (14)
- Hybrid (5)
- Grün (4)
- Gold (2)
Das Internet hat nicht nur neue Geschäftsmodelle in großer Zahl hervorgebracht, es ist auch bei der Erfindung neuer Werbeformen sehr kreativ. Neben die „klassische“ Bannerwerbung und die inzwischen auch schon intensiv weiter entwickelten Partnerprogramme (Affiliate-Marketing) treten in zunehmender Weise auch und gerade „getarnte“ Werbeformen, die mit Bezeichnungenwie „Stealth-Marketing“ schon vom Namen her für Furore sorgen sollen. Der Beitrag stellt einige dieser Werbeformen vor und beurteilt sie aus rechtlicher Sicht. Dabei erweisen sich diese Marketing-Varianten mitunter als nicht so neu wie ihre Anbieter behaupten.
"Machen Sie doch mal mehr PR und Werbung für Ihre Schule": Kommunikationscontrolling in Schulen
(2015)
Henry Fords Bonmot zur Werbeerfolgskontrolle ist sicherlich der bekannteste Satz im Sektor des Kommunikationscontrollings: „Die Hälfte unserer Werbegelder werfen wir zum Fenster raus. Ich weiß nur nicht, welche Hälfte das ist.“ Diese kritische Würdigung von Kommunikationsleistungen ist auch heute noch immer wieder Thema und gerade im Umfeld von Schule, wo diese Prozesse noch keine sehr lange Tradition haben, Teil der internen und externen Diskussion. Die Steuerung von Kommunikationsprozessen erfordert jedoch nicht nur die Quantifizierung von Kommunikationsleistungen, sondern eine Einbettung in die gesamte Marketingstrategie und in die Bewertung einzelner Marketingbereiche und der dort entwickelten Marketingziele.
Bioakustik, ein interdisziplinäres Gebiet der Biologie zwischen Klang und Umwelt, erfährt durch die Kunstkopf-Hörbilder des Naturforschers und Tonmeisters Walter Tilgner eine plastische, wissenschaftliche Erweiterung. Mit dem binauralen Kunstkopfverfahren zeichnet er nicht nur einzelne tier- und vogelkundliche Laute auf, sondern die gesamte Umgebung und ihr typisches Klangbild. Während die Tierstimmenanalyse etwa der Ornithologie einzelne Formen des Vogelgesangs untersucht, geht es ihm und Hörkünstlern wie Gordon Hempton, dem ‚Soundtracker‘, um das Wechselspiel zwischen den Arten in Zeit und Raum. Auch die pädagogische Seite spielt eine Rolle, um den Rezipienten Naturklang als wertvolle Ressource nahezubringen. 1985 hat der Pionier Tilgner die ersten Naturlandschaften vollständig digital aufgenommen und bei WERGO mit dem Label ‚Natural Sound‘ als CD publiziert. Für den Komponisten und Wissenschaftler Dr. Bernie Krause aus Kalifornien repräsentieren solche Aufnahmen ökologische Nischen in der Landschaft, von typischen Klangverläufen geprägt. In seinem eigenen Vergleich dichter Naturräume in Südamerika, Afrika und Asien werden sie unverwechselbar als akustischer Fingerabdruck nachweisbar. Der Künstler- Forscher hat mit der Spektralanalyse so nicht nur seine ‚Nischen-Hypothese‘ entwickelt und empirisch bestätigt, sondern auch den Begriff der Biophonie geprägt: Naturklänge entfalten sich wie in einem musikalischen Stück, sie sind der Komposition einer (Bio-)Symphonie vergleichbar. Die Stimmen der Spezies bilden arin den ‚materialen Klang‘ (den Ausdruck verdanken wir dem Komponisten Johannes Wallmann in Berlin). Darauf wirken die zeitlichen Prozesse und räumlichen Faktoren der Umwelt, als ‚Geophony‘ aus Klima und Flora, durch Sonne, Wind, Erde und Wasser. Schließlich verändert auch der Mensch die Naturlandschaft durch technische Geräte, wie in der Tonaufnahme, und durch extensives Wirtschaften hin zur ‚Anthrophony‘. Der Klang der Natur ist also menschgemacht, und die Aufnahmen bedeuten nicht nur wertvollen Rohstoff für die Medien. Bioakustik und Biophonie fordern den Dialog von und über Natur und Kultur immer wieder neu heraus, wie hier im Spektrogramm einer Waldcollage, mit einer starken Motorsäge als Mittelpunkt [2].
'Natural Sound'
(2009)
... und wieder ruft das CHE
(2013)
1000 Meilen unter Strom, Rekordfahrt des in Offenburg entwickelten eFahrzeugs "Schluckspecht"
(2012)
Nach der Entwicklung eines sparsamen Demonstrationsfahrzeugs mit Dieselmotor und Brennstoffzellenfahrzeuge wurde ein Batteriefahrzeug entwickelt, das in Südafrika unter der Aufsicht von FIA-Ingenieuren 626,6 km fuhr, ohne dass die Batterie aufgeladen werden musste. Ein Demonstrationsfahrzeug des Japan Electrical Vehicle Club hielt den damaligen Weltrekordmit 555,6 km.
Diese Fallstudien sind im Rahmen der Vorlesung "Integrationsseminar" von Bachelorstudenten/-innen des 5. Semesters an der DHBW Mannheim erarbeitet worden. Es handelt sich bei diesen Fallstudien ausschließlich um Unternehmen, die einen Onlinehandel betreiben. Jede Fallstudie beginnt mit der Beschreibung des Beispielunternehmens, deren Entwicklung und Ausrichtung. Anschließend werden die Marktsituation, sowie die Stärken und Schwächen dargestellt. Die Handlungsempfehlung und das Fazit fassen die Schwerpunkte zusammen und die abschließenden Arbeitsfragen können für eine weitere Bearbeitung verwendet werden.
Im Jahr 1504 verlor der deutsche Ritter Gottfried („Götz“) von Berlichingen seine
rechte Hand. Schon während seiner Genesung dachte er daran, die Hand zu ersetzen,
und beauftragte bald darauf die erste Handprothese, die sogenannte „Eiserne Hand“.
Jahre später wurde die aufwändigere zweite „Eiserne Hand“ gebaut. Wir haben die erste
Prothese auf der Basis früherer Literaturdaten von
Quasigroch (1982) mit Hilfe von 3-D
Computer-Aided Design (CAD) rekonstruiert. Dazu mussten einige Abmessungen angepasst
und ein paar Annahmen für das CAD-Modell gemacht werden. Die historische passive
Prothese des Götz von Berlichingen ist für die moderne Neuroprothetik interessant, da sie
eine Alternative zu komplexen invasiven Brain-Machine-Interface-Konzepten darstellen
könnte, wo diese Konzepte nicht notwendig, möglich oder vom Patienten gewünscht sind.
In this study, we tested the function of a replica of the over 500-year-old original of the
famous Franconian Imperial Knight Götz von Berlichingen’s first “iron hand”, which we
reconstructed by computer-aided design (CAD) and recently printed using a multi-material
3D printer. In different everyday tasks, the artificial hand prosthesis proved to be remarkably
helpful. Thus, the hand could hold a wine glass, some grapes, or a smartphone. With a
suitable pencil, even writing was possible without any problem. Although for all these
functions the healthy other hand was necessary to assist at the beginning, the artificial hand
is an astonishing mechanical aid with many possibilities. Therefore, in certain cases, the
non-invasive approach of a passive mechanical hand replacement, which is an individual,
quick and cheap solution due to modern 3D printing, may always be worth considering
also for today’s requirements.
Auf Grundlage der Computer-Aided-Design (CAD)-rekonstruierten ersten „Eisernen Hand“ des Götz von Berlichingen wird ein umgebautes, controllergesteuertes sensomotorisches Fingersystem auf seine Funktionalität beim Greifen von unterschiedlichen Gegenständen beschrieben und geprüft. Die elektronischen Finger, die den „Pinzettengriff“ nachahmen und automatisch bei dem zuvor eingestellten Anpressdruck abschalten, bewiesen eine bemerkenswerte Alltagstauglichkeit. Das vorgestellte Grundkonzept könnte eine Alternative bei der Entwicklung einfacher und kostengünstiger, aber dennoch gut einsatzfähiger bionischer Hände sein und zeigt einmal mehr, wie historische Ideen in die Gegenwart transferiert werden können.
Um medizinische Behandlungsverfahren in der Praxis besser verstehen und anwenden zu können, gewinnt die Visualisierung der Prozesse an immer größerer Bedeutung. Durch Anwendung der Computer-Simulationssoftware CST können elektromagnetische und thermische Simulationen zur Analyse verschiedener Herzrhythmusstörungen durchgeführt werden. Eine weitere Form der Visualisierung erfolgt durch haptische, dreidimensionale Druckmodelle. Diese Modelle können mit einem generativen Herstellungsverfahren, wie z. B. einem 3D-Drucker, in kürzester Zeit hergestellt werden.
Dieser Beitrag stellt die Möglichkeiten des 3D-Druckes unter der Berücksichtigung von Mensch-Roboter-Kollaborations-Anforderungen dar. Dabei werden die Vorteile mit besonderem Fokus auf die zusätzliche Gestaltungsfreiheit erläutert. Anhand von Beispielen wird der Stand der Technik bereits eingesetzter Sensorik sowie deren Notwendigkeit in Greifsystemen erläutert. Im weiteren Verlauf dieses Beitrags werden allgemeine Verfahren für die additive Verarbeitung von leitfähigen Materialien vorgestellt. Daran angeknüpft sind Beispiele speziell zur 3D-gedruckten Sensorik. Abgerundet wird der Beitrag mit einem Ausblick bezüglich 3D-gedruckter Sensorik in MRK-Greifsystemen.
Die gefährliche Wirkung von Kerben auf Konstruktionsteile bei Dauerbeanspruchungen ist dem Konstrukteur bekannt. Trotzdem sind viele in der Praxis beobachteten Schadensbilder an Passverzahnungen fast durchweg auf nicht genügend berücksichtigte Kerbwirkung infolge der konstruktiv bedingten Mehrfachkerben zurückzuführen. Die hohen Anforderungen vor allem an Drehmoment übertragende und hochbeanspruchte Konstruktionsteile zwingen uns, der Frage der Kerbwirkungen sowie Maßnahmen zu deren Milderung erhöhte Aufmerksamkeit zu widmen. Der vorliegende Beitrag beschreibt erste Untersuchungsergebnisse mit der Finite-Elemente-Methode (FEM) zur Ermittlung der Kerbwirkung an den Übergangsstellen für die nach DIN 5480 genormten Passverzahnungen mit freiem Auslauf bei Torsion und Biegung. Die rechnerisch abgeschätzten Form- und Kerbwirkungszahlen an Passverzahnungen werden mit experimentellen Kerbwirkungszahlen aus den Ermüdungsversuchen verglichen. Das Ziel ist es, den Stand der Technik hinsichtlich der Berechnung der Tragfähigkeit und Ermüdungsfestigkeit bei Passverzahnungen weiterzuentwickeln und die neu gewonnenen Form- und Kerbwirkungszahlen in die Berechnungsvorschriften DIN 743 und DIN 5466 einzubinden.
Diese Fallstudien sind im Rahmen der Vorlesung "Integrationsseminar" von Bachelorstudenten/-innen des 5. Semesters an der DHBW Mannheim erarbeitet worden.Es handelt sich bei diesen Fallstudien ausschließlich um Unternehmen, die einen Onlinehandel betreiben.Jede Fallstudie beginnt mit der Beschreibung des Beispielunternehmens, deren Entwicklung und Ausrichtung. Anschließend werden die Marktsituation, sowie die Stärken und Schwächen dargestellt. Das Fazit und eine Handlungsempfehlung fassen die Schwerpunkte zusammen und die abschließenden Arbeitsfragen können für eine weitere Bearbeitung verwendet werden.
… nicht nur in der Energiewirtschaft, sondern auch im positiven und wahrsten Sinne des Wortes in der Fachgruppe PM Windenergie. In über 40 Jahren GPM wurde immer wieder deutlich, dass Projekte und Programme in Wirtschaft und Gesellschaft nicht nur begleitet, sondern auch aus der GPM heraus mitgestaltet werden. Die Entwicklung und die Ergebnisse der Fachgruppe Windenergie machen dies besonders deutlich.
Betrugsmaschen werden wohl nie aussterben. Immer wieder wachsen neue Opfer nach, die unwissend, leichtgläubig oder schnell einzuschüchtern sind. Privatleute und Unternehmer werden dabei gleichermaßen Opfer von geschickten "Vertragsabschlusskonstruktionen", bei deren Durchsetzung zuweilen auch Juristen beteiligt sind. Dieser Beitrag befasst sich mit aktuellen Entwicklungen und Entscheidungen im deutschen Recht zu eben diesen Fällen.
ABSCHIED VOM AUSSEN
(2019)
In dieser Arbeit werden die außentemperaturgeführte Vorlauftemperaturregelung (Standard-TABS-Strategie), ein Verfahren das auf einer multiplen linearen Regression basiert (AMLR-Strategie) und ein Verfahren, das unter dem Obergriff der modellprädiktiven Regelung (MPC-Strategie) zusammengefasst werden kann, untersucht. Anhand der Simulationsergebnisse und des Integrationsaufwandes in die Gebäudeautomation des Seminargebäudes wurde eine Fokussierung auf die AMLR-Strategie vorgenommen.
In dem Projekt BioMeth wurde der Ansatz der Membranbegasung zur Erhöhung der Verfügbarkeit von gelöstem Wasserstoff für die biologische Methanisierung im Sinn der Etablierung eines Power-to-Gas-Konzeptes zur Energiespeicherung verfolgt. Übergeordnetes Ziel war die Entwicklung eines skalierbaren Verfahrenskonzeptes, dass sich zur Nutzung CO2-haltiger Gasvolumenström eignet. Geplant war es, das Verfahren am Beispiel der Biogasanlage der Biokäserei Monte-Ziego in Teningen zu demonstrieren und dort das bestehende Konzept der parallelen Abwasseraufbereitung und Energieerzeugung zu erweitern. Die ursprüngliche Struktur des Arbeitspaketplanes ist in nachfolgender Abbildung gezeigt.
Die Kenntnis der Messunsicherheit verbessert die Aussagekraft von Einsatzhärtungstiefe-Messungen. Ausgehend von der Definition in der DIN EN ISO 2639:2002 wird unter Anwendung des „Guide to the Expression of Uncertainty in Measurement“ die Messunsicherheit abgeschätzt. Dazu werden die Einflüsse der Härteprüfung, der Positionierung der Prüfpunkte und der Probe berücksichtigt. Das Verfahren wird an zwei Beispielen angewendet: Zunächst werden die gemäß Norm zulässigen Toleranzen vollständig ausgenutzt, anschließend die Unsicherheit eines automatisierten Härteprüfers experimentell ermittelt. In beiden Fällen dominiert der Probeneinfluss das Ergebnis.
Das fortwährende Streben nach Steigerung der Genauigkeit und Effizienz von industriellen Bearbeitungs- und Prüfprozessen führt bei elektrischen Antrieben zu immer höheren Forderungen an ihre dynamischen Eigenschaften. Hierbei kommt dem Stromregelkreis als dem am weitesten unterlagerten Regelkreis eines elektrischen Antriebs eine entscheidende Bedeutung zu. Mit zunehmender Dynamikerhöhung des Stromregelkreises treten jedoch aufgrund von Parameterunsicherheiten und von Messfehlem immer deutlicher Probleme der Regelkreisrobustheit und der Geräuschemission in den Vordergrund, die es oft nicht gestatten, die theoretisch erhaltenen Lösungen in vollem Umfang zu realisieren. Gegenüber der optimalen Lösung müssen dann Abstriche hinsichtlich der erreichbaren Dynamik gemacht werden. Wie diese Abstriche durch das Ausschöpfen verborgener Freiheitsgrade reduziert werden können, wird im vorliegenden Beitrag gezeigt. Als Lösungsansatz wird hierfür ein achsenunsymmetrischer Statorstromzustandsregler gewählt, der es erlaubt, in der d- und q-Achse eine unterschiedliche Dynamik einzustellen. Hierbei wird zunächst im Kapitel 2 ein kurzer Überblick über die Entwicklungsgeschichte und den Stand der Technik von pulsweitenmodulierten Stromregelverfahren für Drehstromantriebe in den zurückliegenden Jahrzehnten gegeben. Anschließend wird am Beispiel einer frequenzumrichtergespeisten Asynchronmaschine das zeitdiskrete Modell der Statorstromregelstrecke vorgestellt, das dem hier erläuterten Verfahren zugrunde liegt. Wegen des Zusammenhangs zwischen Dynamikerhöhung und Empfindlichkeitszunahme ist es naheliegend, die Dynamik des Statorstromregelkreises nur so weit zu steigern, wie es erforderlich ist. Diesbezüglich ist insbesondere zu gewährleisten, dass ein angefordertes Drehmoment möglichst schnellst eingeprägt wird. Die Änderungsgeschwindigkeit des Flusses spielt hingegen eine untergeordnetere Rolle. Demzufolge sollte die drehmomentbildende Statorstrom-q-Komponente in der Praxis eine höhere Dynamik aufweisen als die flussbildende Statorstrom-d-Komponente. Um hierbei die aufwändige reelle Rechnung so weit wie möglich zu vermeiden, wird der Reglerentwurf in zwei Schritten durchgeführt. Im ersten Schritt wird ein schiefsymmetrisches, komplex beschreibbares Regelgesetz entworfen, das zwar zu einer möglichst einfachen Darstellbarkeit des geschlossenen Statorstromregelkreises führt, das jedoch noch nicht die endgültige Dynamik zur Folge haben muss. Insbesondere muss nach Abschluss dieses ZwischenSchritts bereits eine vollständige Entkopplung der d- und der q-Komponente des Statorstromraumzeigers vollzogen sein. Im zweiten Schritt wird dann ein weiterer Regler entworfen, der auf der Grundlage des im ersten Schritt erhaltenen entkoppelten Systems jeder Stromkomponente eine separate Dynamik zuweisen kann. Die Verkettung beider Teilregler führt schließlich zum gesuchten Statorstromregler, der zum einen relativ einfach berechenbar ist und der zum anderen alle an ihn gestellten Dynamikanforderungen erfüllt. Im vierten Kapitel wird schließlich der Entwurf des achsenunsymmetrischen Statorstromzustandsreglers skizziert und die daraus hervorgehenden Regelalgorithmen vorgestellt. Die Leistungsfähigkeit des beschriebenen Zustandsreglers wird anhand von aufgenommenen Zeitverläufen eines Laborantriebs demonstriert, mit dem der Drehmomentverlauf von Verbrennungsmotoren nachgebildet wird.
Wer als Pädagoge und Wissenschaftler das Thema „Digitalisierung und Unterricht“ kritisch reflektiert, stellt fest, dass nur Wenige die Tragweite der schon lange beabsichtigten Transformation von Bildungseinrichtungen zu IT-konformen, algorithmisch gesteuerten Lernfabriken realisieren. Die Corona-Pandemie ist nur der aktuelle Anlass, seit langem bekannte Digitalisierungsstrategien nur schneller umzusetzen. Dabei ist der Wechsel von ursprünglich pädagogischen Prämissen als Basis von Lehr- und Lernprozessen hin zum Paradigma der datengestützte Schulentwicklung und der empirischer Bildungsforschung wesentlich. Daten und Statistik dominieren das Individuum wie das Unterrichtsgeschehen. Es bedeutet sachlogisch, möglichst viele Daten der Schülerinnen und Schüler zu sammeln, auszuwerten und zur Grundlage von Entscheidungen über Lerninhalte und -prozessen zu machen. Lehren und Lernen wird wieder einmal als, heute digital, steuerbarer Prozess behauptet, wie schon beim programmierten Lernen in den 1950er Jahren. Was sind mögliche Alternativen?
Eine neue Prozessidee zur Auftrennung racemischer Wirkstoffe unter Verwendung nanoskaliger AlO(OH)‐Hohlkugeln als Adsorbens und überkritischen Kohlenstoffdioxides (sc‐CO2) als Lösungsmittel wird vorgestellt. Zur Auslegung des Prozesses werden Untersuchungen zur Abscheidung der racemischen Wirkstoffe (RS)‐Flurbiprofen, (RS)‐Ibuprofen, (RS)‐Ketoprofen und den reinen Enantiomeren (R)‐Flurbiprofen, (S)‐Ibuprofen und (S)‐Ketoprofen an AlO(OH)‐Hohlkugeln präsentiert und bewertet. Zudem werden Adsorptionsdaten von gasförmigem CO2 an den Hohlkugeln und kommerziellen AlO(OH)‐Partikeln, die mit einer Magnetschwebewaage ermittelt wurden, verglichen. Abschließend werden erste Ergebnisse von orientierenden Versuchen zur Adsorption von racemischem Flurbiprofen aus sc‐CO2 an den Hohlkugeln vorgestellt.
Advanced Truck Load Firm
(2008)
AG Köln "Kuh-Fotos"
(2010)
Deutschland hat nicht zuletzt durch seine zentrale Lage eine führende Rolle im Bereich der Transportlogistik in Europa übernommen. Allerdings stehen die großen Logistikunternehmen in den letzten Jahren zunehmend vor neuen Herausforderungen. Zum einen steigt die Menge zu transportierender Güter jährlich, zum anderen entstanden durch Verschmelzungen großer Logistikunternehmen wie z. B. Deutsche Post, Danzas und Exel, UPS und Fritz riesige Fahrzeugflotten, deren effiziente Planung die Unternehmen vor enorme Probleme stellt. Die einzige Möglichkeit, diese meist heterogenen, also aus vielen verschiedenen Verkehrsmitteln bestehenden Flotten mit herkömmlichen Mitteln effizient zu planen, ist die Aufteilung in (regionale) Geschäftsbereiche. Dadurch können viele Synergieeffekte nicht genutzt werden, was unter anderem zu unnötig hohen Transportkilometerleistungen und Leerfahrten führt. Mit Hilfe agentenbasierter Systeme können heute schon Kosteneinsparungen von 3 – 6 % bei homogenen Verkehrsmitteln erzielt werden. Das Einsparpotenzial dürfte bei heterogenen Flotten ähnlich hoch, wenn nicht noch etwas höher sein. Allerdings liefern derzeit agentenbasierte Systeme für heterogene Flotten noch keine zufriedenstellenden Ergebnisse. Durch die Kombination der beiden vorrangig für die Transportoptimierung eingesetzten Techniken agentenbasierte (bottomup) Optimierung und der klassischen (topdown)Optimierung soll auch das Einsparpotenzial von heterogenen Flotten realisiert werden. Diese Optimierung ist Gegenstand des Attractive Forschungsprojekts, das von August 2009 bis Juli 2012 im Rahmen des Programms ingenieurNachwuchs gefördert wird.
Agile Business Intelligence als Beispiel für ein domänenspezifisch angepasstes Vorgehensmodell
(2016)
Business-Intelligence-Systeme stellen durch ihre Unterstützung bei der Entscheidungsfindung für Unternehmen eine wichtige Rolle dar. Mit einer stetig dynamischeren Unternehmensumwelt geht daher die Anforderung nach der agilen Entwicklung dieser Systeme einher, so dass in der BI-Domäne zunehmend erfolgreich agile Methoden und Vorgehensmodelle eingesetzt werden. Die Weiterentwicklung und Anpassung von BI-Systemen ist dahingehend besonders, dass diese in der Regel langjährig gewachsenen Systemen und Strukturen betreffen, die strengen regulatorischen Rahmenbedingungen unterliegen, was eine Herausforderung für agile Vorgehensweisen darstellt. Wurden die Werte und Prinzipien des agilen Manifests [AM01] und die daraus abgeleiteten Methoden zu Beginn meist eins zu eins auf den Bereich BI übertragen, so hat sich das Verständnis von BI- Agilität als ganzheitliche Eigenschaft der BI im deutschsprachigen Raum etabliert, und agile Me- thoden wurden auf die Besonderheiten der BI-Domäne adaptiert. In diesem Beitrag werden BI-Agilität und Agile BI erläutert, ein Ordnungsrahmen für Maßnahmen zur Steigerung der BI-Agilität eingeführt sowie Herausforderungen bei Agile BI erläutert.
Aktiver RFID-Sensor
(2008)
Das in Schramberg ansässige Unternehmen Schweizer Electronic, einer der großen europäischen Leiterplattenhersteller, hat sich ein neues Geschäftsfeld als Systemlieferant für mikroelektronische Geräte erschlossen. Gemeinsam mit dem Institut für Angewandte Forschung der Hochschule Offenburg und Siemens hat das Unternehmen einen Datenlogger mit einer ISO 15693 kompatiblen 13,56 MHz RFID-Luftschnittstelle zur Serienreife entwickelt. Die SEAGsens Temperaturmessgeräte aus der Vorserienproduktion haben die ersten Feldtests erfolgreich bestanden. Die Großserienproduktion wird noch in diesem Jahr anlaufen.
Aktives Wertemanagement
(2009)
Am 1. Juli 2022 trafen sich im Rahmen des Abschlusskolloquiums des Projekts ACA-Modes rund 60 Teilnehmende aus Forschung, Lehre und Industrie zu einer internationalen Konferenz an der Hochschule Offenburg. Hier wurden die Projektergebnisse rund um die erfolgreiche Implementierung modellprädiktiver Regelstrategien vorgestellt, aktuelle Fragestellungen diskutiert und Entwicklungspfade hin zu einem netzdienlichen Betrieb von Energieverbundsystemen skizziert.
Hintergrund
In diesem Artikel wird ein Überblick und Vergleich der am häufigsten verwendeten zementierten Hüftschäfte, gruppiert in die verschiedenen Schafttypen und Zementmanteldicken, gegeben, um zu sehen, welche Kombination gut abschneidet.
Methodik
Aus dem Endoprothesenregister Deutschland wurden die Revisionsraten zementierter Schaftarten kategorisiert und die Revisionsraten von 3 und 5 Jahren erfasst und analysiert. Für die Recherche lag die Konzentration auf den Schäften Exeter, C‑Stem, MS-30, Excia, Bicontact, Charnley, Müller Geradschaft, Twinsys, Corail, Avenir, Quadra und dem Lubinus SP II. Ein wichtiger Aspekt lag darin, welcher Schaft favorisiert implantiert wird und welche Zementiertechnik in Hinblick auf die geplante Zementmanteldicke angewendet wird. Um einen Trend in der zementierten Hüftendoprothetik herauszufinden, wurden zusätzlich die Daten des dänischen, schwedischen, norwegischen, schweizerischen, neuseeländischen, englischen und australischen Endoprothesenregister verglichen.
Ergebnisse und Schlussfolgerung
Die meisten Länder nutzen zementierte Prothesen nach dem Kraftschlussprinzip (Exeter, MS30, C‑Stem etc.) oder dem Formschlussprinzip (Charnley, Excia, Bicontact), welche mit einer Zementmanteldicke von 2–4 mm implantiert werden. Jedoch hat sich in Deutschland und der Schweiz ein Trend zur Line-to-Line-Technik, mit einer geplanten Zementmanteldicke von 1 mm (Twinsys, Corail, Avenir, Quadra) aufgezeigt, dem Prinzip der Müller-Geradschaft-Prothese und der Kerboul-Charnley-Prothese folgend, auch wenn diese an sich als „french paradoxon“ postuliert werden. In den EPRD-5-Jahres-Ergebnissen scheinen die neueren Line-to-Line-Prothesen etwas schlechter abzuschneiden. Die besten Ergebnisse erzielt der „MS 30“ in Deutschland und der „Exeter“ in England. Hierbei handelt es sich um polierte Geradschäfte mit Zentraliser und Subsidence-Raum an der Spitze mit einem 2–4 mm Zementmantel in guter Zementiertechnik.
Soziale Roboter, die mit uns kommunizieren und menschliche Verhaltensmuster imitieren, sind ein wichtiges Zukunftsthema. Während viele Arbeiten ihr Design und ihre Akzeptanz erforschen, gibt es bislang nur wenige Untersuchungen zu ihrer Marktfähigkeit. Der Schwerpunkt dieser Arbeit liegt auf dem Einsatz sozialer Roboter in den Bereichen Gesundheit und Pflege, wo die zukünftige Integration sozialer Roboter ein enormes Potenzial hat. Eine Studie mit 197 Personen aus Italien und Deutschland untersucht gewünschte Funktionalitäten und Kaufpräferenzen und berücksichtigt hierbei kulturelle Unterschiede. Dabei bestätigte sich die Wichtigkeit mehrerer Dimensionen des ALMERE-Modells (z. B. wahrgenommene Freude, Nützlichkeit und Vertrauenswürdigkeit). Die Akzeptanz korreliert stark mit der Investitionsbereitschaft. Viele ältere Personen betrachten soziale Roboter als „assistierende technische Geräte“ und erwarten, dass diese von Versicherungen und der öffentlichen Hand bezuschusst werden. Um ihren zukünftigen Einsatz zu erleichtern, sollten soziale Roboter in die Datenbanken medizinischer Hilfsmittel integriert werden.
Allgemeine Geschäftsbedingungen als Instrument der Vereinfachung betrieblicher Vertragsgestaltung
(2018)
Im Wirtschaftsleben spielen heute AGB eine bedeutende Rolle. Diese sind nach § 305 Abs. 1 BGB alle, für eine Vielzahl von Verträgen vorformulierten Vertragsbedingungen, die eine Vertragspartei (Verwender) der anderen Vertragspartei bei Abschluss eines Vertrags stellt. Vertragsbedingungen sind dabei die Regelungen, die Bestandteil des Vertrages werden sollen.1 Gleichgültig ist, ob die Bestimmungen einen äußerlich gesonderten Bestandteil des Vertrags bilden oder in die Vertragsurkunde selbst aufgenommen werden, welchen Umfang sie aufweisen, in welcher Schriftart sie verfasst sind und welche Form der Vertrag hat (vgl. § 305 Abs. 1 S. 2 BGB). Durch AGB wird grundsätzlich ein Rationalisierungseffekt erreicht. Bei Abschluss von Massenverträgen stellen diese eine Vereinfachung der Vertragsabwicklung dar. Stetig gleichbleibende Vertragsregelungen können einmalig formuliert und ständig wiederverwendet werden. Des Weiteren verfolgen AGB den Zweck, das Risiko ihres Verwenders zu begrenzen. AGB stellen ebenso Regelungen des Rechtsverhältnisses zwischen den Vertragsparteien dar. Neben den Vorteilen, können sich aber auch nachteilige Aspekte für den Verwender ergeben. Durch die Vorformulierung von AGB kann die Gefahr bestehen, dass der AGB-Verwender die Regelungen ausschließlich zu seinen Gunsten und damit zum Nachteil der anderen Vertragspartei gestaltet. In einer Drucksituation kann die Gegenseite des Vertrages so gezwungen sein, sich mit den AGB als einverstanden zu erklären. Als Beispiel kann der AGB-Verwender eine Monopolstellung innehaben oder die andere Vertragspartei benötigt die Vertragsleistung dringend.
Die entscheidende Frage bei der Konzeption einer möglichen technischen Infrastruktur für Schulen ist keine technische, sondern eine pädagogische: Was soll denn genau gelernt werden, über Rechner und Netzwerke, am Rechner oder mit dem Rechner? Ist diese Frage geklärt, kann man Hard- und Software dafür zusammenstellen.
Am Buffet des Lebens
(2017)
Im Rahmen dieses Projekts wurde im Labor Telekommunikationstechnik der Hochschule Offenburg ein flexibel konfigurierbares Funknetz nach dem ZigBee-Standard aufgebaut. Mit Hilfe diverser Messgeräte und Analyse-Tools wurden die wesentlichen Performance Parameter dieses Funknetzes unter realen Betriebsbedingungen evaluiert. So wurden z.B. Erkenntnisse über die Empfängerempfindlichkeit, die effektiv erreichbare Datenrate sowie das Interferenzpotential gewonnen, die Voraussetzungen für die optimale Nutzung dieser neuen Funktechnologie sind.
„Die Reform kommt – stirbt das Netz?“ So titelte die Süddeutsche Zeitung bereits Mitte April 2019 in Bezug auf die sich anbahnende Urheberrechtsreform. Kaum ein anderes Rechtsgebiet ist derzeit so präsent in der Mitte der Gesellschaft angekommen und löst derart hitzige Diskussionen aus wie die anstehende Urheberrechtsreform durch den europäischen Gesetzgeber. Dabei ist es der Urheberrechtsreform in der Tat gelungen, einen ähnlichen Stellenwert für sich zu vereinnahmen wie die Einführung der lange gefürchteten Datenschutz-Grundverordnung im Jahr 2018.
Im Fokus der Debatte steht dabei insbesondere Artikel 13, der sich mittlerweile als Artikel 17 in der aktuellen Fassung der Richtlinie wiederfindet. Seine breite Aufmerksamkeit verdankt dieser dem Umstand, dass er die Meinungsfreiheit und die freie Netzkultur in erheblichem Maße einschränken könnte. Allerdings geht die gesamte Richtlinie des europäischen Gesetzgebers deutlich über Artikel 17 hinaus, sodass sich neben der breiten Bevölkerung auch weitere Adressaten ergeben, deren Rahmenbedingungen sich ändern werden.
Im Rahmen dieses Projekts wurde im Labor Telekommunikationstechnik der Hochschule Offenburg die Übertragungsqualität von Mehrantennensystemen durch theoretische Analysen und Simulationen analysiert. Dabei zeigt sich bereits in der ersten Projektphase bei einfachen Mehrantennenkonfigurationen mit einer Sendeantenne und mehreren Empfangsantennen wie aufgrund von Antennendiversität bei verschiedenen Kombinationsstrategien der Empfangssignale sich die Übertragungsqualität bei Rayleigh Fading deutlich verbessert.
Mehrantennensysteme (MIMO: MultipleInputMultipleOutput) sind seit einigen Jahren ein zentrales Forschungsthema in der Funkkommunikation. Die Analyse der Kanalkapazität solcher MIMOSysteme in [1] hat gezeigt, welches enorme Potenzial in dieser Technologie steckt. Dieses Potenzial kann auf verschiedene Arten genutzt werden. MIMOVerfahren können grundsätzlich in zwei Klassen eingeteilt werden. Die erste Klasse besteht aus Verfahren, die die Zuverlässigkeit der Übertragung über FadingKanäle verbessert. Dies wird entweder durch Verbesserung des jeweils wirksamen mittleren SNR (engl. SignaltoNoise power ratio) z. B. durch Beamforming oder durch Verminderung der Fluktuationen des SNR durch Diversitätstechniken erreicht. Die zweite Klasse bilden Verfahren, bei denen mehrere unabhängige Datenströme parallel über die verschiedenen Antennen durch räumliches Multiplexen (engl. Spatial Multiplexing) übertragen und so die Datenrate vervielfacht wird. Während bei den Diversitätstechniken und den Verfahren des Spatial Multiplexing die Übertragungseigenschaften zwischen den verschiedenen Sende- und Empfangsantennen durch z. B. ausgeprägte Mehrwegeausbreitung möglichst unkorreliert sein sollen, ist dies bei den Beamforming-Verfahren aber gerade nicht dienlich. Im Rahmen dieses Projekts wurde die Übertragungsqualität von Funksystemen mit MIMOArchitektur analysiert, die spezielle blockbasierte Codierungsverfahren verwenden, die nicht nur die zeitliche, sondern auch die räumliche Dimension zu der Informationsübertragung nutzen (SpaceTimeBlockCoding, STBC) und damit auf einen Diversitätsgewinn abzielen.
Ein tiefgreifendes Verständnis des zyklischen Plastizitätsverhaltens metallischer Werkstoffe ist sowohl für die Optimierung der Materialeigenschaften als auch für die industrielle Auslegung und Fertigung von Bauteilen von hoher Relevanz. Insbesondere moderne Legierungen wie Duplex-Stähle zeigen unter Lastumkehr aufgrund des komplexen mehrphasigen Gefüges sowie der Neigung zu verschiedenen Ausscheidungsreaktionen einen ausgeprägten Bauschinger-Effekt, welcher bei technischen Umformvorgängen berücksichtigt werden muss. Der Bauschinger-Effekt begründet sich maßgeblich in der Entstehung von Rückspannungen, welche aus dem unterschiedlichen Plastizitätsverhalten der austenitischen und ferritischen Phase resultieren. Instrumentierte Mikroindenter-Versuche in ausgewählten Ferrit- und Austenitkörnern haben gezeigt, dass austenitische Gefügebestandteile durch einen deutlich früheren Fließbeginn sowie eine stärkere Rückplastifizierung während der Entlastung charakterisiert sind. Zudem wurde nachgewiesen, dass Ausscheidungen im Rahmen einer 475°C-Versprödung diesen Phasenunterschied verstärken und somit in einem höheren Bauschinger-Effekt resultieren.
Synergieprognosen spielen bei der Begründung von Unternehmensübernahmen regelmäßig eine wichtige Rolle. Da diese Prognosen unsicher sind, bedürfen sie einer fundierten Beurteilung, was wiederum eine offene Diskussion innerhalb von Vorstand und Aufsichtsrat voraussetzt. Solche Diskussionen sind jedoch keine Selbstverständlichkeit, da Gruppen dazu neigen, problematische Entscheidungsaspekte nicht angemessen zu würdigen. Mit dem Tornado-Diagramm wird ein Instrument vorgestellt, das diesem Effekt entgegenwirkt und die Entscheider dazu motiviert, auch ungünstige Synergieprognosen zu diskutieren. Auf diese Weise kann die Übernahmeentscheidung auf eine bessere Informationsgrundlage gestellt werden.
Die Ziele des Projekts waren die Einführung der Zellseparations-Technik „Feldfluss-Fraktionierung“ (FFF) zur Analyse und Fraktionierung von Hefezellen zur Weinherstellung, sowie deren Weiterentwicklung und Optimierung für den Praxiseinsatz, insbesondere Auswahl einer einfachen FFF-Variante, Vereinfachung und Kostenoptimierung, um ein für Weinbaubetriebe erschwingliches FFF-Gerät anbieten zu können. Des Weiteren sollten FFF-Techniken als online Überwachung während des Wein-Fermentationsprozesses untersucht werden. Zur Qualitätsüberwachung war es wünschenswert unerwünschte Veränderungen während des Fermentationsprozesses frühzeitig erkennen zu können, um dann zur Qualitätsoptimierung gezielte Maßnahmen gegen unerwünschte Veränderungen vornehmen zu können. Das Projekt war auch dafür gedacht als Modell-Charakter bzw. als Pilotprojekt für andere auf dem Gärungswege durch Mikroorganismen hergestellte Produkte im Lebensmittel- oder biotechnologischen Bereich zu dienen.
Angedockt und eingeloggt
(2012)
Das vermutlich wichtigste Tatbestandsmerkmal der Business Judgment Rule ist das Vorliegen einer angemessenen Informationsgrundlage. Sie gilt dann als erreicht, wenn ein Geschäftsleiter vernünftigerweise annehmen darf, dass die Verbesserung einer gegebenen Informationsqualität den dafür erforderlichen Aufwand an Zeit bzw. Geld nicht rechtfertigt. Implizit wird hierbei vorausgesetzt, dass man verschiedene Ausmaße an Zeit, Geld und Informationsqualität unterscheiden kann. Für den Zeit- und Geldaufwand stimmt das auch, aber wie stuft man die Informationsqualität ab? Im Beitrag wird für prognosebezogene Informationen ein entsprechender Vorschlag gemacht.
In der Planungs- und Betriebspraxis herrscht im Bereich der Betriebsführung von thermisch aktivierten Bauteilsystemen und insbesondere der thermisch trägen Bauteilaktivierung noch große Unsicherheit. Trotz einer weiten Verbreitung dieser Systeme im Neubau von Nichtwohngebäuden hat sich bis heute keine einheitliche Betriebsführungsstrategie durchgesetzt. Vielmehr kritisieren Bauherren und Nutzer regelmäßig zu hohe bzw. niedrige Raumtemperaturen in den Übergangsjahreszeiten und bei Wetterwechsel sowie generell eine mangelhafte Regelbarkeit. Demgegenüber weisen Monitoringprojekte immer wieder einen hohen thermischen Komfort in diesen Gebäuden nach. Offensichtlich unterscheiden sich hier subjektiv empfundene Behaglichkeit und objektiv gemessener Komfort. Gleichzeitig sind Heiz- und Kühlkonzepte mit Flächentemperierung dann besonders energieeffizient, wenn das Regelkonzept auf deren thermische Trägheit angepasst ist. Eine gute Regelung gewährleistet also einen hohen thermischen Komfort und sorgt für einen möglichst niedrigen Energieeinsatz. Das Rechenverfahren mit Anlagenaufwandszahlen (in Anlehnung an DIN V 18599) bietet eine gute Möglichkeit, Anlagenkonzepte inklusive deren Betriebsführungsstrategie zu bewerten. Damit ist es möglich, eine auf das Gebäude angepasste Betriebsführungsstrategie für die Bauteilaktivierung zu finden und einheitlich zu bewerten.
Asynchronmaschinen mit Kaefiglaeufer benoetigen waehrend ihres Hochlaufs das 3- bis 8fache des Bemessungsstroms. Dieser hohe Anlaufstrom geht erst zurueck, wenn der Kippschlupf erreicht ist (bei etwa 90% der Bemessungsdrehzahl). Wenn die Kurzschlussleistung des einspeisenden Netzes zum Zeitpunkt der Motorzuschaltung gering ist, koennen durch Spannungseinbrueche Anlaufprobleme einer Kaefiglaeufermaschine auftreten. Bei der Planung eines solchen Antriebs muessen deshalb genauere Simulationsrechnungen ueber die Zusammenhaenge von Hochlaufzeit, Spannungseinbruch und zulaessigen Grenzwerten durchgefuehrt werden. Ergebnisse derartiger Anlaufsimulationen eines 800-kW- und eines 1,13-MW-Hochspannungsmotors bei Anschaltung an einen 10-MVA- und einen 2-MVA-Generator wurden fuer verschiedene Zuschaltungssituationen in Oszillogrammen festgehalten. Durch genauere mathematische Angaben verdeutlicht werden die Faelle des Motorhochlaufs bei Inselbetrieb mit geringer Kurzschlussleistung sowie die Zuschaltung der Asynchronmotoren auf den Generator vor und nach Anhebung der Netzspannung behandelt. Angaben werden ferner gemacht zur Zuschaltung des 1,13-MW-Motors auf die Parallelschaltung des 10-MVA- und des 2-MVA-Generators. Aus den Simulationsoszillogrammen der Faelle von Hochlauf und Motorzuschaltung sind die zeitabhaengigen Aenderungen von Ankerstrom, Wirkleistungsaufnahme, Blindleistungsaufnahme, Klemmenspannung, Drehzahlabweichung, Antriebsmoment und Lastdrehmoment zu entnehmen.
Ansatzpunkte zur Verknüpfung von Wertmanagement und Wertemanagement aus Sicht der Führungspraxis
(2014)
Anschaffungskosten
(2015)
Bei thermischen Konvektionsströmungen ist der Einfluß von Geometrie und Randbedingungen für die Strömungsform und den konvektiven Wärmetransport von wesentlicher Bedeutung. Mit Hilfe der optischen Strömungsmeßtechnik (Differentialinterferometrie) wurde die freie Konvektion in einem quaderförmigen Behälter mit seitlicher Beheizung untersucht. Der Aufbau und die Experimente werden beschrieben. Die quantitative Auswertung von Dichte- und Temperaturfeldern aus den Differentialinterferogrammen wird aufgezeigt und der Einfluß unterschiedlicher Randbedingungen wie feste und freie Oberfläche auf die Strömungsform und den Wärmetransport dargelegt. Die eingesetzte Differentialinterferometrie zeigt aufgrund ihrer Anpassungsfähigkeit an die jeweiligen Versuchsbedingungen und durch den einfachen Aufbau spezifische Vorteile gegenüber dem Mach-Zehnder Interferometer.
Die Globalisierung, der technische Fortschritt, sowie die politischen Entwicklungen weltweit führen dazu, dass heute kaum ein Unternehmen existiert, das nicht internationale Geschäftsbeziehungen mit ausländischen Unternehmen aufrecht erhält, unabhängig davon, ob als Exporteur oder Importeur. Grenzüberschreitend tätige Unternehmen sehen sich dabei fremden Rechtsordnungen gegenüberstehend. Dies kann Konflikte mit sich bringen und den Handelsverkehr beeinträchtigen. Dabei stellen neben unterschiedlichen Rechtssystemen auch die kulturellen Differenzen und die räumliche Distanz der beteiligten Länder Hindernisse dar. Zumindest auf dem Gebiet der Gesetzgebung gab es Bemühungen nach Vereinheitlichung. So kam das Übereinkommen der Vereinten Nationen über Verträge über den internationalen Warenkauf, kurz UN-Kaufrecht, das den internationalen Warenhandel vereinfachen soll, zustande. Dieses Regelwerk, sowie die Analyse möglicher Vorteile für den deutschen Exporteur sind Thema dieses Arbeitspapieres. Dabei soll die Analyse nicht nur auf der Literaturrecherche beruhen, sondern sich auch damit auseinandersetzen, wie die Handhabung des UN-Kaufrechts in der Praxis durch Unternehmen erfolgt.
Applied Information Technology opens Virtual Platform for the Legacy of Alexander von Humboldt
(2011)
The Humboldt Digital Library (HDL) is a project that aims to provide digital access to the legacy of Alexander von Humboldt. The HDL runs on an open source library developed in the Hochschule Offenburg and provides a virtual research environment in which researchers can work more effectively. This article presents the development made in the HDL to provide alternative ways of content dissemination through the OAI protocol.Through the implemtantion of the OAI-PMH data provider in the HDL, the library is accessibly in many universities and research centers everywhere around the globe.
Um sicherzustellen, dass vom Unternehmen keine Verstöße gegen gesetzliche Vorschriften und Regeln erfolgen, ist es unabdingbar, dass die Mitarbeiter des Unternehmens den aufgestellten Pflichten nachkommen und diese befolgen. Dabei kann dies nur verwirklicht werden, wenn die Regelungen für die Arbeitnehmer verbindlich werden und bei Fehlverhalten auch arbeitsrechtliche Sanktionen als Konsequenz durchgesetzt werden können. Damit die Verhaltensrichtlinien und -grundsätze für die Arbeitnehmer verbindlich werden, müssen diese arbeitsrechtlich im Unternehmen implementiert werden. Die Implementierung kann dabei grundsätzlich durch unterschiedliche arbeitsrechtliche Instrumente umgesetzt werden, wobei sowohl das Individual- als auch das Kollektivarbeitsrecht verschiedene Optionen anbietet, welche im Folgenden näher erläutert werden.