Refine
Year of publication
- 2012 (126) (remove)
Document Type
- Contribution to a Periodical (28)
- Other (19)
- Conference Proceeding (14)
- Article (unreviewed) (14)
- Bachelor Thesis (13)
- Part of a Book (11)
- Book (8)
- Master's Thesis (7)
- Patent (3)
- Report (3)
Conference Type
- Konferenzartikel (10)
- Konferenzband (2)
- Konferenz-Abstract (1)
- Konferenz-Poster (1)
Language
- German (126) (remove)
Keywords
- HTML 5.0 (4)
- E-Learning (3)
- JavaScript (3)
- Analyse (2)
- HTML (2)
- Mikroelektronik (2)
- Monitoring (2)
- Optimierung (2)
- Web Site (2)
- World Wide Web 2.0 (2)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (49)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (24)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (20)
- Zentrale Einrichtungen (20)
- Fakultät Wirtschaft (W) (13)
- INES - Institut für nachhaltige Energiesysteme (6)
- Rektorat/Verwaltung (1)
Open Access
- Open Access (52)
- Closed Access (44)
- Bronze (5)
- Closed (2)
Der vorliegene Beitrag beschreibt erste Untersuchungsergebnisse mit der Finite-Elemente-Methode (FEM) zur Ermittlung der Kennwerte des bezogenen Spannungsgefälles beim linear-elastischen Werkstoffverhalten für die nach DIN 5480 genormten Zahnwellen mit freiem Auslauf bei Torsion, Biegung und Zug/Druck. Für die Bestimmung von Zwischen-werten werden analytische Näherungsgleichungen aufgestellt.
Für den Erfolg einer kardialen Resynchronisationstherapie der Herzinsuffizienz mit biventrikulär stimulierenden Implantaten ist deren individuelle Programmierung von erfolgsbestimmender Bedeutung. Dies trifft insbesondere auf den Parameter AV-Delay zu. Dessen Optimierung durch Echo-Verfahren ist zeitaufwendig, die Suche nach einfacheren Methoden darum verständlich. Eine solche verspricht der in St. Jude Aggregate implementierte automatische QuickOpt Algorithmus. In-vitro-Untersuchungen unter Einsatz eines elektronischen Herzsimulators sagten jedoch verschiedene ungünstige Eigenschaften vorher. Die eingeschränkte Nutzbarkeit ließ sich auch mit In-vitro-Vergleichen belegen.
Der straßengebundene öffentliche Personennahverkehr wurde bislang von Liberalisierungsbestrebungen ausgenommen. Im Personenbeförderungsgesetz sind objektive Marktzugangsbeschränkungen verankert, die lediglich im Fernverkehr, nicht aber im Nahverkehr abgebaut werden sollen. Der Autor untersucht, ob diese Marktzugangsbeschränkungen aus ökonomischer Sicht gerechtfertigt sind.
Das Dokument erläutert wesentliche Bilanzierungsunterschiede zwischen der internationalen Rechnungslegung nach IFRS und dem deutschen HGB in der Fassung des BilMoG. Zielgruppe sind insebsondere Studierende und Nicht-Bilanzierungsexperten. Es wurde ein einfacher Sprachstil verwendet und auf unnötige Fachtermini verzichtet, wann immer dies möglich erschien.
Die Frage nach der Struktur und Funktion von „Hochschulen“ kann man sinnvoll nicht isoliert betrachten ohne einen Blick auf Schulen. Hochschulen sind Teil des gesamten Schulsystems und eingebunden in eine (momentan noch) sehr differenzierte und vielfältige, bundesdeutsche „Bildungslandschaft“, die sich über Jahrhunderte herauskristallisiert hat. Tradition und evolutionäre Genese sind eine Konstante von Bildungseinrichtungen, der ständige Wandel und der stetige Reformdruck eine weitere. Es scheint, das an Schulen und Hochschulen immer von neuem laboriert werden muss, auch wenn das mögliche Spektrum von Einstellungen und Methoden – zumindest was Lernen und Lehrkonzepte betrifft, – seit der Antike bekannt sind.
Daher gliedert sich dieser Text in drei Abschnitte:
• Ein kurzer Blick zurück leitet zentrale Begriffe her.
• Die Analyse des Ist-Zustandes unter Berücksichtigung der seit 1998 unter dem Namen „Bologna“ realisierten Reformen (Vereinheitlichung der europäischen Studiengänge, Umstellung der Studiengänge auf andere Abschlüsse (Bachelor, Master) u.v.m.) zeigt aktuelle Fehlentwicklungen, nennt Gründe und Protagonisten .
• Der abschließend Blick nach vorn zeigt, was aus (Hoch)Schulen (wieder) werden könnten, wenn Lehrende und Studierende mutiger werden.
Die immer weitreichenderen Anwendungen des Smart Metering und des Smart Grid stellen immer höhere Anforderungen an Kommunikationstechnologien, die die Zielkonflikte aus Echtzeitfähige, Stabilität, Kosten und Energieeffizienz möglichst anwendungsoptimiert und auf einem immer höheren Niveau lösen. Insbesondere im Bereich der so genannten Primärkommunikation zwischen einem Sensor- oder Aktorknoten und einem Datensammler mit Gatewayfunktionalität konnten in den vergangenen Jahren wesentliche Fortschritte erzielt werden. Zu nennen sind hierbei insbesondere die Aktivitäten der ZigBee Alliance rund um den offenen Spezifikationsprozess des ZigBee Smart Energy Profiles (SEP) und der OMS-Gruppe beim ZVEI, die auf dem Wireless M-Bus nach EN13757-4 aufbauen, der sich seinerseits lebhaft und zielgerichtet weiter entwickelt. Der Beitrag diskutiert die vorhandenen Einschränkungen und die verfügbaren Lösungsansätze. Er illustriert diese anhand einiger öffentlich geförderter Projekte, an denen das Team des Autors beteiligt ist.
Es sollte in dieser Schrift untersucht werden, inwieweit bei Änderungen im Bereich der Planung, Durchführung und Auswertung von klinischen Arzneimittelprüfungen die Bewertung mit wissenschaftlichen oder politischen Begründungen erfolgt und inwieweit wissenschaftliche Regeln für politische Zwecke genutzt werden.
Der effektive Einsatz von Energie ist vor dem Hintergrund von begrenzten Ressourcen und der Forderung nach einer Reduzierung der bei der Energiegewinnung entstehenden Umweltbelastungen von wachsender Bedeutung. Für die noch relativ junge Gruppe der generativen Fertigungsverfahren liegen bis heute kaum Untersuchungen zum Energieverbrauch vor. Deshalb werden in diesem Beitrag zwei weit verbreitete Rapid-Prototyping-Verfahren (3D-Drucken und Fused Deposition Modeling) hinsichtlich ihres Energieverbrauchs untersucht und verglichen. Zudem werden Maßnahmen zur Steigerung der Energieeffizienz aufgezeigt und Einsparmöglichkeiten genannt.
Die optimale Zusammensetzung und Aktivität der Mikroorganismengemeinschaft ist für den stabilen und effizienten Betrieb einer Biogasanlage essentiell. Moderne kultivierungsunabhängige Nachweismethoden können erstmals die Basis für eine rationale mikroorganismenfokussierte Verfahrensoptimierung liefern. Als erster Schritt für den Aufbau eines aussagekräftigen Monitoringsystems für die Biogasmikrobiologie wurde ein nucleinsäurebasiertes Verfahren (TaqMan Real-time PCR) zum Nachweis der methanbildenden Mikroorganismen (Archaeen) sowie von vier Untergruppen etabliert und auf Proben aus zwei unterschiedlich betriebenen Biogasanlagen in Neuried und Oberried angewandt. Bei der Anlage in Oberried in der Nähe von Freiburg, betrieben von örtlichen Landwirten (Substrat: Gülle, Grassilage, Maissilage, Mist, Anlage mit Güllevorgrube, Fermenter und Gärrestlager) konnten insgesamt höhere absolute Konzentrationen an Archaeen nachgewiesen werden als in der Anlage in Neuried in der Nähe von Offenburg, betrieben durch die Fa. badenova AG & Co. KG, Freiburg (thermophil betrieben, Substrat: Maissilage, Anlage mit Hauptfermenter, Nachfermenter und Gärrestlager). Auch hinsichtlich der vier untersuchten Untergruppen zeigten sich deutliche Unterschiede, die auf die unterschiedlichen an der Methanbildung beteiligten Abläufe hinweisen.
„All business is local“ ist eine der am häufigsten zitierten Binsenweisheiten, die jedoch in der Praxis nicht immer zu den richtigen Schlussfolgerungen bei Kommunikation und Vermarktungsstrategie führt. Die Herausforderung, glaubwürdig vor Ort in Kommunikation und Vertrieb präsent zu sein, ist durch viele neue technische Möglichkeiten noch größer geworden. „Lokal, mobil, sozial“ das sind die großen Trends für das Lokalgeschäft. In der Tat spricht einiges dafür, dass diese Themen in den nächsten Monaten weiter an Bedeutung gewinnen und als kombinierte Produktform im lokalen Bereich mit Handel und Dienstleistern verstärkten Einfluss auf das Kommunikations- und Vertriebsgeschehen nehmen.
Um bei der Produktentwicklung auf die immer höheren Anforderungen wie Effizienz- oder Kostenoptimierung reagieren zu können, stehen die Unternehmen vor der Herausforderung, neue, leistungsfähige Komponenten zu entwickeln. Hierzu müssen geeignete Entwicklungswerkzeuge zur Verfügung stehen. Bei der Auslegung von strömungsführenden Bauteilen wie zum Beispiel Rohrleitungen, Krümmern oder Ansaugstutzen wird meist auf Standard Konstruktionen zurückgegriffen. Hierzu zählen zum Beispiel gerade Rohre, 90 Grad- Umlenkungen und Diffusoren. Neue Topologieoptimierungsverfahren im Bereich Computational Fluid Dynamics (CFD) bieten die Möglichkeit, solche Bauteile für den jeweiligen Anwendungsfall optimiert zu dimensionieren und somit zu einer Steigerung der Effizienz des Gesamtsystems beizutragen. Darüber hinaus kann die Topologieoptimierung schon in sehr frühen Phasen des Entwicklungsprozesses eingesetzt werden und somit helfen, die Anzahl an Entwicklungsstufen zu reduzieren.
Teilladungverkehre im Schienengüterverkehr – ein vergessenes Geschäftsmodell für die Zukunft?
(2012)
Die Veränderungen in der Energieversorgung führen zu einer neuen Systemarchitektur der Stromversorgung, die nur durch einen massiven Einsatz von Informations- und Kommunikationstechnologien (IKT) bewältigt werden kann und meist als „Smart Grid“ bezeichnet wird. Während es bereits umfangreiche Forschungsarbeiten und Demonstrationsprojekte zu einzelnen technologischen Komponenten gibt, existieren noch wenige Überlegungen, in welchen technologischen Schritten eine Migration hin zu Smart Grids durchgeführt werden sollte, die sowohl betriebstechnisch zukunftssicher ist, als auch marktgetriebene Innovationen begünstigt. Der Beitrag veranschaulicht die Herleitung solcher Migrationspfade im Rahmen eines schrittweisen Vorgehens. Zunächst werden Zukunftsszenarien für das Jahr 2030 konstruiert, um die maßgeblichen, oft auch nichttechnischen Einflussfaktoren auf das Smart Grid zu identifizieren. Darauf aufbauend werden die wesentlichen IKT-bezogenen Technologiefelder und ihre Zuordnung zu den Domänen der Energiewirtschaft beschrieben. Für jedes Technologiefeld werden die in den nächsten zwei Jahrzehnten denkbaren Entwicklungsstufen ermittelt und deren Abhängigkeit untereinander analysiert. Die gemeinsame Betrachtung von Szenarien, der Entwicklungsstufen der Technologiefelder und deren Interdependenzen führen schließlich zu einer Roadmap, welche die Migrationspfade in das Smart Grid beschreiben. Es lassen sich drei Entwicklungsphasen erkennen: Die Konzeptionsphase, die Integrationsphase und die Fusionsphase. Die präsentierten Ergebnisse entstammen dem Projekt „Future Energy Grid – Migrationspfade ins Internet“, welches vom Bundesministerium für Wirtschaft und Technologie im Rahmen des E-Energy-Programms (Förderkennzeichen 01ME10012A und 01ME10013) gefördert wurde.
Biofilme können in technischen Systemen zu Beschädigungen oder Beeinträchtigungen der Leistung des Systems führen. In der Humanmedizin können sie zu Infektionen an Kathetern und Implantat-oberflächen führen. Biofilme bilden sich an Phasengrenzflächen. Der erste Schritt in der Entstehung eines Biofilms ist die Bildung eines "Conditioning"-Films aus Substanzen des umgebenden Mediums. Ein zur Beschichtung von Implantaten eingesetztes Polymer ist Parylen C. Auf akustischen Oberflächenwellen, englisch: surface acoustic wave (SAW), basierende Sensoren zeigen bei Änderungen der Eigenschaften ihrer aktiven Oberfläche eine Änderung ihrer Resonanzfrequenz. Im Rahmen dieser Arbeit wurde überprüft, ob sich SAW-Sensoren zur Echtzeitbeobachtung der Bildung von "Conditioning"-Filmen eignen. Als Vergleichssystem wurden Schwingquarze, englisch: quarz crystal microbalances (QCM), gewählt, da diese ebenfalls gravimetrischen Sensoren bereits zur Beoabachtung von "Conditioning"-Filmen eingesetzt werden. Sensoren beider Systeme wurden mit Parylen C beschichtet und jeweils mit drei relevanten Proteinen des menschlichen Blutplasmas beprobt. Es konnte gezeigt werden, dass sich auf akustischen Oberflächenwellen basierende Sensoren zur Beobachtug der Adsorption von Plasmaproteinen auf Parylen C eignen. Zudem konnten auf SAW-Sensoren reproduzierbar Charakteristiken in den Kurvenverläufen beobachtet werden, welche beim Vergleichssystems nicht sichtbar waren.
Sudoku
(2012)
Stähle im Bauwesen
(2012)
Die Hochschule Offenburg begleitet in Zusammenarbeit mit dem Fraunhofer ISE in Freiburg die solar unterstützte Klimatisierung der Deutschen Telekom in Rottweil. Die Anlage wurde im Rahmen des Forschungsvorhabens „Solarthermie2000plus“ vom Bundesumweltministerium gefördert. Inzwischen liegen erste Ergebnisse aus einem Langzeitmonitoring vor.
Im Rahmen des Programms Solarthermie2000plus wurde eine begrenzte Anzahl solarthermischer Pilot sowie Forschungs- und Demonstrationsanlagen zur Teildeckung des Wärmebedarfs unterschiedlicher Verbraucher im Niedertemperaturbereich modellhaft gefördert. Mit Solarthermie2000plus führte das BMU im Rahmen des Energieforschungsprogramms der Bundesregierung die langfristig angelegten Forschungsaktivitäten zur thermischen Nutzung der Sonnenenergie des Förderkonzepts Solarthermie-2000 mit neuen Schwerpunkten fort.
Rund ein Drittel (2.529 PJ) der in Deutschland verwendeten Endenergie wird von der Industrie genutzt. Es gibt viele Industriebereiche in denen die Prozessluftaufbereitung eine wichtige Rolle spielt. Beispielhaft ist die Lebensmittel-, die Pharma- und die Halbleiterindustrie zu nennen. In all diesen Bereichen wird Luft mit bestimmten Konditionen benötigt, um Produkte präzise und unter Einhaltung aller Auflagen herstellen zu können. Die Luftaufbereitung ist meist mit einem großen Energieaufwand verbunden. Hierzu ist es erforderlich, Prozesswärme und/oder Prozesskälte zur Verfügung zu haben.
„Soziale Netzwerke“ im Internet sind „in“. Wohl die Hälfte aller Deutschen zwischen zwölf und vierzig sind inzwischen in wenigstens einer dieser populären Online-Communitys Mitglied geworden. Eine Vielzahl der Nutzer ist dabei (zumindest auch) geschäftlich unterwegs, ungeachtet dessen, dass die Anbieter dies zuweilen (ohne es auch nur im Geringsten zu forcieren) formal in ihren AGB ausschließen. Nicht unerhebliche Bedeutung hat aus juristischer Sicht dabei die Frage, wem im Falle der beruflichen Verwendung solcher Accounts diese bei einer Trennung von Arbeitgeber und Arbeitnehmer (oder auch von Unternehmen und Geschäftsführer) zustehen können. Dieser Frage geht der Beitrag nach deutschem Recht nach und versucht, das in ihr liegende Konfliktpotential und dessen Vermeidbarkeit auszuloten.
In der heutigen Zeit gehört das Internet zum Alltagsleben. So ist es verständlich, dass die Anzahl von Webseiten im Internet konstant zunimmt. Reichte es früher im Web einfach nur vertreten zu sein, ist der heutige Anspruch an Webseiten stark gestiegen. Interaktive Angebote müssen mehr und mehr den Wünschen der Nutzer entsprechen und rücken User Experience und Usability in den Fokus von Unternehmen. Diese sind maßgeblich für die Qualität einer Webseite verantwortlich und entscheiden somit auch über den Erfolg im Web. Schlechte Bedienbarkeit macht eine Webseite nahezu nutzlos, während eine ansprechende Gestaltung und ein hohes Maß an Gebrauchstauglichkeit fast jede Webseite erfolgreich machen kann. Um dies zu ermöglichen, stehen Entwicklern und Designern eine Reihe von Gestaltungsrichtlinien und Evaluationsmöglichkeiten zur Verfügung. Diese Tests sind ein wichtiger Bestandteil im Entwicklungsprozess und haben das Ziel, Schwachstellen von Webseiten aufzuzeigen und Bedürfnisse von Benutzern zu erkennen und zu verstehen. Jede Methode lässt sich dabei individuell oder in Kombination einsetzen.
Sind Mitglieder eine aussterbende Spezies? Der demografische Wandel zeigt dringenden Handlungsbedarf
(2012)
Schulen im Wettbewerb
(2012)
Der Ärger ist verständlich. Nach jahrelanger Lobby–Arbeit ist es gelungen, den Einfluss auf grundlegende Entscheidungen der Hochschulen und Universitäten institutionell zu verankern, indem man Hochschulräte eingerichtet hat. Dieses Gremium aus Externen, meist Wirtschaftsvertretern, und – je nach Landesverfassung – gleich vielen oder weniger Hochschulangehörigen konnte gerade mal eine Dekade wirken, um die Hochschulen nach den Prämissen des freien Marktes umzubauen. Und nun soll schon wieder umgedacht werden? Die Hochschulräte sollen nicht mehr entscheiden, sondern „nur noch“ beraten können?
Wir präsentieren die weltweit erste Auswertung einer zweidimensional entwickelten HPTLC-Platte (2D-HPTLC) mit Hilfe eines Diodenarray Scanners. Das System erreicht eine räumliche Plattenauflösung von 250 µm. Es können Absorptions- und Fluoreszenzspektren im Wellenlängenbereich von 190 bis 1000 nm mit einer spektralen Auflösung von besser als 1 nm gemessen werden. Eine Trennzahl von 259 wurde erreicht. Damit zeigt die Methode bessere Trenneigenschaften als die meisten HPLC-Systeme. Der Nachteil der 2D-Auswertung ist der hohe Zeitbedarf von über 3 Stunden für eine Plattenmessung.
Am Institut für Angewandte Forschung wird seit Jahren eine Mikroprozessorfamilie unter dem Kurznamen SIRIUS entwickelt, die inzwischen in verschiedenen Applikationen eingesetzt wird und in hohem Maß nun auch kommerziell interessant wird. Im Mittelpunkt der Arbeiten des letzten Jahrs stand die Ausreifung der Strukturen, wobei zum erstenMal auf Benchmarks zurückgegriffen werden konnte, die einen direkten Vergleich der Leistungsfähigkeit von Prozessoren ermöglicht. Als Benchmark wurde in einer Master-Arbeit von Herrn Roth der Core-Mark Benchmark für unsere SIRIUS-Architektur übersetzt, der einen direkten Vergleich mit sehr leistungsfähigen Boliden wie der ARM-Cortex-Architektur aber auch klassischen kommerziellen Produkten von Renesas wie auch von ATMEL ermöglicht.
Das Institut für Angewandte Forschung arbeitet seit Jahren an RFID-Applikationen unter Verwendung des Protokolls nach ISO15693-Standard. Wir entwickeln in dem Zusammenhang sowohl Frontendelektronik als auch Reader, die es ermöglichen, diese Tags auszulesen. Projekte der vergangenen Jahre waren sowohl SEAGsens als auch medizintechnische Anwendungen unterschiedlichster Art.
Praxisorientierung und angewandte Wissenschaften sind an unseren Hochschulen erprobte Denkweisen, traditionsreich gewachsen aus Technik und Wirtschaft. Mit der interdisziplinären Medienfakultät M+I kommt der gestalterische Blick dazu auf Grafik, Bewegtbild, Sound, Multimedia und Interaktivität. Im Master-Studium ergänzen sich intermediales Gestalten und Reflexion mit audiovisueller Komposition als Performance. Solche experimentell-künstlerischen Projekte verbinden sich durch Hochschul- und Mediendidaktik mit forschendem Lernen, als integrierende Methode, die noch wachsen soll. Ein wichtiger Impuls dafür könnte Practice-Based Research sein. Das ist eine Forschung in Kunst und Gestaltung, aber auch in Medizin und Sozialwissenschaft, die sich in den letzten drei Jahrzehnten im Angelsächsischen von Nordamerika über England bis nach Australasia intenstiv entwickelt hat.
In den letzten Jahren ist die Photovoltaik, beflügelt durch das Erneuerbare Energiengesetz – zumindest so lang es noch eine hinreichend lukrative Einspeisevergütung gab -, zu einem immer bedeutenderen Applikationsfeld der Leistungselektronik geworden. Im Fokus des Interesses steht dabei der Photovoltaik-Wechselrichter, der den in den Solarmodulen erzeugten Gleichstrom in Wechselstrom oder Drehstrom umwandelt und ins Netz einspeist.
Personalauswahl II
(2012)
Zu den Themen Recruiting und Personalauswahl liegt eine Vielzahl von Studien vor, überwiegend aus der angelsächsischen, insbesondere US-amerikanischen Forschung. Die Auswahl der Kandidaten in der Praxis ist meist das Resultat einer Kombination von Entscheidungsträgern, Bewerbern und situativen Kontextfaktoren. Welche Erkenntnisse lassen sich aus dem aktuellen wissenschaftlichen Diskurs zum Verhalten und den Merkmalen von Interviewern und Bewerbern gewinnen? Welche neuen Erkenntnisse existieren zur Auswahl- und Interviewgestaltung? Diesen wichtigen Fragestellungen geht Band 2 dieses Grundlagenwerks zur Personalauswahl nach. Er führt den State-of-the art der international relevanten Forschung des ersten Bandes, Personalauswahl I, fort, der sich mit Anforderungsprofil, Bewerbersuche, Vorauswahl, Vorstellungsgespräch und Referenzen beschäftigt.
Personalauswahl I
(2012)
Der Erfolg und die weitere Entwicklung eines Unternehmens oder einer Organisation hängen entscheidend von den Mitarbeitern ab. Daher ist die valide und effiziente Personalauswahl eine wichtige strategische Maßnahme zur Sicherung und Steigerung der Mitarbeiterqualität. Die vorliegende dritte, gründlich überarbeitete und vollständig aktualisierte Auflage bietet auf Basis des aktuellen internationalen Forschungsstandes einen einzigartigen Einblick in Instrumente und Praxis der erfolgeichen Personalauswahl. Der vorliegende Band I konzentriert sich auf die Grundlagen der Personalauswahl, die Bewerbersuche, Anforderungsprofile, Vorauswahl, Vorstellungsgespräch und die gezielte Nutzung von Referenzen. Eine umfassende Fragendatenbank dient dem direkten Praxistransfer. Band II widmet sich aktuellen internationalen Forschungsergebnissen zum Verhalten und zu Merkmalen von Interviewern und Bewerbern. Beide methodisch durchgängig auf hochwertige Untersuchungen gestützte Standardwerke richten sich insbesondere an Fach- und Führungskräften wie Personalleiter, Personalreferenten und Vorgesetzte. Auch Studierende erhalten wertvolle Informationen und unentbehrliches Methodenwissen.
Große Logistikunternehmen stehen in den letzten Jahren zunehmend vor neuen Herausforderungen. Zum einen steigt die Menge zu transportierender Güter jährlich, zum anderen entstanden durch Verschmelzungen großer Logistikunternehmen, wie z. B. Deutsche Post, Danzas und Exel oder UPS und Fritz, riesige Fahrzeugflotten, deren effiziente Planung die Unternehmen vor enorme Probleme stellt. Die einzige Möglichkeit, diese meist heterogenen, also aus vielen verschiedenen Verkehrsmitteln bestehenden Flotten mit herkömmlichen Mitteln effizient zu planen, ist die Aufteilung in (regionale) Geschäftsbereiche. Dadurch können viele Synergieeffekte nicht genutzt werden, was unter anderem zu unnötig hohen Transportkilometerleistungen und Leerfahrten führt. Im Rahmen des Forschungsprojekts Attractive (Programm IngenieurNachwuchs) wurden neue Algorithmen entwickelt, mit deren Hilfe dieOptimierung von Transportaufträgen unter realen Be-dingungen und in realistischen Größenordnungen möglich wird. In diesem Artikel wird kurz auf die Optimierung eingegangen, und dann werden die ersten gewonnenen Ergebnisse zusammengefasst.
About 20% of those heart failure patients receiving cardiac resynchronization therapy (CRT) are in atrial fibrillation (AF). Current guidelines apply for patients in sinus rhythm only. Recent studies have shown again, that successful resynchronization is closely linked to a pre-existent ventricular desynchronization. In those studies, the interventricular conduction delay (IVCD) was determined prior to device implantation by ultrasound in patients with sinus rhythm (SR)only. In patients with AF this method ́s use is limited.
To implement left-heart electrogram (LHE) into standard programmers and to simplify IVCD measurement in heart failure patients with AF, LHE was recorded in 11 AF patients with heart failure by Biotronik ICS3000 programmer via a15Hz Butterworth high-pass filter. Therefore, TOslim esophageal electrode (Dr. Osypka GmbH, Rheinfelden, Germany) was perorally applied and fixed in position of maximal left ventricular defection. IVCD was measured between onset of QRS in surface ECG and left ventricular defection (LV) in LHE. In addition, intra-left ventricular conduction delay (ILVCD) was measured as duration of LV in LHE.
In all of the 11 AF patients, desynchronization was quantifiable by LHE. Mean QRS of 162 ± 27ms (120-206ms) was linked with IVCD of 62ms ± 27ms (37-98ms) and ILVCD of 110 ± 20ms (80-144ms), at mean. Correlation between IVCD and QRS was 0.39 (n. s.) with IVCD/QRS ratio of 0.38 ± 0.11 (0.22-0.81).
A 15Hz high-pass filtered LHE feature of the Biotronik ICS3000 programmer is feasible to quantify ventricular dyssynchrony in heart failure patients with AF in order to clearly indicate implantation of CRT systems. As relations between QRS duration, IVCD and ILVCD considerably differ interindividually, the predictive values of IVCD, ILVCD and IVCD/QRS ratio for individual CRT response or non-response shall be identified in follow-up studies.
Diese Arbeit widmet sich dem Medium Publikumszeitschrift und den Möglichkeiten für neue Wege dieser Medienform. Dabei wird die Publikumszeitschrift von Grund auf definiert und charakterisiert, wobei auch auf den deutschen Publikumszeitschriftenmarkt eingegangen wird. Als weiterer Schritt wird die Entwicklung der Zeitschrift zur Medienmarke aufgezeigt, sowie die vielzähligen Plattformen zur Verbreitung der Publikumszeitschriftenmarke vorgestellt und analysiert. Der folgende Hauptteil dieser Thesis besteht zum Großteil aus einer eigens angelegten Onlinestudie, die Aufschluss über das Nutzungsverhalten und der Attraktivität der vorgestellten neuen Plattformen, für die Zielgruppe Studenten und Young Professionals in Bezug auf Nachrichten- und Wirtschaftsmagazine geben soll. Der Abschluss der Arbeit bildet ein Fazit, indem die Grunderkenntnis der Studie nochmals zusammengefasst und ein Zukunftsausblick gegeben wird.
In vielen Schulgebäuden der Region südlicher Oberrhein - besonders bei solchen, die energetisch saniert wurden und wo der Schulbetrieb auf Ganztagsunterricht umgestellt wurde - zeigt sich seit Beginn dieses Jahrhunderts eine verstärkte Über-hitzungstendenz im Sommer. Im Rahmen der Initiative Forschungskooperation Hochschule/Stadt für mehr Energieeffizienz beim Betrieb öffentlicher Gebäude und Liegenschaften beauftragte die Stadt Offenburg die Forschungsgruppe nachhaltige Energietechnik (Forschungsgruppe net) der Hochschule Offenburg mit der Ausarbeitung eines Konzeptes für die natürliche Gebäudeklimatisierung in Klassenzimmern. Besonderes Augenmerk galt dabei neben bautechnischen Maßnahmen der Ge-bäudeautomation. Da ein vollautomatisierter Betrieb technisch und finanziell für viele kommunalen Betreiber unrealistisch ist, ist zudem die Einbindung der Nutzer und Mitarbeiter vor Ort unerlässlich. Die Ergebnisse aus dem Projekt stehen einer breiten Öffentlichkeit in Form eines Leitfadens zur Verfügung.
MPC-Workshop Juli 2012
(2012)
MPC-Workshop Februar 2012
(2012)
Die vorliegende Erfindung betrifft eine Messchraube zur Ermittlung von Schraubenbelastungen sowie ein Verfahren zu deren Herstellung. Die Messschraube umfasst mindestens zwei Dehnungsmesssensoren, die so im Schraubenschaft angeordnet und dehnungskinematisch mit dem Schraubenschaft gekoppelt sind, dass sie Dehnungswerte im Schraubenschaft erfassen, aus denenüber konstitutive Materialgesetze Belastungen in mehr als einer Achse im oberen freien Schaftbereich bestimmt werden können. Durch Möglichkeit der Bestimmung mehrachsiger Belastungen lassen sich Schrauben sachgerechter auslegen, so dass die Gefahr von Schraubenbrüchen reduziert wird.
Die vorliegende Arbeit beschäftigt sich mit der aktuellen Medienkompetenzdiskussion in Deutschland. Einführend werden die Medienausstattung und Mediennutzung von Jugendlichen im Alter zwischen 12 und 19 Jahren anhand der JIM-Studie aus dem Jahre 2011 dargestellt. Die Begriffe „Medium“ und „Kompetenz“ werden eingeführt und ihre Herkunft und Verwendung näher betrachtet. Die Medienpädagogik ist ein relativ junges Feld der Erziehungswissenschaft und so müssen Medienerziehung, Medienbildung und Mediensozialisation in Zusammenhang gebracht und eingeordnet werden. Die Thesis gibt einen Überblick über verschiedene Begriffe der Medienpädagogik und deren aktuelles Verständis. Sie zeigt, warum Medienkompetenz nicht als Kulturtechnik verstanden werden sollte und klärt außerdem, inwiefern es eine Wissenskluft gibt, die auf die Nutzung von Medien zurückzuführen ist. Im Hauptteil werden die derzeit meist diskutierten Konzepte zur Vermittlung von Medienkompetenz dargestellt. Schließlich werden Argumente für, sowie gegen die Vermittlung von Medienkompetenz durch die berufliche Schule, mit Hilfe der vorgestellten Konzepte gesammelt und analysiert. Die vorliegende Arbeit soll kein Leitfaden für den Umgang mit Medien im Unterricht sein. Sie soll das Interesse an der Diskussion wecken und die Möglichkeit bieten kritisch zu hinterfragen, was und wie die Medien vermitteln.
Das Ziel dieses Aufsatzes besteht darin, einen systematischen Überblick über den staatlichen Regulierungsbedarf in der Verkehrswirtschaft zu geben. Aus netzökonomischer Sicht ist eine konzeptionelle Unterscheidung der einzelnen Wertschöpfungsstufen (Netzebenen) in Verkehrssystemen von grundlegender Bedeutung, um zu einer ökonomisch fundierten Rollenverteilung zwischen Markt und Staat in der Verkehrswirtschaft zu kommen. Was der Markt auf der Ebene der Verkehrsdienste leisten kann, haben z.B. die Marktöffnungen im Luftverkehr und im Straßengüterverkehr eindrucksvoll gezeigt. Die Ebene der Verkehrssteuerungssysteme ist vor allem für die Sicherheit von Verkehrssystemen von großer Bedeutung. Auf der Ebene der Verkehrsinfrastrukturen ist das Marktmachtproblem zentral. Das Marktmachtproblem verschärft auch das staatliche Beschaffungsproblem bei der Bestellung defizitärer Verkehrsinfrastrukturen. Es fällt schwer, eine davon unabhängige Begründung für eine staatliche Planung der Verkehrsinfrastrukturnetze zu geben. Auf der Ebene der natürlichen Ressourcen erstreckt sich der staatliche Regulierungsbedarf teilweise weit über die Grenzen des Verkehrssektors hinaus, z.B. in der Klimapolitik oder bei der Raumplanung. Eine sektorsymmetrische Umweltpolitik und eine sektorsymmetrische Raumordnungspolitik wären die Voraussetzungen dafür, dass die Verkehrspolitik sich ganz auf ihre sektorspezifischen Aufgaben in der Verkehrswirtschaft konzentrieren kann.