Refine
Year of publication
- 2012 (194) (remove)
Document Type
- Conference Proceeding (42)
- Contribution to a Periodical (35)
- Article (unreviewed) (22)
- Article (reviewed) (19)
- Other (19)
- Part of a Book (16)
- Bachelor Thesis (13)
- Book (10)
- Master's Thesis (7)
- Patent (4)
Conference Type
- Konferenzartikel (30)
- Konferenz-Abstract (8)
- Konferenzband (2)
- Konferenz-Poster (1)
- Sonstiges (1)
Keywords
- Adsorption (5)
- HTML 5.0 (4)
- Metallorganisches Netzwerk (4)
- E-Learning (3)
- JavaScript (3)
- Monitoring (3)
- Analyse (2)
- Dünnschichtchromatographie (2)
- Finite-Elemente-Methode (2)
- HTML (2)
Institute
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (51)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (51)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (41)
- Zentrale Einrichtungen (26)
- Fakultät Wirtschaft (W) (24)
- INES - Institut für nachhaltige Energiesysteme (7)
- CRT - Campus Research & Transfer (2)
- WLRI - Work-Life Robotics Institute (2)
- Rektorat/Verwaltung (1)
Open Access
- Open Access (83)
- Closed Access (61)
- Closed (11)
- Bronze (10)
Der vorliegene Beitrag beschreibt erste Untersuchungsergebnisse mit der Finite-Elemente-Methode (FEM) zur Ermittlung der Kennwerte des bezogenen Spannungsgefälles beim linear-elastischen Werkstoffverhalten für die nach DIN 5480 genormten Zahnwellen mit freiem Auslauf bei Torsion, Biegung und Zug/Druck. Für die Bestimmung von Zwischen-werten werden analytische Näherungsgleichungen aufgestellt.
Für den Erfolg einer kardialen Resynchronisationstherapie der Herzinsuffizienz mit biventrikulär stimulierenden Implantaten ist deren individuelle Programmierung von erfolgsbestimmender Bedeutung. Dies trifft insbesondere auf den Parameter AV-Delay zu. Dessen Optimierung durch Echo-Verfahren ist zeitaufwendig, die Suche nach einfacheren Methoden darum verständlich. Eine solche verspricht der in St. Jude Aggregate implementierte automatische QuickOpt Algorithmus. In-vitro-Untersuchungen unter Einsatz eines elektronischen Herzsimulators sagten jedoch verschiedene ungünstige Eigenschaften vorher. Die eingeschränkte Nutzbarkeit ließ sich auch mit In-vitro-Vergleichen belegen.
Der straßengebundene öffentliche Personennahverkehr wurde bislang von Liberalisierungsbestrebungen ausgenommen. Im Personenbeförderungsgesetz sind objektive Marktzugangsbeschränkungen verankert, die lediglich im Fernverkehr, nicht aber im Nahverkehr abgebaut werden sollen. Der Autor untersucht, ob diese Marktzugangsbeschränkungen aus ökonomischer Sicht gerechtfertigt sind.
Whiplash injury
(2012)
In cardiac resynchronization therapy (CRT) for heart failure, individualization of the AV delay is essential to improve hemodynamics and to minimize non-responder rate. In patients in sinus rhythm having additional disposition to bradycardia, optimization is necessary for both situations, atrial sensing and pacing. Therefore, echo-optimization is the goldstandard but time consuming. Unfortunately, it depends on the particular CRT systems parameter set if the resulting individually optimal AV delays can be programmed or not. Some CRT systems provide a set of AV delays for DDD operation combined with a set of the pace-sense-compensation to optimize the AV delay in DDD and VDD operation. The pace-sense-compensation (PSC) can be defined by the difference of implant-related interatrial conduction intervals in DDD and VDD operation measured in the esophageal left atrial electrogram. In a cohort of 96 CRT patients we found mean PSC of 59-35ms ranging between 0-143ms. As a consequence, allowing 10ms tolerance, AVD optimization is completely impossible in one of the two modes, VDD or DDD operation, in 34 (35%) or 5 (5%) patients with implants restricting the PSC range to 60ms or 100ms, respectively. Thus, we propose companies to provide CRT systems with programmable pace-sense- compensation between 0ms and 150ms.
Das Dokument erläutert wesentliche Bilanzierungsunterschiede zwischen der internationalen Rechnungslegung nach IFRS und dem deutschen HGB in der Fassung des BilMoG. Zielgruppe sind insebsondere Studierende und Nicht-Bilanzierungsexperten. Es wurde ein einfacher Sprachstil verwendet und auf unnötige Fachtermini verzichtet, wann immer dies möglich erschien.
Die Frage nach der Struktur und Funktion von „Hochschulen“ kann man sinnvoll nicht isoliert betrachten ohne einen Blick auf Schulen. Hochschulen sind Teil des gesamten Schulsystems und eingebunden in eine (momentan noch) sehr differenzierte und vielfältige, bundesdeutsche „Bildungslandschaft“, die sich über Jahrhunderte herauskristallisiert hat. Tradition und evolutionäre Genese sind eine Konstante von Bildungseinrichtungen, der ständige Wandel und der stetige Reformdruck eine weitere. Es scheint, das an Schulen und Hochschulen immer von neuem laboriert werden muss, auch wenn das mögliche Spektrum von Einstellungen und Methoden – zumindest was Lernen und Lehrkonzepte betrifft, – seit der Antike bekannt sind.
Daher gliedert sich dieser Text in drei Abschnitte:
• Ein kurzer Blick zurück leitet zentrale Begriffe her.
• Die Analyse des Ist-Zustandes unter Berücksichtigung der seit 1998 unter dem Namen „Bologna“ realisierten Reformen (Vereinheitlichung der europäischen Studiengänge, Umstellung der Studiengänge auf andere Abschlüsse (Bachelor, Master) u.v.m.) zeigt aktuelle Fehlentwicklungen, nennt Gründe und Protagonisten .
• Der abschließend Blick nach vorn zeigt, was aus (Hoch)Schulen (wieder) werden könnten, wenn Lehrende und Studierende mutiger werden.
Die immer weitreichenderen Anwendungen des Smart Metering und des Smart Grid stellen immer höhere Anforderungen an Kommunikationstechnologien, die die Zielkonflikte aus Echtzeitfähige, Stabilität, Kosten und Energieeffizienz möglichst anwendungsoptimiert und auf einem immer höheren Niveau lösen. Insbesondere im Bereich der so genannten Primärkommunikation zwischen einem Sensor- oder Aktorknoten und einem Datensammler mit Gatewayfunktionalität konnten in den vergangenen Jahren wesentliche Fortschritte erzielt werden. Zu nennen sind hierbei insbesondere die Aktivitäten der ZigBee Alliance rund um den offenen Spezifikationsprozess des ZigBee Smart Energy Profiles (SEP) und der OMS-Gruppe beim ZVEI, die auf dem Wireless M-Bus nach EN13757-4 aufbauen, der sich seinerseits lebhaft und zielgerichtet weiter entwickelt. Der Beitrag diskutiert die vorhandenen Einschränkungen und die verfügbaren Lösungsansätze. Er illustriert diese anhand einiger öffentlich geförderter Projekte, an denen das Team des Autors beteiligt ist.
Es sollte in dieser Schrift untersucht werden, inwieweit bei Änderungen im Bereich der Planung, Durchführung und Auswertung von klinischen Arzneimittelprüfungen die Bewertung mit wissenschaftlichen oder politischen Begründungen erfolgt und inwieweit wissenschaftliche Regeln für politische Zwecke genutzt werden.
Auxiliary power units (APUs) are used in mobile applications to supply electrical power in the range of 3 to 10 kW. The state of the art generators are driven by a diesel engine at constant speed. They have a low efficiency (high fuel consumption) as they operate mostly in partial load conditions. A higher efficiency for partial loads is feasible by adjusting the speed of the diesel engine to its optimum efficiency. A frequency converter provides a constant electric frequency at variable speed of the generator. The resulting higher investments for such a variable speed generator (VSG) need a proof of economics, which is demonstrated by this investigation.
Der effektive Einsatz von Energie ist vor dem Hintergrund von begrenzten Ressourcen und der Forderung nach einer Reduzierung der bei der Energiegewinnung entstehenden Umweltbelastungen von wachsender Bedeutung. Für die noch relativ junge Gruppe der generativen Fertigungsverfahren liegen bis heute kaum Untersuchungen zum Energieverbrauch vor. Deshalb werden in diesem Beitrag zwei weit verbreitete Rapid-Prototyping-Verfahren (3D-Drucken und Fused Deposition Modeling) hinsichtlich ihres Energieverbrauchs untersucht und verglichen. Zudem werden Maßnahmen zur Steigerung der Energieeffizienz aufgezeigt und Einsparmöglichkeiten genannt.
Die optimale Zusammensetzung und Aktivität der Mikroorganismengemeinschaft ist für den stabilen und effizienten Betrieb einer Biogasanlage essentiell. Moderne kultivierungsunabhängige Nachweismethoden können erstmals die Basis für eine rationale mikroorganismenfokussierte Verfahrensoptimierung liefern. Als erster Schritt für den Aufbau eines aussagekräftigen Monitoringsystems für die Biogasmikrobiologie wurde ein nucleinsäurebasiertes Verfahren (TaqMan Real-time PCR) zum Nachweis der methanbildenden Mikroorganismen (Archaeen) sowie von vier Untergruppen etabliert und auf Proben aus zwei unterschiedlich betriebenen Biogasanlagen in Neuried und Oberried angewandt. Bei der Anlage in Oberried in der Nähe von Freiburg, betrieben von örtlichen Landwirten (Substrat: Gülle, Grassilage, Maissilage, Mist, Anlage mit Güllevorgrube, Fermenter und Gärrestlager) konnten insgesamt höhere absolute Konzentrationen an Archaeen nachgewiesen werden als in der Anlage in Neuried in der Nähe von Offenburg, betrieben durch die Fa. badenova AG & Co. KG, Freiburg (thermophil betrieben, Substrat: Maissilage, Anlage mit Hauptfermenter, Nachfermenter und Gärrestlager). Auch hinsichtlich der vier untersuchten Untergruppen zeigten sich deutliche Unterschiede, die auf die unterschiedlichen an der Methanbildung beteiligten Abläufe hinweisen.
„All business is local“ ist eine der am häufigsten zitierten Binsenweisheiten, die jedoch in der Praxis nicht immer zu den richtigen Schlussfolgerungen bei Kommunikation und Vermarktungsstrategie führt. Die Herausforderung, glaubwürdig vor Ort in Kommunikation und Vertrieb präsent zu sein, ist durch viele neue technische Möglichkeiten noch größer geworden. „Lokal, mobil, sozial“ das sind die großen Trends für das Lokalgeschäft. In der Tat spricht einiges dafür, dass diese Themen in den nächsten Monaten weiter an Bedeutung gewinnen und als kombinierte Produktform im lokalen Bereich mit Handel und Dienstleistern verstärkten Einfluss auf das Kommunikations- und Vertriebsgeschehen nehmen.
Um bei der Produktentwicklung auf die immer höheren Anforderungen wie Effizienz- oder Kostenoptimierung reagieren zu können, stehen die Unternehmen vor der Herausforderung, neue, leistungsfähige Komponenten zu entwickeln. Hierzu müssen geeignete Entwicklungswerkzeuge zur Verfügung stehen. Bei der Auslegung von strömungsführenden Bauteilen wie zum Beispiel Rohrleitungen, Krümmern oder Ansaugstutzen wird meist auf Standard Konstruktionen zurückgegriffen. Hierzu zählen zum Beispiel gerade Rohre, 90 Grad- Umlenkungen und Diffusoren. Neue Topologieoptimierungsverfahren im Bereich Computational Fluid Dynamics (CFD) bieten die Möglichkeit, solche Bauteile für den jeweiligen Anwendungsfall optimiert zu dimensionieren und somit zu einer Steigerung der Effizienz des Gesamtsystems beizutragen. Darüber hinaus kann die Topologieoptimierung schon in sehr frühen Phasen des Entwicklungsprozesses eingesetzt werden und somit helfen, die Anzahl an Entwicklungsstufen zu reduzieren.
The suffix-free-prefix-free hash function construction and its indifferentiability security analysis
(2012)
In this paper, we observe that in the seminal work on indifferentiability analysis of iterated hash functions by Coron et al. and in subsequent works, the initial value (IV) of hash functions is fixed. In addition, these indifferentiability results do not depend on the Merkle–Damgård (MD) strengthening in the padding functionality of the hash functions. We propose a generic n-bit-iterated hash function framework based on an n-bit compression function called suffix-free-prefix-free (SFPF) that works for arbitrary IVs and does not possess MD strengthening. We formally prove that SFPF is indifferentiable from a random oracle (RO) when the compression function is viewed as a fixed input-length random oracle (FIL-RO). We show that some hash function constructions proposed in the literature fit in the SFPF framework while others that do not fit in this framework are not indifferentiable from a RO. We also show that the SFPF hash function framework with the provision of MD strengthening generalizes any n-bit-iterated hash function based on an n-bit compression function and with an n-bit chaining value that is proven indifferentiable from a RO.
This paper describes the magmaOffenburg 3D simulation team trying to qualify for RoboCup 2012. While last year’s TDP focused on the tool set created for 3D simulation and the support for heterogeneous robot models, this year we focus on the different ways how robot behavior can be defined in the magmaOffenburg framework and how those behaviors can be improved by learning.
Teilladungverkehre im Schienengüterverkehr – ein vergessenes Geschäftsmodell für die Zukunft?
(2012)
Die Veränderungen in der Energieversorgung führen zu einer neuen Systemarchitektur der Stromversorgung, die nur durch einen massiven Einsatz von Informations- und Kommunikationstechnologien (IKT) bewältigt werden kann und meist als „Smart Grid“ bezeichnet wird. Während es bereits umfangreiche Forschungsarbeiten und Demonstrationsprojekte zu einzelnen technologischen Komponenten gibt, existieren noch wenige Überlegungen, in welchen technologischen Schritten eine Migration hin zu Smart Grids durchgeführt werden sollte, die sowohl betriebstechnisch zukunftssicher ist, als auch marktgetriebene Innovationen begünstigt. Der Beitrag veranschaulicht die Herleitung solcher Migrationspfade im Rahmen eines schrittweisen Vorgehens. Zunächst werden Zukunftsszenarien für das Jahr 2030 konstruiert, um die maßgeblichen, oft auch nichttechnischen Einflussfaktoren auf das Smart Grid zu identifizieren. Darauf aufbauend werden die wesentlichen IKT-bezogenen Technologiefelder und ihre Zuordnung zu den Domänen der Energiewirtschaft beschrieben. Für jedes Technologiefeld werden die in den nächsten zwei Jahrzehnten denkbaren Entwicklungsstufen ermittelt und deren Abhängigkeit untereinander analysiert. Die gemeinsame Betrachtung von Szenarien, der Entwicklungsstufen der Technologiefelder und deren Interdependenzen führen schließlich zu einer Roadmap, welche die Migrationspfade in das Smart Grid beschreiben. Es lassen sich drei Entwicklungsphasen erkennen: Die Konzeptionsphase, die Integrationsphase und die Fusionsphase. Die präsentierten Ergebnisse entstammen dem Projekt „Future Energy Grid – Migrationspfade ins Internet“, welches vom Bundesministerium für Wirtschaft und Technologie im Rahmen des E-Energy-Programms (Förderkennzeichen 01ME10012A und 01ME10013) gefördert wurde.
Biofilme können in technischen Systemen zu Beschädigungen oder Beeinträchtigungen der Leistung des Systems führen. In der Humanmedizin können sie zu Infektionen an Kathetern und Implantat-oberflächen führen. Biofilme bilden sich an Phasengrenzflächen. Der erste Schritt in der Entstehung eines Biofilms ist die Bildung eines "Conditioning"-Films aus Substanzen des umgebenden Mediums. Ein zur Beschichtung von Implantaten eingesetztes Polymer ist Parylen C. Auf akustischen Oberflächenwellen, englisch: surface acoustic wave (SAW), basierende Sensoren zeigen bei Änderungen der Eigenschaften ihrer aktiven Oberfläche eine Änderung ihrer Resonanzfrequenz. Im Rahmen dieser Arbeit wurde überprüft, ob sich SAW-Sensoren zur Echtzeitbeobachtung der Bildung von "Conditioning"-Filmen eignen. Als Vergleichssystem wurden Schwingquarze, englisch: quarz crystal microbalances (QCM), gewählt, da diese ebenfalls gravimetrischen Sensoren bereits zur Beoabachtung von "Conditioning"-Filmen eingesetzt werden. Sensoren beider Systeme wurden mit Parylen C beschichtet und jeweils mit drei relevanten Proteinen des menschlichen Blutplasmas beprobt. Es konnte gezeigt werden, dass sich auf akustischen Oberflächenwellen basierende Sensoren zur Beobachtug der Adsorption von Plasmaproteinen auf Parylen C eignen. Zudem konnten auf SAW-Sensoren reproduzierbar Charakteristiken in den Kurvenverläufen beobachtet werden, welche beim Vergleichssystems nicht sichtbar waren.
Sudoku
(2012)
Stähle im Bauwesen
(2012)
Many SMEs are still faced with the problematic fact that their corporate structures and processes are not designed for efficient development and market positioning and there is a lack of appropriate methods and tools. SMEs are often inefficiently targeted to the internal or external demands for services. The following key questions are answered in this article: 1) Which studies are available in terms of strategic planning in young SMEs? 2) Which aspects should be considered in the implementation and control of these instruments?
Improved separation of highly toxic contact herbicides paraquat (1,1′-dimethyl-4-4′-bipyridinium), diquat (6,7-dihydrodipyridol[ 1,2-a:2′,1′-c]pyrazine-5,8-di-ium), difenzoquat (1,2-dimethyl-3,5-diphenyl-1H-pyrazolium-methyl sulfate), mepiquat (1,1-dimethyl-piperidinium), and chloromequat (2-chloroethyltrimethylammonium) were presented by high-performance thin-layer chromatography (HPTLC). The quantification is based on a derivatization reaction, using sodium tetraphenylborate. Measurements were made in the wavelength range from 500 to 535 nm, using a light-emitting diode (LED) for excitation purposes, which emits very dense light at 365 nm. For calculations, a new theory of standard addition method was used, thus leading to a minimal error if exactly the same amount of sample content is added as a standard. The method provides a fast and inexpensive approach to quantification of the five most important quats used for plant protection purposes. The method works reliably because it takes into account losses during pre-treatment procedure. The method meets the European legislation limits for paraquat and diquat in drinking water according to United States Environmental Protection Agency (US EPA) method 549.2 which are 680 ng L−1 for paraquat and 720 ng L−1 for diquat. The method of standard addition in planar chromatography can be beneficially used to reduce systematic errors. Although recovery rates of 33.7% to 65.2% are observed, calculated contents according to the method of standard addition lie between 69% and 127% of the theoretical amounts.
ECG simulators, available on the market, imitate the electric activity of the heart in a simplified manner. Thus, they are suitable for education purposes but not really for testing algorithms to recognize complex arrhythmias needed for pacemakers and implantable defibrillators. Especially certain discrimination between various morphologies of atrial and ventricular fibrillation needs simulators providing native electrograms of different patients’ heart rhythm events. This explains the necessity to develop an ECG simulator providing high-resolution native intracardiac and surface electrograms of in-vivo rhythm events. In this paper we demonstrate an approach for an ECG simulator based on a consumer multichannel soundcard and a corresponding software application for a laptop computer. This Live-ECG Simulator is able to handle invasive electrogram recordings from electrophysiological studies and send the data to a modified external soundcard for subsequent digital to analog conversion. The hardware is completed with an electronic circuit providing level adjustment to adapt the output amplitude to the input conditions of several cardiac implants.
The CO2 uptake on nanoscale AlO(OH) hollow spheres (260 mg g−1) as a new material is comparable to that on many metal–organic frameworks although their specific surface area is much lower (530 m2 g¬1versus 1500–6000 m2g¬1). Suited temperature–pressure cycles allow for reversible storage and separation of CO2 while the CO2 uptake is 4.3-times higher as compared to N2.
Die Hochschule Offenburg begleitet in Zusammenarbeit mit dem Fraunhofer ISE in Freiburg die solar unterstützte Klimatisierung der Deutschen Telekom in Rottweil. Die Anlage wurde im Rahmen des Forschungsvorhabens „Solarthermie2000plus“ vom Bundesumweltministerium gefördert. Inzwischen liegen erste Ergebnisse aus einem Langzeitmonitoring vor.
Im Rahmen des Programms Solarthermie2000plus wurde eine begrenzte Anzahl solarthermischer Pilot sowie Forschungs- und Demonstrationsanlagen zur Teildeckung des Wärmebedarfs unterschiedlicher Verbraucher im Niedertemperaturbereich modellhaft gefördert. Mit Solarthermie2000plus führte das BMU im Rahmen des Energieforschungsprogramms der Bundesregierung die langfristig angelegten Forschungsaktivitäten zur thermischen Nutzung der Sonnenenergie des Förderkonzepts Solarthermie-2000 mit neuen Schwerpunkten fort.
Rund ein Drittel (2.529 PJ) der in Deutschland verwendeten Endenergie wird von der Industrie genutzt. Es gibt viele Industriebereiche in denen die Prozessluftaufbereitung eine wichtige Rolle spielt. Beispielhaft ist die Lebensmittel-, die Pharma- und die Halbleiterindustrie zu nennen. In all diesen Bereichen wird Luft mit bestimmten Konditionen benötigt, um Produkte präzise und unter Einhaltung aller Auflagen herstellen zu können. Die Luftaufbereitung ist meist mit einem großen Energieaufwand verbunden. Hierzu ist es erforderlich, Prozesswärme und/oder Prozesskälte zur Verfügung zu haben.
„Soziale Netzwerke“ im Internet sind „in“. Wohl die Hälfte aller Deutschen zwischen zwölf und vierzig sind inzwischen in wenigstens einer dieser populären Online-Communitys Mitglied geworden. Eine Vielzahl der Nutzer ist dabei (zumindest auch) geschäftlich unterwegs, ungeachtet dessen, dass die Anbieter dies zuweilen (ohne es auch nur im Geringsten zu forcieren) formal in ihren AGB ausschließen. Nicht unerhebliche Bedeutung hat aus juristischer Sicht dabei die Frage, wem im Falle der beruflichen Verwendung solcher Accounts diese bei einer Trennung von Arbeitgeber und Arbeitnehmer (oder auch von Unternehmen und Geschäftsführer) zustehen können. Dieser Frage geht der Beitrag nach deutschem Recht nach und versucht, das in ihr liegende Konfliktpotential und dessen Vermeidbarkeit auszuloten.
In der heutigen Zeit gehört das Internet zum Alltagsleben. So ist es verständlich, dass die Anzahl von Webseiten im Internet konstant zunimmt. Reichte es früher im Web einfach nur vertreten zu sein, ist der heutige Anspruch an Webseiten stark gestiegen. Interaktive Angebote müssen mehr und mehr den Wünschen der Nutzer entsprechen und rücken User Experience und Usability in den Fokus von Unternehmen. Diese sind maßgeblich für die Qualität einer Webseite verantwortlich und entscheiden somit auch über den Erfolg im Web. Schlechte Bedienbarkeit macht eine Webseite nahezu nutzlos, während eine ansprechende Gestaltung und ein hohes Maß an Gebrauchstauglichkeit fast jede Webseite erfolgreich machen kann. Um dies zu ermöglichen, stehen Entwicklern und Designern eine Reihe von Gestaltungsrichtlinien und Evaluationsmöglichkeiten zur Verfügung. Diese Tests sind ein wichtiger Bestandteil im Entwicklungsprozess und haben das Ziel, Schwachstellen von Webseiten aufzuzeigen und Bedürfnisse von Benutzern zu erkennen und zu verstehen. Jede Methode lässt sich dabei individuell oder in Kombination einsetzen.
Sind Mitglieder eine aussterbende Spezies? Der demografische Wandel zeigt dringenden Handlungsbedarf
(2012)
Silicon edges as one-dimensional waveguides for dispersion-free and supersonic leaky wedge waves
(2012)
Acoustic waves guided by the cleaved edge of a Si(111) crystal were studied using a laser-based angle-tunable transducer for selectively launching isolated wedge or surface modes. A supersonic leaky wedge wave and the fundamental wedge wave were observed experimentally and confirmed theoretically. Coupling of the supersonic wave to shear waves is discussed, and its leakage into the surface acoustic wave was observed directly. The velocity and penetration depth of the wedge waves were determined by contact-free optical probing. Thus, a detailed experimental and theoretical study of linear one-dimensional guided modes in silicon is presented.
Cardiac resynchronization therapy with biventricular pacing is an established therapy for heart failure patients with electrical left ventricular desynchronization. The aim of this study was to evaluate left atrial conduction delay, intra left atrial conduction delay, left ventricular conduction delay and intra left ventricular conduction delay in heart failure patients using novel signal averaging transesophageal left heart ECG software.
Methods: 8 heart failure patients with dilated cardiomyopathy (DCM), age 68 ± 9 years, New York Heart Association (NYHA) class 2.9 ± 0.2, 24.8 ± 6.7 % left ventricular ejection fraction, 188.8 ± 15.5 ms QRS duration and 8 heart failure patients with ischaemic cardiomyopathy (ICM), age 67 ± 8 years, NYHA class 2.9 ± 0.3, 32.5 ± 7.4 % left ventricular ejection fraction and 167.6 ± 19.4 ms QRS duration were analysed with transesophageal and transthoracic ECG by Bard LabDuo EP system and novel National Intruments LabView signal averaging ECG software.
Results: The electrical left atrial conduction delay was 71.3 ± 17.6 ms in ICM versus 72.3 ± 12.4 ms in DCM, intra left atrial conduction delay 66.8 ± 8.6 ms in ICM versus 63.4 ± 10.9 ms in DCM and left cardiac AV delay 180.5 ± 32.6 ms in ICM versus 152.4 ± 30.4 ms in DCM. The electrical left ventricular conduction delay was 40.9 ± 7.5 ms in ICM versus 42.6 ± 17 ms in DCM and intra left ventricular conduction delay 105.6 ± 19.3 ms in ICM versus 128.3 ± 24.1 ms in DCM.
Conclusions: Left heart signal averaging ECG can be utilized to analyse left atrial conduction delay, intra left atrial conduction delay, left ventricular conduction delay and intra left ventricular conduction delay to improve patient selection for cardiac resynchronization therapy.
The provisioning of security for highly dynamic wireless networks, as for Car2X applications is still a major topic, as very specific requirements have to be solved. Those include a perfect privacy level and advanced real-time behavior, and the necessity to work with a public infrastructure (PKI) to support secure authentication.
This contribution analyzes these requirements, discusses the existing approaches, performs a gap analysis and elaborates on proposals to fill these gaps. It describes work in progress within the KoFAS-initiative for the development of a cooperative pedestrian protection system (CPPS).
Schulen im Wettbewerb
(2012)
Der Ärger ist verständlich. Nach jahrelanger Lobby–Arbeit ist es gelungen, den Einfluss auf grundlegende Entscheidungen der Hochschulen und Universitäten institutionell zu verankern, indem man Hochschulräte eingerichtet hat. Dieses Gremium aus Externen, meist Wirtschaftsvertretern, und – je nach Landesverfassung – gleich vielen oder weniger Hochschulangehörigen konnte gerade mal eine Dekade wirken, um die Hochschulen nach den Prämissen des freien Marktes umzubauen. Und nun soll schon wieder umgedacht werden? Die Hochschulräte sollen nicht mehr entscheiden, sondern „nur noch“ beraten können?
The paper focuses on a numerical model which describes the radial temperature evolution in an optical fiber during the heating and cooling process according to the SP1 approximation. Based on this model, experimental methods for temperature measurement with optical fibers and for splice process optimization can be developed.
We will present the first example of a two-dimensional scanned TLC-plate, measured by use of a diode-array scanner. A spatial resolution of 250 µm was achieved on plate. The system provides real 2D fluorescence and absorption spectra in the wavelength-range from 190 to 1000 nm with a spectral resolution of greater than 1 nm. A mixture of 12 sulphonamides was separated by using a cyanopropyl-coated silica gel plate (Merck, 1.16464) with the solvent mix of methyl tert-butyl ether-methanol-dichloromethane-cyclohexane-NH3 (25%) (48:2:2:1:1, v/v) in the first and with a mixture of water-acetonitrile-dioxane-ethanol (8:2:1:1, v/v) in the second direction. Both developments were carried out over a distance of 70 mm. A separation number (spot capacity) of 259 was calculated. We discussed a new formula for its calculation in 2D-TLC separations. The drawback of this method is that measuring a 2D-TLC plate needs more than 3 h measurement time.
Wir präsentieren die weltweit erste Auswertung einer zweidimensional entwickelten HPTLC-Platte (2D-HPTLC) mit Hilfe eines Diodenarray Scanners. Das System erreicht eine räumliche Plattenauflösung von 250 µm. Es können Absorptions- und Fluoreszenzspektren im Wellenlängenbereich von 190 bis 1000 nm mit einer spektralen Auflösung von besser als 1 nm gemessen werden. Eine Trennzahl von 259 wurde erreicht. Damit zeigt die Methode bessere Trenneigenschaften als die meisten HPLC-Systeme. Der Nachteil der 2D-Auswertung ist der hohe Zeitbedarf von über 3 Stunden für eine Plattenmessung.
Pure gas adsorption isotherms of CH4 and N2 and their binary mixtures were measured at 273 K, 298 K and 323 K and up to 2 MPa on two different microporous metal–organic frameworks (MOFs), i.e. the commercially available Basolite® A100 and the recently reported copper-based triazolyl benzoate MOF 3∞[Cu(Me-4py-trz-ia)] (1). The Tòth isotherm model and the vacancy solution model were used to describe the experimentally determined isotherms and proved to be well suited for this purpose. While 1 shows a more homogeneous surface with a nearly constant isosteric heat of adsorption of 18–18.5 kJ mol−1 for CH4 and 12–15 kJ mol−1 for N2, the isosteric heat of adsorption at zero coverage for Basolite® A100 is 19 kJ mol−1 for CH4 and 16.2 kJ mol−1 for N2, decreasing significantly with increasing loading. Binary adsorption isotherms were measured gravimetrically to determine the total adsorbed mass of CH4 and N2. The van Ness method was successfully applied to calculate partial loadings from gravimetrically measured binary adsorption isotherms. Further studies by volumetric–chromatographic experiments support the good correlation between experimental data and predictions by the vacancy solution model (VSM-Wilson) and the ideal adsorbed solution theory (IAST) from pure gas isotherms. The experimental selectivities were determined to be αCH4/N2 = 4.0–5.0 for 1, slightly higher than for Basolite® A100 with αCH4/N2 = 3.4–4.5. These values are in good agreement with predictions for ideal selectivities based on Henry's law constants. From the experimental selectivities the potential of both MOFs in gas separation of CH4 from N2 can be derived.
Am Institut für Angewandte Forschung wird seit Jahren eine Mikroprozessorfamilie unter dem Kurznamen SIRIUS entwickelt, die inzwischen in verschiedenen Applikationen eingesetzt wird und in hohem Maß nun auch kommerziell interessant wird. Im Mittelpunkt der Arbeiten des letzten Jahrs stand die Ausreifung der Strukturen, wobei zum erstenMal auf Benchmarks zurückgegriffen werden konnte, die einen direkten Vergleich der Leistungsfähigkeit von Prozessoren ermöglicht. Als Benchmark wurde in einer Master-Arbeit von Herrn Roth der Core-Mark Benchmark für unsere SIRIUS-Architektur übersetzt, der einen direkten Vergleich mit sehr leistungsfähigen Boliden wie der ARM-Cortex-Architektur aber auch klassischen kommerziellen Produkten von Renesas wie auch von ATMEL ermöglicht.
Das Institut für Angewandte Forschung arbeitet seit Jahren an RFID-Applikationen unter Verwendung des Protokolls nach ISO15693-Standard. Wir entwickeln in dem Zusammenhang sowohl Frontendelektronik als auch Reader, die es ermöglichen, diese Tags auszulesen. Projekte der vergangenen Jahre waren sowohl SEAGsens als auch medizintechnische Anwendungen unterschiedlichster Art.
Praxisorientierung und angewandte Wissenschaften sind an unseren Hochschulen erprobte Denkweisen, traditionsreich gewachsen aus Technik und Wirtschaft. Mit der interdisziplinären Medienfakultät M+I kommt der gestalterische Blick dazu auf Grafik, Bewegtbild, Sound, Multimedia und Interaktivität. Im Master-Studium ergänzen sich intermediales Gestalten und Reflexion mit audiovisueller Komposition als Performance. Solche experimentell-künstlerischen Projekte verbinden sich durch Hochschul- und Mediendidaktik mit forschendem Lernen, als integrierende Methode, die noch wachsen soll. Ein wichtiger Impuls dafür könnte Practice-Based Research sein. Das ist eine Forschung in Kunst und Gestaltung, aber auch in Medizin und Sozialwissenschaft, die sich in den letzten drei Jahrzehnten im Angelsächsischen von Nordamerika über England bis nach Australasia intenstiv entwickelt hat.
In den letzten Jahren ist die Photovoltaik, beflügelt durch das Erneuerbare Energiengesetz – zumindest so lang es noch eine hinreichend lukrative Einspeisevergütung gab -, zu einem immer bedeutenderen Applikationsfeld der Leistungselektronik geworden. Im Fokus des Interesses steht dabei der Photovoltaik-Wechselrichter, der den in den Solarmodulen erzeugten Gleichstrom in Wechselstrom oder Drehstrom umwandelt und ins Netz einspeist.
Personalauswahl II
(2012)
Zu den Themen Recruiting und Personalauswahl liegt eine Vielzahl von Studien vor, überwiegend aus der angelsächsischen, insbesondere US-amerikanischen Forschung. Die Auswahl der Kandidaten in der Praxis ist meist das Resultat einer Kombination von Entscheidungsträgern, Bewerbern und situativen Kontextfaktoren. Welche Erkenntnisse lassen sich aus dem aktuellen wissenschaftlichen Diskurs zum Verhalten und den Merkmalen von Interviewern und Bewerbern gewinnen? Welche neuen Erkenntnisse existieren zur Auswahl- und Interviewgestaltung? Diesen wichtigen Fragestellungen geht Band 2 dieses Grundlagenwerks zur Personalauswahl nach. Er führt den State-of-the art der international relevanten Forschung des ersten Bandes, Personalauswahl I, fort, der sich mit Anforderungsprofil, Bewerbersuche, Vorauswahl, Vorstellungsgespräch und Referenzen beschäftigt.
Personalauswahl I
(2012)
Der Erfolg und die weitere Entwicklung eines Unternehmens oder einer Organisation hängen entscheidend von den Mitarbeitern ab. Daher ist die valide und effiziente Personalauswahl eine wichtige strategische Maßnahme zur Sicherung und Steigerung der Mitarbeiterqualität. Die vorliegende dritte, gründlich überarbeitete und vollständig aktualisierte Auflage bietet auf Basis des aktuellen internationalen Forschungsstandes einen einzigartigen Einblick in Instrumente und Praxis der erfolgeichen Personalauswahl. Der vorliegende Band I konzentriert sich auf die Grundlagen der Personalauswahl, die Bewerbersuche, Anforderungsprofile, Vorauswahl, Vorstellungsgespräch und die gezielte Nutzung von Referenzen. Eine umfassende Fragendatenbank dient dem direkten Praxistransfer. Band II widmet sich aktuellen internationalen Forschungsergebnissen zum Verhalten und zu Merkmalen von Interviewern und Bewerbern. Beide methodisch durchgängig auf hochwertige Untersuchungen gestützte Standardwerke richten sich insbesondere an Fach- und Führungskräften wie Personalleiter, Personalreferenten und Vorgesetzte. Auch Studierende erhalten wertvolle Informationen und unentbehrliches Methodenwissen.
During the last ten years the development of wireless sensing applications has become more and more attractive. A major reason for this trend is the large quantity of available wireless technologies. The progressing demand on wireless technologies is mainly driven through development from the industrial wireless sensors market. Especially requirements like low energy consumption, a resource saving simple protocol stack and short timing delays between different states of the wireless transceivers are very important for wireless sensors. Bluetooth Low Energy (BLE) is a rather new wireless standard in addition to the traditional Bluetooth standard (Basis rate and enhanced data rate, BR/EDR) [1]. The BLE will completely fulfill these fundamental requirements. First BLE transceiver chips and modules are available and have been tested and implemented in products. In this paper the performance analysis results of a BLE sensor system which is based on the TI transceiver CC2540F [5] will be presented. The results can be taken for further important investigations like lifetime calculations or BLE simulation models.
Home Automation, Smart Metering, reduction of energy consumption for climate preservation – those buzz words are flooding the daily press.The European Directive 2006/32/EC (Energy-Use Efficiency and Energy Services) commits its members to reduce their energy consumption about nine percent from 1996 to 2015, and supports smart metering and the need of new developments for encouraging energy efficiency and CO² reduction in households and commercial buildings. The European countries have started different projects to achieve this goal. Also outside Europe, smart metering gains interest, for energy savings and better distribution network control.
Große Logistikunternehmen stehen in den letzten Jahren zunehmend vor neuen Herausforderungen. Zum einen steigt die Menge zu transportierender Güter jährlich, zum anderen entstanden durch Verschmelzungen großer Logistikunternehmen, wie z. B. Deutsche Post, Danzas und Exel oder UPS und Fritz, riesige Fahrzeugflotten, deren effiziente Planung die Unternehmen vor enorme Probleme stellt. Die einzige Möglichkeit, diese meist heterogenen, also aus vielen verschiedenen Verkehrsmitteln bestehenden Flotten mit herkömmlichen Mitteln effizient zu planen, ist die Aufteilung in (regionale) Geschäftsbereiche. Dadurch können viele Synergieeffekte nicht genutzt werden, was unter anderem zu unnötig hohen Transportkilometerleistungen und Leerfahrten führt. Im Rahmen des Forschungsprojekts Attractive (Programm IngenieurNachwuchs) wurden neue Algorithmen entwickelt, mit deren Hilfe dieOptimierung von Transportaufträgen unter realen Be-dingungen und in realistischen Größenordnungen möglich wird. In diesem Artikel wird kurz auf die Optimierung eingegangen, und dann werden die ersten gewonnenen Ergebnisse zusammengefasst.
Rotation of an elastic medium gives rise to a shift of frequency of its acoustic modes, i.e., the time-period vibrations that exist in it. This frequency shift is investigated by applying perturbation theory in the regime of small ratios of the rotation velocity and the frequency of the acoustic mode. In an expansion of the relative frequency shift in powers of this ratio, upper bounds are derived for the first-order and the second-order terms. The derivation of the theoretical upper bounds of the first-order term is presented for linear vibration modes as well as for stable nonlinear vibrations with periodic time dependence that can be represented by a Fourier series.
Cardiac resynchronisation therapy (CRT) is a promising treatment option in patients with chronic heart failure. In this article the roles of semi-invasive esophageal left-heart electrocardiography and functional cardiac nuclear imaging in the field of CRT are highlighted, as the combination of both could be a favourable diagnostic approach in special cardiac situations. Also original esophageal left heart electrogram data of exemplary CRT patients is presented.
Cardiac resynchronization therapy (CRT) with biventricular pacing is an established therapy for heart failure (HF) patients (P) with ventricular desynchronization and reduced left ventricular (LV) ejection fraction. The aim of this study was to evaluate electrical right atrial (RA), left atrial (LA), right ventricular (RV) and LV conduction delay with novel telemetric signal averaging electrocardiography (SAECG) in implantable cardioverter defibrillator (ICD) P to better select P for CRT and to improve hemodynamics in cardiac pacing.
Methods: ICD-P (n=8, age 70.8 ± 9.0 years; 2 females, 6 males) with VVI-ICD (n=4), DDD-ICD (n=3) and CRT-ICD (n=1) (Medtronic, Inc., Minneapolis, MN, USA) were analysed with telemetric ECG recording by Medronic programmer 2090, ECG cable 2090AB, PCSU1000 oscilloscope with Pc-Lab2000 software (Velleman®) and novel National Intruments LabView SAECG software.
Results: Electrical RA conduction delay (RACD) was measured between onset and offset of RA deflection in the RAECG. Interatrial conduction delay (IACD) was measured between onset of RA deflection and onset of far-field LA deflection in the RAECG. Interventricular conduction delay (IVCD) was measured between onset of RV deflection in the RVECG and onset of LV deflection in the LVECG. Telemetric SAECG recording was possible in all ICD-P with a mean of 11.7 ± 4.4 SAECG heart beats, 97.6 ± 33.7 ms QRS duration, 81.5 ± 44.6 ms RACD, 62.8 ± 28.4 ms RV conduction delay, 143.7 ± 71.4 ms right cardiac AV delay, 41.5 ms LA conduction delay, 101.6 ms LV conduction delay, 176.8 ms left cardiac AV delay, 53.6 ms IACD and 93 ms IVCD.
Conclusions: Determination of RA, LA, RV and LV conduction delay, IACD, IVCD, right and left cardiac AV delay by telemetric SAECG recording using LabView SAECG technique may be useful parameters of atrial and ventricular desynchronization to improve P selection for CRT and hemodynamics in cardiac pacing.
About 20% of those heart failure patients receiving cardiac resynchronization therapy (CRT) are in atrial fibrillation (AF). Current guidelines apply for patients in sinus rhythm only. Recent studies have shown again, that successful resynchronization is closely linked to a pre-existent ventricular desynchronization. In those studies, the interventricular conduction delay (IVCD) was determined prior to device implantation by ultrasound in patients with sinus rhythm (SR)only. In patients with AF this method ́s use is limited.
To implement left-heart electrogram (LHE) into standard programmers and to simplify IVCD measurement in heart failure patients with AF, LHE was recorded in 11 AF patients with heart failure by Biotronik ICS3000 programmer via a15Hz Butterworth high-pass filter. Therefore, TOslim esophageal electrode (Dr. Osypka GmbH, Rheinfelden, Germany) was perorally applied and fixed in position of maximal left ventricular defection. IVCD was measured between onset of QRS in surface ECG and left ventricular defection (LV) in LHE. In addition, intra-left ventricular conduction delay (ILVCD) was measured as duration of LV in LHE.
In all of the 11 AF patients, desynchronization was quantifiable by LHE. Mean QRS of 162 ± 27ms (120-206ms) was linked with IVCD of 62ms ± 27ms (37-98ms) and ILVCD of 110 ± 20ms (80-144ms), at mean. Correlation between IVCD and QRS was 0.39 (n. s.) with IVCD/QRS ratio of 0.38 ± 0.11 (0.22-0.81).
A 15Hz high-pass filtered LHE feature of the Biotronik ICS3000 programmer is feasible to quantify ventricular dyssynchrony in heart failure patients with AF in order to clearly indicate implantation of CRT systems. As relations between QRS duration, IVCD and ILVCD considerably differ interindividually, the predictive values of IVCD, ILVCD and IVCD/QRS ratio for individual CRT response or non-response shall be identified in follow-up studies.
New frontiers of supraventricular tachycardia and atrial flutter evaluation and catheter ablation
(2012)
Radiofrequency catheter ablation (RFCA) has revolutionized treatment for tachyarrhythmias and has become first-line therapy for some tachycardias. Although developed in the 1980s and widely applied in the 1990s, the technique is still in development. Transesophageal atrial pacing (TAP) can used for initiation and termination of supraventricular tachycardia (SVT).
Methods: The paroxysmal SVT include a wide spectrum of disorders including, in descending order of frequency, atrial flutter, atrioventricular (AV) nodal reentry, Wolff-Parkinson-White syndrome, and atrial tachycardia. While not life-threatening in most cases, they may cause important symptoms, such as palpitations, chest discomfort, breathlessness, anxiety, and syncope, which significantly impair quality of life. Medical therapy has variable efficacy, and most patients are not rendered free of symptoms. Research over the past several decades has revealed fundamental mechanisms involved in the initiation and maintenance of all of these arrhythmias. Knowledge of mechanisms has in turn led to highly effective surgical and catheter-based treatments. The supraventricular arrhythmias and their treatment are described in this report. SVT initiation was analysed with programmed TAP in 49 patients with palpitations (age 47 ± 17 years, 24 females, 25 males).
Results: In comparison to antiarrhythmic drug therapy the radiofrequency catheter ablation in patients suffering from atrial flutter, atrioventricular nodal reentry, atrioventricular reentry and atrial tachycardia is the better choice in most cases. TAP SVT initiation was possible in 23 patients before RFCA. Atrial cycle length of SVT was 320 ± 59 ms. We initiated AV nodal reentrant tachycardia (AVNRT, n=15), atrial tachycardia (AT, n=6) and AV reentrant tachycardia with Kent pathway conduction (AVRT, n=2) before RFCA.
Conclusions: Radiofrequency catheter ablation is a successful and safe method to cure most patients with paroxysmal supraventricular tachycardias. TAP allowed initiation and termination of SVT especially in outpatients.
The study from Mehrazin et al. in HJNM 2011; 14(3): 243-50 on the neuropsychology, morphological computerized tomography (CT) and functional neuroimaging with 99mTc-labelled ethylene cystein-ate dimer single-photon emission tomography (SPET) in mild trau-matic brain injury (MTBI) is an interesting new approach to a disease condition which is often neglected or denied. Related to the above, we may note that the French composer Maurice Ravel (1875-1937), who suffered from Pick ́s disease with primary progressive apha-sia, had a taxi accident in 1932, with a mild concussion, perhaps an MTBI. Apart from the dysphasia and beginning apraxia, which Rav-el had already 5 years prior to the taxi accident, these symptoms exacerbated-the dysphasia became a progressive aphasia-and he developed additional severe deficits in concentration and atten-tion after the accident. It has also been suspected that this accident may have triggered Ravel ́s agraphia the unability to write down any new composition beyond the date of the taxi accident, a condi-tion that Ravel himself described as unacceptable and which made him feel very sad as his mind was full of ideas. Due to the deterio-ration of his health, which can also be seen in his appearance on late photographs, Ravel consulted the famous neurosurgeon Prof. Clovis Vincent. Vincent, who suspected a hydrocephalus, opened Ravel ́s skull on December 19, 1937, showing a normal brain. Soon after surgery Ravel died. In conclusion, a SPET/CT approach com-bined with a brain perfusion analysis using statistical parametric mapping might be the recommendable approach today for mild traumatic brain injury.
Diese Arbeit widmet sich dem Medium Publikumszeitschrift und den Möglichkeiten für neue Wege dieser Medienform. Dabei wird die Publikumszeitschrift von Grund auf definiert und charakterisiert, wobei auch auf den deutschen Publikumszeitschriftenmarkt eingegangen wird. Als weiterer Schritt wird die Entwicklung der Zeitschrift zur Medienmarke aufgezeigt, sowie die vielzähligen Plattformen zur Verbreitung der Publikumszeitschriftenmarke vorgestellt und analysiert. Der folgende Hauptteil dieser Thesis besteht zum Großteil aus einer eigens angelegten Onlinestudie, die Aufschluss über das Nutzungsverhalten und der Attraktivität der vorgestellten neuen Plattformen, für die Zielgruppe Studenten und Young Professionals in Bezug auf Nachrichten- und Wirtschaftsmagazine geben soll. Der Abschluss der Arbeit bildet ein Fazit, indem die Grunderkenntnis der Studie nochmals zusammengefasst und ein Zukunftsausblick gegeben wird.
In vielen Schulgebäuden der Region südlicher Oberrhein - besonders bei solchen, die energetisch saniert wurden und wo der Schulbetrieb auf Ganztagsunterricht umgestellt wurde - zeigt sich seit Beginn dieses Jahrhunderts eine verstärkte Über-hitzungstendenz im Sommer. Im Rahmen der Initiative Forschungskooperation Hochschule/Stadt für mehr Energieeffizienz beim Betrieb öffentlicher Gebäude und Liegenschaften beauftragte die Stadt Offenburg die Forschungsgruppe nachhaltige Energietechnik (Forschungsgruppe net) der Hochschule Offenburg mit der Ausarbeitung eines Konzeptes für die natürliche Gebäudeklimatisierung in Klassenzimmern. Besonderes Augenmerk galt dabei neben bautechnischen Maßnahmen der Ge-bäudeautomation. Da ein vollautomatisierter Betrieb technisch und finanziell für viele kommunalen Betreiber unrealistisch ist, ist zudem die Einbindung der Nutzer und Mitarbeiter vor Ort unerlässlich. Die Ergebnisse aus dem Projekt stehen einer breiten Öffentlichkeit in Form eines Leitfadens zur Verfügung.
MPC-Workshop Juli 2012
(2012)
MPC-Workshop Februar 2012
(2012)
In the field of smart metering it can be observed that standardized protocol, like Wireless M-Bus or ZigBee, enjoy a rapidly increasing popularity. For the protocol implementations, however, up to now, mostly legacy engineering processes and technologies are used, and modern approaches such as model driven design processes or open software platform are disregarded. Therefore, within the WiMBex project, it shall be demonstrated that it is possible to develop a commercial class Wireless M-Bus implementation following state-of-the art design process and using TinyOS as an open source platform. This contribution describes the overall approach of the project, as well as the state and the first experiences of the current work in progress.
In this work the adsorption of CO2 and CH4 on a series of isoreticular microporous metal–organic frameworks based on 2-substituted imidazolate-4-amide-5-imidates, IFP-1–IFP-6 (IFP = Imidazolate Framework Potsdam), is studied firstly by pure gas adsorption at 273 K. All experimental isotherms can be nicely described by using the Tòth isotherm model and show the preferred adsorption of CO2 over CH4. At low pressures the Tòth isotherm equation exhibits a Henry region, wherefore Henry's law constants for CO2 and CH4 uptake could be determined and ideal selectivity αCO2/CH4 has been calculated. Secondly, selectivities were calculated from mixture data by using nearly equimolar binary mixtures of both gases by a volumetric–chromatographic method to examine the IFPs. Results showed the reliability of the selectivity calculation. Values of αCO2/CH4 around 7.5 for IFP-5 indicate that this material shows much better selectivities than IFP-1, IFP-2, IFP-3, IFP-4 and IFP-6 with slightly lower selectivity αCO2/CH4 = 4–6. The preferred adsorption of CO2 over CH4 especially of IFP-5 and IFP-4 makes these materials suitable for gas separation application.
Die vorliegende Erfindung betrifft eine Messchraube zur Ermittlung von Schraubenbelastungen sowie ein Verfahren zu deren Herstellung. Die Messschraube umfasst mindestens zwei Dehnungsmesssensoren, die so im Schraubenschaft angeordnet und dehnungskinematisch mit dem Schraubenschaft gekoppelt sind, dass sie Dehnungswerte im Schraubenschaft erfassen, aus denenüber konstitutive Materialgesetze Belastungen in mehr als einer Achse im oberen freien Schaftbereich bestimmt werden können. Durch Möglichkeit der Bestimmung mehrachsiger Belastungen lassen sich Schrauben sachgerechter auslegen, so dass die Gefahr von Schraubenbrüchen reduziert wird.
Die vorliegende Arbeit beschäftigt sich mit der aktuellen Medienkompetenzdiskussion in Deutschland. Einführend werden die Medienausstattung und Mediennutzung von Jugendlichen im Alter zwischen 12 und 19 Jahren anhand der JIM-Studie aus dem Jahre 2011 dargestellt. Die Begriffe „Medium“ und „Kompetenz“ werden eingeführt und ihre Herkunft und Verwendung näher betrachtet. Die Medienpädagogik ist ein relativ junges Feld der Erziehungswissenschaft und so müssen Medienerziehung, Medienbildung und Mediensozialisation in Zusammenhang gebracht und eingeordnet werden. Die Thesis gibt einen Überblick über verschiedene Begriffe der Medienpädagogik und deren aktuelles Verständis. Sie zeigt, warum Medienkompetenz nicht als Kulturtechnik verstanden werden sollte und klärt außerdem, inwiefern es eine Wissenskluft gibt, die auf die Nutzung von Medien zurückzuführen ist. Im Hauptteil werden die derzeit meist diskutierten Konzepte zur Vermittlung von Medienkompetenz dargestellt. Schließlich werden Argumente für, sowie gegen die Vermittlung von Medienkompetenz durch die berufliche Schule, mit Hilfe der vorgestellten Konzepte gesammelt und analysiert. Die vorliegende Arbeit soll kein Leitfaden für den Umgang mit Medien im Unterricht sein. Sie soll das Interesse an der Diskussion wecken und die Möglichkeit bieten kritisch zu hinterfragen, was und wie die Medien vermitteln.
Machine-to-machine communication is continuously extending to new application fields. Especially smart metering has the potential to become the first really large-scale M2M application. Although in the future distributed meter devices will be mainly connected via dedicated primary communication protocols, like ZigBee, Wireless
M-Bus or alike, a major percentage of all meters will be connected via point to point communication using GPRS or UMTS platforms. Thus, such meter devices have to be extremely cost and energy efficient, especially if the devices are battery based and powered several years by a single battery. This paper presents the development of an automated measurement unit for power and time, thus energy characteristics can be recorded. The measurement unit includes a hardware platform for the device
under test (DUT) and a database based software environment for a smooth execution and analysis of the measurements.
The present study describes medium-chain-length polyhydroxyalkanoates (mcl-PHAs) production by the Pseudomonas Gl01 strain isolated from mixed microbial communities utilized for PHAs synthesis. A two-step fedbatch fermentation was conducted with glucose and waste rapeseed oil as the main carbon source for obtaining cell growth and mcl-PHAs accumulation, respectively. The results show that the Pseudomonas Gl01 strain is capable of growing and accumulating mcl-PHAs using a waste oily carbon source. The biomass value reached 3.0 g/l of CDW with 20% of PHAs content within 48 h of cultivation. The polymer was purified from lyophilized cells and analyzed by gas chromatography (GC). The results revealed that the monomeric composition of the obtained polyesters depended on the available substrate. When glucose was used in the growth phase, 3-hydroxyundecanoate and 3- hydroxydodecanoate were found in the polymer composition, whereas in the PHAs-accumulating stage, the Pseudomonas Gl01 strain synthesized mcl-PHAs consisting mainly of 3- hydroxyoctanoate and 3-hydroxydecanoate. The transcriptional analysis using reverse-transcription real-time PCR reaction revealed that the phaC1 gene could be transcribed simultaneously to the phaZ gene.
Komplexe optische Netzwerke fordern eine immer größere Anzahl an permanenten und dämpfungsarmen Glasfaserverbindungen (Spleiße). Eine wichtige Voraussetzung für hochqualitative Spleiße ist eine geeignete Temperaturverteilung. Die Autoren stellen eine In-situ-Methode zur Temperaturkontrolle durch Bildbearbeitung vor.
Das Ziel dieses Aufsatzes besteht darin, einen systematischen Überblick über den staatlichen Regulierungsbedarf in der Verkehrswirtschaft zu geben. Aus netzökonomischer Sicht ist eine konzeptionelle Unterscheidung der einzelnen Wertschöpfungsstufen (Netzebenen) in Verkehrssystemen von grundlegender Bedeutung, um zu einer ökonomisch fundierten Rollenverteilung zwischen Markt und Staat in der Verkehrswirtschaft zu kommen. Was der Markt auf der Ebene der Verkehrsdienste leisten kann, haben z.B. die Marktöffnungen im Luftverkehr und im Straßengüterverkehr eindrucksvoll gezeigt. Die Ebene der Verkehrssteuerungssysteme ist vor allem für die Sicherheit von Verkehrssystemen von großer Bedeutung. Auf der Ebene der Verkehrsinfrastrukturen ist das Marktmachtproblem zentral. Das Marktmachtproblem verschärft auch das staatliche Beschaffungsproblem bei der Bestellung defizitärer Verkehrsinfrastrukturen. Es fällt schwer, eine davon unabhängige Begründung für eine staatliche Planung der Verkehrsinfrastrukturnetze zu geben. Auf der Ebene der natürlichen Ressourcen erstreckt sich der staatliche Regulierungsbedarf teilweise weit über die Grenzen des Verkehrssektors hinaus, z.B. in der Klimapolitik oder bei der Raumplanung. Eine sektorsymmetrische Umweltpolitik und eine sektorsymmetrische Raumordnungspolitik wären die Voraussetzungen dafür, dass die Verkehrspolitik sich ganz auf ihre sektorspezifischen Aufgaben in der Verkehrswirtschaft konzentrieren kann.
Das Ziel dieses Aufsatzes besteht darin, einen systematischen Überblick über den staatlichen Regulierungsbedarf in der Verkehrswirtschaft zu geben. Aus netzökonomischer Sicht ist eine konzeptionelle Unterscheidung der einzelnen Wertschöpfungsstufen (Netzebenen) in Verkehrssystemen von grundlegender Bedeutung, um zu einer ökonomisch fundierten Rollenverteilung zwischen Markt und Staat in der Verkehrswirtschaft zu kommen. Was der Markt auf der Ebene der Verkehrsdienste leisten kann, haben z.B. die Marktöffnungen im Luftverkehr und im Straßengüterverkehr eindrucksvoll gezeigt. Die Ebene der Verkehrssteuerungssysteme ist vor allem für die Sicherheit von Verkehrssystemen von großer Bedeutung. Auf der Ebene der Verkehrsinfrastrukturen ist das Marktmachtproblem zentral. Das Marktmachtproblem verschärft auch das staatliche Beschaffungsproblem bei der Bestellung defizitärer Verkehrsinfrastrukturen. Es fällt schwer, eine davon unabhängige Begründung für eine staatliche Planung der Verkehrsinfrastrukturnetze zu geben. Auf der Ebene der natürlichen Ressourcen erstreckt sich der staatliche Regulierungsbedarf teilweise weit über die Grenzen des Verkehrssektors hinaus, z.B. in der Klimapolitik oder bei der Raumplanung. Eine sektorsymmetrische Umweltpolitik und eine sektorsymmetrische Raumordnungspolitik wären die Voraussetzungen dafür, dass die Verkehrspolitik sich ganz auf ihre sektorspezifischen Aufgaben in der Verkehrswirtschaft konzentrieren kann.
Limits of quantification of some neonicotinoid insecticides measured by thin-layer chromatography
(2012)
A simple method to quantify the neonicotinoid insecticides nitenpyram, thiamethoxam, acetamiprid, imidacloprid, thiacloprid and clothianidin directly on an HPTLC-plate is presented. As stationary phase silica gel 60 RP-18WF254 s plates were used and a mixture of methyl-t-butyl ether, 2-butanone, NH3 (25%) (5 + 2+0.1, v/v) was used as solvent. All neonicotinoid insecticides show light absorptions below 300 nm. The calculated limits of quantification (LOQ) by UV-detection are in the range from 12 ng to 26 ng on plate depending on the different insecticides.Nitenpyram can be stained using fast blue salt B, forming red zones. The observed LOQ is 25 ng on plate. Acetamiprid can be specifically stained using phenylglyoxylic acid forming a yellow/green fluorescent compound. The LOQ is 52 ng per spot.The compounds thiamethoxam, acetamiprid, thiacloprid and clothianidin can be transformed into blue fluorescing zones, using a relatively new staining solution. This consists of tetraphenylborate and HCl. This is the first publication mentioning that neonicotinoids undergo this reaction. The calculated limits of quantification are in the range from 10 ng to 27 ng on plate.A simple pre-treatment procedure using an acetonitrile extraction and a Chromabond SiOH clean up procedure leads to overall LOQs for bee samples of 48 to 108 µg/Kg. The method can be used to measure neonicotinoid contaminations of bees.
LG Berlin "Facebook-AGB"
(2012)
Diese Arbeit beschäftigt sich mit der Leistungsanalyse und Optimierung eines Flugdatenservers. Für die Durchführung dieser Leistungsanalyse wird eine eigene Anwendung entwickelt. Mit dieser eigens entwickelten Anwendung wird das Leistungsverhalten des Flugdatenservers genau analysiert. Mit den Erkenntnissen aus der Leistungsanalyse werden am Flugdatenserver Optimierungen durchgeführt und weitere Möglichkeiten zur Optimierung aufgezeigt. Bei diesem Flugdatenserver (Air Traffic Control Server) handelt es sich um eine Client/Server-Anwendung zur Visualisierung von Flugbewegungen im Lauftraum. Hierfür wird der Flugdatenserver mit Flugsicherungsdaten durch das Flugüberwachungssystem Automatic Dependent Surveillance (ADS) versorgt.
Cardiac resynchronization therapy (CRT) with biventricular (BV) pacing is an established therapy in approximately two-thirds of symptomatic heart failure (HF) patients (P) with left bundle branch block (LBBB). The aim of this study was to evaluate left atrial (LA) conduction delay (LACD) and left ventricular (LV) conduction delay (LVCD) using pre-implantational transesophageal electrocardiography (ECG) in sinus rhythm (SR) CRT responder (R) and non-responder (NR).
Methods: SR HF P (n=52, age 63.6±10.4 years; 6 females, 46 males) with New York Heart Association (NYHA) class 3.0±0.2, 24.4±7.1 % LV ejection fraction and 171.2±37.6 ms QRS duration (QRSD) were measured by bipolar filtered transesophageal LA and LV ECG recording with hemispherical electrodes (HE) TO catheter (Osypka AG, Rheinfelden, Germany). LACD was measured between onset of P-wave in the surface ECG and onset of LA deflection in the LA ECG. LVCD was measured between onset of QRS in the surface ECG and onset of LV deflection in the LV ECG.
Results: There were 78.8 % SR CRT R (n=41) with 171.2±36.9 ms QRSD, 73.3±25.7 ms LACD, 80.0±24.0 ms LVCD and 2.3±0.5 QRSD-LVCD-ratio. SR CRT R QRSD correlated with LACD (r=0.688, P<0.001) and LVCD (r=0.699, P<0.001). There were 21.2 % SR CRT NR (n=11) with 153.4±22.4 ms QRSD (P=0.133), 69.8±24.8 ms LACD (n=6, P=0.767), 54.2±31.0 ms LVCD (P<0.0046) and 3.9±2.5 QRSD-LVCD-ratio (P<0.001). SR CRT NR QRSD not corre-lated with IACD (r=-0.218, P=0.678) and IVCD (r=0.042, P=0.903). During a 22.8±21.3 month CRT follow-up, the CRT R NYHA class improved from 3.1±0.3 to 1.9±0.3 (P<0.001). In CRT NR, NYHA class not improved (2.9±0.4 to 2.9±0.2, P=1) during 11.2±9.8 months BV pacing.
Conclusions: Transesophageal LA and LV ECG with HE can be utilized to analyse LACD and LVCD in HF P. Pre-implantational LVCD and QRSD-LVCD-ratio may be additional useful parameters to improve P selection for SR CRT.
Für die Werkstoffe EN GJS700, EN GJV450 und EN GJL250 werden die Lebensdauern unter kombinierter thermomechanischer und hochfrequenter Belastung vorhergesagt. Hierzu wird ein mechanismenbasiertes Lebensdauermodell verwendet, das auf dem Wachstum von Mikrorissen beruht. Das Modell berücksichtigt das Wachstum von Rissen durch nieder- und überlagerte hochfrequente Belastungszyklen. Anhand von einachsigen Ermüdungsversuchen wurden die Parameter des Lebensdauermodells angepasst, sodass eine bestmögliche Lebensdauervorhersage erzielt wird. Dabei stimmen die vorhergesagten Lebensdauern gut mit den experimentell ermittelten Zyklenzahlen zum Versagen überein.
Bauteile in Dampfturbinen, stationäre Gasturbinen und Fluggasturbinen sind hohen Beanspruchungen ausgesetzt. Wenn die Turbinen gestartet werden, erwärmen sich die Bauteile im „heißen Bereich“ der Turbine auf über 1000 °C. Damit die Bauteile bei diesen Temperaturen nicht einfach dahinschmelzen, werden spezielle hochtemperaturfeste Legierungen verwendet, wie beispielsweise Nickelbasis-Superlegierungen. Die hohen Temperaturschwankungen die beim Starten und beim Abschalten der Turbine auftreten, machen aber auch diese Werkstoffe auf Dauer nicht mit. Beim Aufheizen dehnt sich das Material aus, beim Abkühlen zieht es sich wieder zusammen. Dieses Hin- und Her-Verformen führt dazu, dass der eingesetzte Werkstoff unter „Stress“ kommt und Spannungen im Werkstoff auftreten. Diese Spannungen können dazu führen, dass sich Risse im Material bilden, die unter der zyklischen Belastung (wiederholtes Starten und Abschalten) wachsen, bis das Bauteil kaputt ist. Der Fachmann spricht dabei von der thermo-mechanischen Ermüdung (Thermomechanical Fatigue, TMF) des Werkstoffs.
Zum ersten Mal gibt es mit dem kooperativen Promotionskolleg über „Kleinskalige erneuerbare Energiesysteme – KleE“ für hochqualifizierte Absolventen der Hochschule Offenburg die Möglichkeit zur Promotion innerhalb des engen wissenschaftlichen Austauschs eines Doktorandenkollegs. Betreut werden sie gemeinsam von je einem Universitätsprofessor und einem Hochschulprofessor. In Zusammenarbeit mit der Albert-Ludwigs-Universität Freiburg, dem Zentrum für Erneuerbare Energien (ZEE), und den Fraunhofer-Instituten für Solare Energiesysteme (ISE) sowie für Physikalische Messtechnik (IPM) forschen 15 Doktorandinnen und Doktoranden im Promotionskolleg KleE an interdisziplinären Forschungsthemen.
Die vorliegende Arbeit beschäftigt sich mit ausgewählten Aspekten der Konzeption, Umsetzung und Implementierung eines E-Learning-Lernangebots für die NGO CartONG. Das E-Learning-Angebot soll abschließend vier Themen beinhalten, die sich unter dem Begriff REDD+ zusammenfassen lassen. „Forest Inventory“ ist eines der vier Themen und wurde von mir bearbeitet. Für die Aufbereitung und Umsetzung der anderen drei Themen erstellte ich Anleitungen und Richtlinien. Die anderen drei Themen werden auf Grundlage dieser Anleitungen in ähnlicher Weise von CartONG-Mitarbeitern aufbereitet. Die Grundlage dieser Arbeit bilden die Lerntheorien sowie die Auswertung des Fragebogens für die potentiellen zukünftigen Lerner, durch die ich meine Konzeption und Umsetzung begründe. Diese beiden Grundlagen behandle ich in den ersten zwei Kapiteln. Darauf folgt die Beschreibung der Entwicklung des Corporate Designs für das gesamte Lernangebot. Es bildet neben der zuvor genannten didaktischen Grundlage nun die visuelle Grundlage für die Konzeption der Inhalte, die sich diesem Kapitel anschließt. Der Konzeption folgt die Aufbereitung der Inhalte. Das abschließende Kapitel beschreibt die anschließende Umsetzung des Lernangebots auf der Lernplattform Moodle.