Refine
Year of publication
Document Type
- Conference Proceeding (1253)
- Article (reviewed) (686)
- Bachelor Thesis (604)
- Article (unreviewed) (566)
- Part of a Book (460)
- Contribution to a Periodical (287)
- Book (242)
- Master's Thesis (208)
- Other (142)
- Working Paper (105)
Conference Type
- Konferenzartikel (950)
- Konferenz-Abstract (156)
- Konferenzband (77)
- Sonstiges (42)
- Konferenz-Poster (32)
Language
- German (2867)
- English (1980)
- Other language (5)
- Russian (3)
- Multiple languages (2)
- French (1)
- Spanish (1)
Keywords
- Mikroelektronik (62)
- Digitalisierung (48)
- Marketing (47)
- Social Media (40)
- COVID-19 (37)
- E-Learning (35)
- RoboCup (33)
- Kommunikation (32)
- Künstliche Intelligenz (32)
- Dünnschichtchromatographie (29)
Institute
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (1118)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (1103)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (917)
- Fakultät Wirtschaft (W) (649)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (565)
- Fakultät Medien (M) (ab 22.04.2021) (384)
- INES - Institut für nachhaltige Energiesysteme (245)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (161)
- Zentrale Einrichtungen (81)
- IMLA - Institute for Machine Learning and Analytics (78)
Open Access
- Closed Access (1708)
- Open Access (1692)
- Closed (756)
- Bronze (345)
- Diamond (92)
- Gold (77)
- Hybrid (49)
- Grün (16)
The suffix-free-prefix-free hash function construction and its indifferentiability security analysis
(2012)
In this paper, we observe that in the seminal work on indifferentiability analysis of iterated hash functions by Coron et al. and in subsequent works, the initial value (IV) of hash functions is fixed. In addition, these indifferentiability results do not depend on the Merkle–Damgård (MD) strengthening in the padding functionality of the hash functions. We propose a generic n-bit-iterated hash function framework based on an n-bit compression function called suffix-free-prefix-free (SFPF) that works for arbitrary IVs and does not possess MD strengthening. We formally prove that SFPF is indifferentiable from a random oracle (RO) when the compression function is viewed as a fixed input-length random oracle (FIL-RO). We show that some hash function constructions proposed in the literature fit in the SFPF framework while others that do not fit in this framework are not indifferentiable from a RO. We also show that the SFPF hash function framework with the provision of MD strengthening generalizes any n-bit-iterated hash function based on an n-bit compression function and with an n-bit chaining value that is proven indifferentiable from a RO.
As a basis for the evaluation of hydrogen storage by physisorption, adsorption isotherms of H2 were experimentally determined for several porous materials at 77 K and 298 K at pressures up to 15 MPa. Activated carbons and MOFs were studied as the most promising materials for this purpose. A noble focus was given on how to determine whether a material is feasible for hydrogen storage or not, dealing with an assessment method and the pitfalls and problems of determining the viability. For a quantitative evaluation of the feasibility of sorptive hydrogen storage in a general analysis, it is suggested to compare the stored amount in a theoretical tank filled with adsorbents to the amount of hydrogen stored in the same tank without adsorbents. According to our results, an “ideal” sorbent for hydrogen storage at 77 K is calculated to exhibit a specific surface area of >2580 m2 g−1 and a micropore volume of >1.58 cm3 g−1.
In this work the adsorption of CO2 and CH4 on a series of isoreticular microporous metal–organic frameworks based on 2-substituted imidazolate-4-amide-5-imidates, IFP-1–IFP-6 (IFP = Imidazolate Framework Potsdam), is studied firstly by pure gas adsorption at 273 K. All experimental isotherms can be nicely described by using the Tòth isotherm model and show the preferred adsorption of CO2 over CH4. At low pressures the Tòth isotherm equation exhibits a Henry region, wherefore Henry's law constants for CO2 and CH4 uptake could be determined and ideal selectivity αCO2/CH4 has been calculated. Secondly, selectivities were calculated from mixture data by using nearly equimolar binary mixtures of both gases by a volumetric–chromatographic method to examine the IFPs. Results showed the reliability of the selectivity calculation. Values of αCO2/CH4 around 7.5 for IFP-5 indicate that this material shows much better selectivities than IFP-1, IFP-2, IFP-3, IFP-4 and IFP-6 with slightly lower selectivity αCO2/CH4 = 4–6. The preferred adsorption of CO2 over CH4 especially of IFP-5 and IFP-4 makes these materials suitable for gas separation application.
We present a video-densitometric quantification method for the pain killer known as diclofenac and ibuprofen. These non-steroidal anti-inflammatory drugs were separated on cyanopropyl bonded plates using CH2Cl2, methanol, cyclohexane (95 + 5 + 40, v/v) as mobile phase. The quantification is based on a bio-effective-linked analysis using Vibrio fisheri bacteria. Within 10 min a CCD-camera registered the white light of the light-emitting bacteria. Diclofenac and ibuprofen effectively suppressed the bacterial light emission which can be used for quantification within a linear range of 10 to 2000 ng. The detection limit for ibuprofen is 20 ng and the limit of quantification 26 ng per zone. Measurements were carried out using a 16-bit ST-1603ME CCD camera with 1.56 megapixels (from Santa Barbara Instrument Group, Inc., Santa Barbara, USA). The range of linearity covers more than two magnitudes because the extended Kubelka-Munk expression is used for data transformation. The separation method is inexpensive, fast, and reliable.
High pressure adsorption phenomena are discussed for different gases on HKUST-1 (Cu3(BTC)2, commercially available product BasoliteTM C300). Sorption isotherms for hydrogen, nitrogen, methane and carbon dioxide on HKUST-1 were measured in the temperature range of 273–343 K and at pressures up to 50 MPa. The calculated surface excess adsorption capacities for all four adsorptive are one of the highest reported in the literature for HKUST-1 samples. All surface excess data were further calculated from the experimental data by using the helium buoyancy correction. A detailed description was given.
Also a procedure to calculate the absolute amount adsorbed from the surface excess amount by using two different models is shown. Using one model, the density and the volume of the adsorbed phase can be calculated. The density of the adsorbed phase ρads corresponds to the liquid density of the adsorptive at its boiling point ρliq,BP. In case of hydrogen no excess maximum was found up to 50 MPa, so that one model could not be applied. Finally, the isosteric heat of adsorption for each gas was calculated by using the Clausius–Clapeyron equation.
In dem abgeschlossenen Vorhaben „Entwicklung von Rechenmodellen zur Lebensdauervorhersage von Motorbauteilen unter thermisch-mechanischer Ermüdungsbeanspruchung“ der Forschungsvereinigung Verbrennungskraftmaschinen e. V. (FVV) wurde am Fraunhofer Institut für Werkstoffmechanik IWM in Freiburg ein Materialmodell zur Lebensdauervorhersage thermomechanisch belasteter Komponenten entwickelt. Das Modell basiert auf einem viskoplastischen Verformungsmodell für Eisengusswerkstoffe und einem mechanismenbasierten Modell für Mikrorisswachstum zur Lebensdauervorhersage.
A survey in 2000 revealed that only about 30% of the prescriptions in the European pediatric population were on the basis of evidence-based medicine (EbM). Less for radiopharmaceuticals and principally for diagnostics, radiologists throughout Europe are referred to the pediatric guidelines of the European Association of Nuclear Medicine (EANM), as none of the frequently used tracers have been evaluated in clinical trials in the different pediatric subgroups. Following a resolution to address the lack of EbM in children, the European Commission published the Pediatric Regulation EC 1901/2006 and its amendment EC 1902/2006, effective from 2007. This regulation foresees the development of evidence-based medicine in the pediatric population. This is effected through a set of principles like the mandatory pediatric investigation plan (PIP) to be included with the market authorization application (MAA), and the pediatric use market authorization (PUMA) for off-patent pharmaceuticals, and to a very small part radiopharmaceuticals with funding possibilities for pediatric-specific research through the 7th Framework Programme (7FP) of the European Union.
Routine nuclear cardiology examinations indicate heart rate, cardiac rhythm, the height of cardiac pulse and respiration rhythm. It would be of interest to study whether these data, especially if the same tests are repeated, can indicate patients’ well being in the future and perhaps patients’ life span, other factors being equal. Related old theories and suggestions are mentioned. Furthermore, some drugs like I-f channel antagonists and stress tests testing cardiac reserves could support such a study.
The Humboldt digital library (HDL) represents an innovative system to access the works and legacy of Alexander von Humboldt in a digital form on the Internet (www.avhumboldt.net). It contributes to the key question about how to present interconnected data in an appropriate form using information technologies. The HDL has been created as a dynamic digital library with the capability of connecting multilingual and multimedia data from diverse online archives. Humboldt’s volumes have become available, but beyond that any relevant information related to the observations of Humboldt, even outside the works can become immediately accessible. This makes it possible to recognize natural changes and compare Humboldt’s descriptions with recent situations. The technology we have developed addresses the issues of sustainability and makes it possible to detect changes in the environment since the time of Humboldt’s observations.
Crystal structures of two metal–organic frameworks (MFU‐1 and MFU‐2) are presented, both of which contain redox‐active CoII centres coordinated by linear 1,4‐bis[(3,5‐dimethyl)pyrazol‐4‐yl] ligands. In contrast to many MOFs reported previously, these compounds show excellent stability against hydrolytic decomposition. Catalytic turnover is achieved in oxidation reactions by employing tert‐butyl hydroperoxide and the solid catalysts are easily recovered from the reaction mixture. Whereas heterogeneous catalysis is unambiguously demonstrated for MFU‐1, MFU‐2 shows catalytic activity due to slow metal leaching, emphasising the need for a deeper understanding of structure–reactivity relationships in the future design of redox‐active metal–organic frameworks. Mechanistic details for oxidation reactions employing tert‐butyl hydroperoxide are studied by UV/Vis and IR spectroscopy and XRPD measurements. The catalytic process accompanying changes of redox states and structural changes were investigated by means of cobalt K‐edge X‐ray absorption spectroscopy. To probe the putative binding modes of molecular oxygen, the isosteric heats of adsorption of O2 were determined and compared with models from DFT calculations. The stabilities of the frameworks in an oxygen atmosphere as a reactive gas were examined by temperature‐programmed oxidation (TPO). Solution impregnation of MFU‐1 with a co‐catalyst (N‐hydroxyphthalimide) led to NHPI@MFU‐1, which oxidised a range of organic substrates under ambient conditions by employing molecular oxygen from air. The catalytic reaction involved a biomimetic reaction cascade based on free radicals. The concept of an entatic state of the cobalt centres is proposed and its relevance for sustained catalytic activity is briefly discussed.
Synthesis and crystal structure of a novel copper-based MOF material are presented. The tetragonal crystal structure of [ ∞ 3 ( Cu 4 ( μ 4 -O ) ( μ 2 -OH ) 2 ( Me 2 trz p ba ) 4 ] possesses a calculated solvent-accessible pore volume of 57%. Besides the preparation of single crystals, synthesis routes to microcrystalline materials are reported. While PXRD measurements ensure the phase purity of the as-synthesized material, TD-PXRD measurements and coupled DTA–TG–MS analysis confirm the stability of the network up to 230 °C. The pore volume of the microcrystalline material determined by nitrogen adsorption at 77 K depends on the synthetic conditions applied. After synthesis in DMF/H2O/MeOH the pores are blocked for nitrogen, whereas they are accessible for nitrogen after synthesis in H2O/EtOH and subsequent MeOH Soxhleth extraction. The corresponding experimental pore volume was determined by nitrogen adsorption to be V Pore = 0.58 cm 3 g - 1 . In order to characterize the new material and to show its adsorption potential, comprehensive adsorption studies with different adsorptives such as nitrogen, argon, carbon dioxide, methanol and methane at different temperatures were carried out. Unusual adsorption–desorption isotherms with one or two hysteresis loops are found – a remarkable feature of the new flexible MOF material.
Uptakes of 9.2 mmol g−1 (40.5 wt %) for CO2 at 273 K/0.1 MPa and 15.23 mmol g−1 (3.07 wt %) for H2 at 77 K/0.1 MPa are among the highest reported for metal–organic frameworks (MOFs) and are found for a novel, highly microporous copper‐based MOF (see picture; Cu turquoise, O red, N blue). Thermal analyses show a stability of the flexible framework up to 250 °C.
Metal–organic frameworks (MOFs) as highly porous materials have gained increasing interest because of their distinct adsorption properties.1–3 They exhibit a high potential for applications in gas separation and storage,4 as sensors5 as well as in heterogeneous catalysis.6 In the last few years, the H2 storage capacity of MOFs has been considerably increased. Mesoporous MOFs show high adsorption capacities for CH4, CO2, and H2 at high pressures.2, 3, 7–10 To increase the uptake of H2 and CO2 by physisorption at ambient pressure, adsorbents with small micropores as well as high specific surface areas and micropore volumes are required.11, 12 Such microporous materials seem to be more appropriate for gas‐mixture separation by physisorption than mesoporous materials. For gas separation in MOFs the interactions between the fluid adsorptive and “open metal sites” (coordinatively unsaturated binding sites) or the ligands are regarded as important.13 Industrial processes, such as natural‐gas purification or biogas upgrading, can be improved with those materials during a vapor‐pressure swing adsorption cycle (VPSA cycle) or a temperature swing adsorption cycle (TSA cycle).14 The microporous MOF series CPO‐27‐M (M=Mg, Co, Ni, Zn), for example, shows very high CO2 uptakes at low pressures (<0.1 MPa).15, 16 Concerning H2 adsorption, the microporous MOF PCN‐12 offers with 3.05 wt % the highest uptake at ambient pressure and 77 K reported to date.17
Herein, we present a novel microporous copper‐based MOF equation image[Cu(Me‐4py‐trz‐ia)] (1; Me‐4py‐trz‐ia2−=5‐(3‐methyl‐5‐(pyridin‐4‐yl)‐4H‐1,2,4‐triazol‐4‐yl)isophthalate) with extraordinarily high CO2 and H2 uptakes at ambient pressure, the H2 uptake being similar to that in PCN‐12. The ligand Me‐4py‐trz‐ia2−, which can be obtained from cheap starting materials by a three‐step synthesis in good yield, combines carboxylate, triazole, and pyridine functions and is adopted from a recently presented series of linkers,18 for which up to now only a few coordination polymers are known.
The present study describes medium-chain-length polyhydroxyalkanoates (mcl-PHAs) production by the Pseudomonas Gl01 strain isolated from mixed microbial communities utilized for PHAs synthesis. A two-step fedbatch fermentation was conducted with glucose and waste rapeseed oil as the main carbon source for obtaining cell growth and mcl-PHAs accumulation, respectively. The results show that the Pseudomonas Gl01 strain is capable of growing and accumulating mcl-PHAs using a waste oily carbon source. The biomass value reached 3.0 g/l of CDW with 20% of PHAs content within 48 h of cultivation. The polymer was purified from lyophilized cells and analyzed by gas chromatography (GC). The results revealed that the monomeric composition of the obtained polyesters depended on the available substrate. When glucose was used in the growth phase, 3-hydroxyundecanoate and 3- hydroxydodecanoate were found in the polymer composition, whereas in the PHAs-accumulating stage, the Pseudomonas Gl01 strain synthesized mcl-PHAs consisting mainly of 3- hydroxyoctanoate and 3-hydroxydecanoate. The transcriptional analysis using reverse-transcription real-time PCR reaction revealed that the phaC1 gene could be transcribed simultaneously to the phaZ gene.
An analytical and numerical study of the wobbling dynamics of friction disks is presented. Of particular interest is the excitation mechanism taking into account two contrarian effects both originating in dry friction: the circulatory terms describing the energy input due to the sliding contacts and the friction induced damping which stabilizes the system. Balance of these terms determines the instability domain in the parameter space. It is shown that there is a slip threshold so that, if the slip is under this limit, the system remains stable. If the slip is larger than this limit, then the criterion of stability is determined by the relation between the friction coefficient and the internal damping. The limit cycle appearing in the unstable domain is also investigated. It is shown that the limit cycle can be described as a kind of a regular reverse precession of the wobbling disc. Its amplitude is limited by the geometric nonlinearity and partial contact loss. Analytic results are compared with numeric simulations.
This work provides a series of methane adsorption isotherms and breakthrough curves on one 5A zeolite and one activated carbon. Breakthrough curves of CH4 were obtained from dynamic column measurements at different temperature and pressure conditions for concentrations of 4.4 – 17.3 mol.‐% in H2/CH4 mixtures. A simple model was developed to simulate the curves using measured and calculated data inputs. The results show that the model predictions agree very well with the experiments.
Regarding the importance of adsorptive removal of carbon monoxide from hydrogen-rich mixtures for novel applications (e.g. fuel cells), this work provides a series of experimental data on adsorption isotherms and breakthrough curves of carbon monoxide. Three recently developed 5A zeolites and one commercial activated carbon were used as adsorbents. Isotherms were measured gravimetrically at temperatures of 278–313 K and pressures up to 0.85 MPa. Breakthrough curves of CO were obtained from dynamic column measurements at temperatures of 298–301 K, pressures ranging from 0.1 MPa to ca. 6 MPa and concentrations of CO in H2/CO mixtures of 5–17.5 mol%. A simple mathematical model was developed to simulate breakthrough curves on adsorbent beds using measured and calculated data as inputs. The number of parameters and the use of correlations to evaluate them were restricted in order to focus the importance of measured values. For the given assumptions and simplifications, the results show that the model predictions agree satisfactorily with the experimental data at the different operating conditions applied.
The separation of nitrogen and methane from hydrogen-rich mixtures is systematically investigated on a recently developed binder-free zeolite 5A. For this adsorbent, the present work provides a series of experimental data on adsorption isotherms and breakthrough curves of nitrogen and methane, as well as their mixtures in hydrogen. Isotherms were measured at temperatures of 283–313 K and pressures of up to 1.0 MPa. Breakthrough curves of CH4, N2, and CH4/N2 in H2 were obtained at temperatures of 300–305 K and pressures ranging from 0.1 to 6.05 MPa with different feed concentrations. An LDF-based model was developed to predict breakthrough curves using measured and calculated data as inputs. The number of parameters and the use of correlations were restricted to focus on the importance of measured values. For the given assumptions, the results show that the model predictions agree satisfactorily with the experiments under the different operating conditions applied.
Cost effectiveness of preventive screening programmes for type 2 diabetes mellitus in Germany
(2010)
As in several other industrialized countries, Germany’s statutory health insurance (SHI) is facing rising healthcare costs as well as the challenges caused by a double-aging society. The early detection and prevention of chronic diseases is considered a possible way to reduce the impact of these developments. However, controversy surrounds the costs and effects in terms of medical and financial outcomes of such programmes.
Das Ingenieurbüro Evomotiv GmbH und die University of Applied Sciences Offenburg entwickeln seit Ende 2008 ein Antriebskonzept für leichte Stadtfahrzeuge. Ziel des Elektroantriebs ist die Serientauglichkeit der hochintegrierten, getriebelosen und eisenfreien Radnabenmotoren. Das Bundesministerium für Wirtschaft und Technologie (BMWi) unterstützt das Projekt. Das Konzept des Radnabenmotors erhielt 2006 den Bosch—Innovationspreis und gewann 2008 den Shell-Eco-Marathon. Im Jahr 2011 wird Evomotiv mit seinen Partnern erste Prototypen auf der Straße testen.
The engineering company Evomotiv GmbH and the University of Applied Sciences Offenburg have developed a drive concept for light city scooters since 2008. The electrical drive train's goal is the series production of the highly-integrated, non-transmission and non-ferrous wheel-hub motor. The German Federal Ministry of Economy and Technology (BMWi) supports this project. The concept of this wheel-hub motor was awarded with the Bosch-Innovation prize in 2006. In 2011 Evomotiv will test the first prototypes with its cooperation partners on the track.
We present a novel fabrication route yielding Raney-platinum film electrodes intended as glucose oxidation anodes for potentially implantable fuel cells. Fabrication roots on thermal alloying of an extractable metal with bulk platinum at 200 °C for 48 h. In contrast to earlier works using carcinogenic nickel, we employ zinc as potentially biocompatible alloying partner. Microstructure analysis indicates that after removal of extractable zinc the porous Raney-platinum film (roughness factor ∼2700) consists predominantly of the Pt3Zn phase. Release of zinc during electrode operation can be expected to have no significant effect on physiological normal levels in blood and serum, which promises good biocompatibility. In contrast to previous anodes based on hydrogel-bound catalyst particles the novel anodes exhibit excellent resistance against hydrolytic and oxidative attack. Furthermore, they exhibit significantly lower polarization with up to approximately 100 mV more negative electrode potentials in the current density range relevant for fuel cell operation. The anodes’ amenability to surface modification with protective polymers is demonstrated by the exemplary application of an approximately 300 nm thin Nafion coating. This had only a marginal effect on the anode long-term stability and amino acid tolerance. While in physiological glucose solution after approximately 100 h of operation gradually increasing performance degradation occurs, rapid electrode polarization within 24 h is observed in artificial tissue fluid. Optimization approaches may include catalyst enhancement by adatom surface modification and the application of specifically designed protective polymers with controlled charge and mesh size.
We report the fabrication and characterization of glucose-tolerant Raney-platinum cathodes for oxygen reduction in potentially implantable glucose fuel. Fabricated by extraction of aluminum from 1 μm thin platinum–aluminum bi-layers annealed at 300 °C, the novel cathodes show excellent resistance against hydrolytic and oxidative attack. This renders them superior over previous cathodes fabricated from hydrogel-bound catalyst particles. Annealing times of 60, 120, and 240 min result in approximately 400–550 nm thin porous films (roughness factors ∼100–150), which contain platinum and aluminum in a ratio of ∼9:1. Aluminum release during electrode operation can be expected to have no significant effect on physiological normal levels, which promises good biocompatibility. Annealing time has a distinct influence on the density of trenches formed in the cathode. Higher trench densities lead to lower electrode potentials in the presence of glucose. This suggests that glucose sensitivity is governed by mixed potential formation resulting from oxygen depletion within the trenches. During performance characterization the diffusion resistance to be expected from tissue capsule formation upon electrode implantation was taken into account by placing a membrane in front of the cathode. Despite the resulting limited oxygen supply, cathodes prepared by annealing for 60 min show more positive electrode potentials than previous cathodes fabricated from hydrogel-bound activated carbon. Compared to operation in phosphate buffered saline containing 3.0 mM glucose, a potential loss of approximately 120 mV occurs in artificial tissue fluid. This can be reduced to approximately 90 mV with a protective Nafion layer that is easily electro-coated onto the Raney-platinum film.
Thin-layer chromatography is a rapid and reliable working method for quantification of mycotoxins which is suitable for checking EC legislation aflatoxin limits for dried figs without an RP-18 pre-column cleaning step. We describe normal-phase chromatography on silica gel plates with 2.4:0.05:0.1:0.05 ( v/v ) methyl t -butyl ether-water-methanol-cyclohexane as mobile phase and reversed-phase chromatography on RP-18 plates with methanol-4% aqueous ZnSO 4 solution-ethyl methyl ketone 15:15:3 ( v/v ) as mobile phase. Sample pretreatment was by modified QuEChERS (Quick, Easy, Cheap, Effective, Rugged, Safe) extraction with tetrahydrofuran or acetone. NaCl was used as QuEChERS salt. Response was a linear function of amount chromatographed in the ranges 3 to 100 pg per zone for aflatoxins B 2 and G 2 , 10 to 350 pg per zone for the aflatoxins B 1 and G 1 , and 0.25 to 2.5 ng per zone for ochratoxin A. Quantification limits for the aflatoxins were between 13 and 35 pg per zone (equivalent to 1.5 and 2.4 ppb, taking the pre-treatment procedure into account). Ochratoxin A was detectable with a limit of quantification of 970 pg per zone, corresponding to 56 ppb in the sample. Normal phase and RP-18 separations work rapidly, reliably, and at low cost. They are also suitable for checking the content of the mycotoxins patulin, penicillic acid, zearalenone, and deoxynivalenol.
Hydrogen chloride and sulphur dioxide are gaseous by-products of chloridization processes that employ thionyl chloride. Absorption would be a feasible method to clean the rich gas stream. Two serial connectable absorption columns were equipped with the latest generation of packings to effect product recovery. Therefore, several tests concerning the baffle properties had to be performed. In the first experimental section, the hydraulic parameters pressure drop and hold-up were investigated. The hold up value range of the new baffles Raschig Super Ring (RSR) and Raschig Super Pak (RSP) was clearly below that of the former installed packing, Raschig Ring (RR). However, due to the low maximal flow rate, the range of stagnation and flooding could not be measured. The maximal measured pressure drop value was, for RR, only 0.3 mbar/m, which is very low compared to the measurement error. Batch experiments, where the waste gases were produced by reaction of thionyl chloride in water, showed that for the steady state determination of the separation steps it is advisable to use just one column in simplex mode with a defined gas supply by a gas cylinder. The HTU determination for RSR and a HCl/H2O system delivered a value of HTUHCl,OG = 0.14 ± 0.01 m with a variation coefficient of 24.2%.
There are some existing Java benchmarks, application benchmarks as well as micro benchmarks or mixture both of them,such as: Java Grande, Spec98, CaffeMark, HBech, etc. But none of them deal with behaviors of multi tasks operating systems. As a result, the achieved outputs are not satisfied for performance evaluation engineers. Behaviors of multi tasks operating systems are based on a schedule management which is employed in these systems. Different processes can have different priority to share the same resources. The time is measured by estimating from applications started to it is finished does not reflect the real time value which the system need for running those programs. New approach to this problem should be done. Having said that, in this paper we present a new Java benchmark, named FHOJ benchmark, which directly deals with multi tasks behaviors of a system. Our study shows that in some cases, results from FHOJ benchmark are far more reliable in comparison with some existing Java benchmarks.
A diode array HPTLC method for dequalinium chloride in pharmaceutical preparations is presented. For separation a Nano TLC silica gel plate (Merck) is used with the mobile phase methanol-7.8% aqueous NH(4)(+)CH(3)COO(-) (17:3, v/v) over a distance of 6 cm. Dequalinium chloride shows an R(F) value of 0.58. Pure dequalinium chloride is measured in the wavelength range from 200 to 500 nm and shows several by-products, contour plot visualized in absorption, fluorescence and using the Kubelka-Munk transformation. Scanning of a single track in absorption and fluorescence measuring 600 spectra in the range from 200 to 1100 nm takes 30s. As a sample pre-treatment of an ointment it is simply dissolved in methanol and can be quantified in absorption from 315 to 340 nm. The same separation can also be quantified using fluorescence spectrometry in the range from 355 to 370 nm. A new staining method for dequalinium chloride, using sodium tetraphenyl borate/HCl in water allows a fluorescence quantification in the range from 445 to 485 nm. The linearity range of absorption and fluorescence measurements is from 10 to 2000 ng. Sugar-containing preparations like liquids or lozenges with a reduced sample pre-treatment can be reliably quantified only in fluorescence. The total for the quantification of an ointment sample (measuring four standards and five samples), including all sample pre-treatment steps takes less than 45 min!
We report improved separation of the highly toxic contact herbicides paraquat, diquat, difenzoquat, mepiquat, and chloromequat by HPTLC. Quantification was based on a new derivatization reaction using sodium tetraphenylborate. Measurements were in the wavelength range from 440 to 480 nm or from 440 to 590 nm. An LED emitting very intense light at 365 nm was used for excitation. The quantification limits of paraquat and diquat in water, using improved solid-phase extraction, was in the low ng L −1 range. The linear range covered more than two orders of magnitude. Recovery was investigated for all the compounds, and was insufficient, ranging from 11 to 92%, but the method is inexpensive, rapid, and works reliably.
Flows in nature and technology are often associated with specific structures and pattern. This paper deals with the development and behaviour of such flow pattern. Flow structures are important for the mass, momentum and energy transport. The behaviour of different flow pattern is used by engineers to obtain an efficient mass and energy consumption. Mechanical power is transmitted via the momentum of rotating machine parts. Therefore the physical and mathematical knowledge of these basic concepts is important. Theoretical and experimental investigations of principle experiments are described in the following. We start with the classical problem of the flow between two concentric cylinders where the inner cylinder rotates. Periodic instabilities occur which are called Taylor vortices. The analogy between the cylindrical gap flow, the heat transfer in a horizontal fluid layer exposed to the gravity field and the boundary layer flow along concave boundaries concerning their stability behaviour is addressed. The vortex breakdown phenomenon in a cylinder with rotating cover is also described. A generalization to spherical sectors leads then to investigations with different boundary conditions. The spherical gap flow exhibits interesting phenomena concerning the nonlinear character of the Navier-Stokes equations. Multiple solutions in the nonlinear regime give rise to different routes during the laminar-turbulent transition. The interaction of two rotating spheres results in flow structures with separation and stagnation lines. Experimental results are confirmed by numerical simulations.
The efficiency of a chromatographic analytical method is determined by the selectivity of the chromatographic separation and the specificity of the detection method. In high-performance thin-layer chromatography (HPTLC) the separated components can be detected and quantified directly on the plate by physical and chemical methods. By coupling high-performance thin-layer chromatography with biological or biochemical inhibition tests it is possible to detect toxic substances in situ.
A theoretical description is given for the propagation of surface acoustic wave pulses in anisotropic elastic media subject to the influence of nonlinearity. On the basis of nonlinear elasticity theory, an evolution equation is presented for the surface slope or the longitudinal surface velocity associated with an acoustic pulse. It contains a non-local nonlinearity, characterized by a kernel that strongly varies from one propagation geometry to another due to the anisotropy of the substrate. It governs pulse shape evolution in homogeneous halfspaces and the shapes of solitary surface pulses that exist in coated substrates. The theory describing nonlinear Rayleigh-type surface acoustic waves is extended in a straightforward way to surface waves that are localized at a one-dimensional acoustic waveguide like elastic wedges.
We present an improved quantification method for urethane found in spirits. The quantification is based on a derivatization reaction using cinnamaldehyde in combination with phosphoric acid. Measurements were carried out in the wavelength range from 445 to 460 nm using a diode-TLC device. An LED was used for illumination purposes. It emits very dense light at 365 nm. The quantification range of urethane is in the lower ng range. By applying 20 µL of sprits, the urethane quantification range is from 320 µg/L to 8.1 mg urethane per litre of spirit. The range of linearity covers nearly two magnitudes. The method is cheap, fast and reliable, and is able to monitor all European legislation limits without time-consuming sample pre-treatments.
HPTLC on amino plates, with simple heating of the plates for derivatization, has been used for quantification of glucosamine in nutritional supplements. On heating the plate glucosamine reacts to form a compound which strongly absorbs light between 305 and 330 nm, with weak fluorescence. The reaction product can be detected sensitively either by absorption of light or by fluorescence detection. The detection limit in absorption mode is approximately 25 ng per spot. In fluorescence mode a detection limit of 15 ng is achievable. A calibration plot for absorption detection is linear in the range 25 to 4000 ng glucosamine. The derivative formed from glucosamine by heating is stable for months, and the relative standard deviation is 1.64% for 600 ng glucosamine. The amounts of glucosamine found in nutritional supplements were in agreement with the label declarations.
Die dynamische Steifigkeit von Werkzeugmaschinenbetten kann durch Daempfung gesteigert werden. Die spezifische Daempfung ( Werkstoffdaempfung = innere Daempfung) wird anhand der Hysteresisschleife definiert. Der spezifische Daempfungswert von C 45 ist nur 0,20 des Wertes von GGL 20. Aeussere Daempfung kann durch Reibstellen erzielt werden; z.B. Fuellen der Hohlraeume eines Bettes mit Kernsand; Reibstellen zwischen den verschweissten Rippen mit Vorder- und Rueckwand. Es wird eine Methode beschrieben, nach der das Schwingungsverhalten ueberprueft werden kann. Das Ergebnis dieser Messung wird in Diagrammform fuer eine ausgefuehrte Maschine dargestellt. Schwingungsuntersuchungen sind auch an einem Modell aus Schaumstoffgummi durchfuehrbar. (Poesl, 10.12.72)
The identification and quantification of compounds in the gas phase becomes of increasing interest in the context of environmental protection, as well as in the analytical field. In this respect, the high extinction coefficients of vapours and gases in the ultraviolet wavelength region allow a very sensitive measurement system. In addition, the increased performance of the components necessary for setting up a measurement system, such as fibres, light sources and detectors has been improved. In particular the light sources and detectors offer improved stability, and the deep UV performance and solarisation resistance of fused silica fibres allow have been significantly optimized in the past years. Therefore a compact and reliable detection system with high measuring accuracy is developed. Within this paper possible applications of the system under development and recent results will be discussed.
Aufgrund der rasant fortschreitenden technischen Entwicklung und der damit einhergehenden Digitalisierung, werden immer mehr Daten, durch Geräte aller Art, aus den verschiedensten Quellen, zur Verarbeitung und Speicherung erhoben. Sei es durch die Vielzahl an verfügbaren Smart-Devices, Onlinediensten usw., der Fantasie sind hierbei keine Grenzen gesetzt. Um bei dieser Menge an Daten das Recht auf informationelle Selbstbestimmung des Verbrauchers innerhalb der EU, zu schützen sowie den Datenschutz in allen EU-Mitgliedsstaaten zu harmonisieren und zudem eine Anpassung des Datenschutzes an die technische Weiterentwicklungen des Internets sowie die fortschreitende wirtschaftliche Globalisierung vorzunehmen, wurde von der Europäischen Union der Datenschutz reformiert.
Mit dem Inkrafttreten der Datenschutz-Grundverordnung, wurden Unternehmen in die Pflichtgenommen ihre Datenerhebungen und Datenflüsse, generell die Prozesse welche im Unternehmen implementiert sind, auf personenbezogene Daten zu analysieren. Denn neue Betroffenenerechte sowie Informations-, Rechenschafts- und Meldepflichten müssen gewährleistet werden, andernfalls können Verstößen gegen die Verordnung zu massiven Bußgeldern führen.1 Diese risikobasierte Betrachtung wird von der DSGVO gefordert. Ziel des in dieser Arbeit durchgeführten Privacy Risk Assessment ist es, die Risiken von Datenverarbeitungspraktiken für die Rechte und Freiheiten der Betroffenen, möglichst umfassend zu erfassen und diese objektiv und nachvollziehbar zu bewerten, sodass typischen Angriffen durch Organisationen und Externe mit entsprechenden Gegenmaßnahmen begegnet werden kann.
Im Laufe dieser Arbeit wird ein Privacy Risk Assessment für die zwei Bereiche, Vertrieb und Personalwesen, durchgeführt. Die drei Prozesse werden in Bezug auf personenbezogene Datenanalysiert, mögliche Datenschutzrisiken herausgestellt und der Umgang mit den Risiken, mittels Maßnahmen und Kontrollen beschrieben. Notwendige Schritte werden vorgestellt und erläutert.
In dieser Arbeit soll untersucht werden, wie lernförderlich eine Digital Storytelling Website im Unterrichtskontext für Schülerinnen und Schüler sein kann.
Hierfür wird das Thema Bioenergiedorf verwendet, wobei die Funktionsweise anhand des real existierenden Bioenergiedorfs Untermaßholderbach mittels der zu erstellenden Digital Storytelling Website anschaulich erklärt werden soll.
Ziel der hierzu zugehörigen Ausführungen ist es, die Konzeption sowie die Umsetzung dieser Thematik innerhalb einer Digital Storytelling Website, unter Berücksichtigung entsprechender Anforderungen und Aspekte für den Unterrichtskontext, nachvollziehbar darzulegen. Hierbei sollen besonders die Gedanken zu den verschiedenen mediendidaktischen und kognitionspsychologischen Modellen hervorgehoben werden, welche der entwickelten Website zugrunde liegen.
This paper presents a multicarrier code-division multiple-access (CDMA) system architecture that is based on complete complementary orthogonal spreading codes. The architecture has several advantages as compared to conventional CDMA systems. Specifically, it offers multiple-access interference-free operation in additive white Gaussian noise channels, reduces cochannel interference significantly, and has the potential of higher capacity and spectral efficiency than conventional CDMA systems. This is accomplished by using an ldquooffset stackedrdquo spreading modulation technique. To maintain good performance in the presence of fading, the offset stacked modulator is followed by a quadrature-amplitude modulation map, which is designed to optimize performance in a fading environment. This new modulation scheme also simplifies the rate-matching algorithms that are relevant for multimedia services and Internet Protocol-based applications.
Soot particles emitted from a light duty (LD) Volkswagen diesel engine running at different operating points (speed and torque levels) are analyzed for mean size determination using a laser‐based three Wavelength Extinction Method (3‐WEM). For this reason, collected soot samples are suspended using an appropriate sample preparation technique with optimized conditions of sonication as it revealed its effect on the soot mean particle size measured by 3‐WEM.
An online Scanning Mobility Particle Analyzer (SMPS) is also used to measure soot emission at identical engine operating points. Size values obtained from SMPS are lower than those of suspended soot samples obtained from 3‐WEM. The size discrepancies are mainly related to the required sample preparation procedure employed for 3‐WEM measurements. The engine operating points affect, differently, the size measurements obtained from SMPS and 3‐WEM.
Sedimentation Field‐Flow Fractionation (SdFFF) is used for density determination of soot samples based on size measurements of fractions collected at peak maxima of fractograms using the off‐line hyphenation with 3‐WEM. It is assumed that a size dependent separation of soot particles occurred with a uniform particle density over the whole size distribution. An average density value is used for the conversion of soot fractograms to size distributions. Discrepancies are also found with size distribution profiles obtained from SMPS for the same engine operating points, due to the sample preparation procedure employed for SdFFF measurements.
The identification and quantification of compounds in the gas phase becomes of increasing interest in the context of environmental protection, as well as in the analytical field. In this respect, the high extinction coefficients of vapours and gases in the ultraviolet wavelength region allow a very sensitive measurement system. In addition, the increased performance of the components necessary for setting up a measurement system, such as fibres, light sources and detectors has been improved. In particular the light sources and detectors offer improved stability, and the deep UV performance and solarisation resistance of fused silica fibres allow have been significantly optimized in the past years. Therefore a compact and reliable detection system with high measuring accuracy is developed. Within this paper possible applications of the system under development and recent results will be discussed.
Design of next-generation cdma using orthogonal complementary codes and offset stacked spreading
(2007)
This article presents an innovative code-division multiple access system architecture that is based on orthogonal complementary spreading codes and time-frequency domain spreading. The architecture has several advantages compared to conventional CDMA systems. Specifically, it offers multiple-access-interference-free operation in AWGN channels, reduces co-channel interference significantly, and has the potential for higher capacity and spectral efficiency than conventional CDMA systems. This is accomplished by using an "offset stacked" spreading modulation technique followed by quadrature amplitude modulation, which optimizes performance in a fading environment. This new spreading modulation scheme also simplifies the rate matching algorithms relevant for multimedia services and IP-based applications.
The Division Industrial Chemistry of the Swiss Chemical Society organizes periodically a two-day event for the post-graduate education of its members. This event is known as the Freiburger Symposium. This year it focussed on sustainable chemical production. The twelve talks covered the following aspects: ethical needs for sustainability standards, the required, attained, and yet to be attained sustainability goals in chemical industry. Diverse case studies showed the highly developed awareness about the sustainability issue within the chemical community.
Lattice vibrations and electronic transitions in the rare-earth metals: Praseodymium under pressure
(2004)
Praseodymium was investigated by Raman spectroscopy under pressure. A negative pressure shift of the E2g mode is observed in the dhcp phase, which indicates that the initial structural sequence hcp→Sm−type→dhcp→fcc as a whole in the regular lanthanides is associated with a softening of this mode. The pressure response of the phonon modes, observed in the monoclinic and α-uranium phases, where 4f bonding becomes important, is characteristic for anisotropic bonding properties.
Experimental and theoretical investigations of the time of equalization of the concentration of an impurity in a rectangular flow‐type chamber have been carried out. It has been shown that the process of equalization of the concentration with time is exponential in character. The characteristic equalization time has been computed using the theory of turbulent diffusion. Theoretical results describe experimental regularities with an accuracy of about 10%. The value of the coefficient of turbulent diffusion for different configurations of flows in the chamber has been obtained from a comparison of experimental and calculated results.
The structure of the separation bubble that appears in the secondary meridional flow between two coaxially rotating spheres at low and finite Reynolds number (Re) is considered. The low Re analytical study was motivated by recognizing some errors in the analytical work on this problem by Arunachalam and Majhi (1987, Q. Jl Mech. Appl. Math., 40, 47) whilst the finite Re experimental study was motivated by the desire to observe the separation bubble in the laboratory. Though the finite Re experiments were performed in a confined apparatus, they exhibit the qualitative features of the low Re theoretical predictions for the axisymmetric separation bubble that encloses two toroidal vortices symmetrically disposed above and below the mid‐plane of sphere separation, but strong effects of confinement are apparent. The flows observed include (i) a wall‐attached bubble symmetric about the mid‐plane at low Re, (ii) symmetric free‐standing bubbles at moderate Re, and (iii) an asymmetric bubble with flow separating from one sphere and attaching to the support shaft between the spheres at sufficiently high Re.
The free convection in a vertical gap is generalized to realize new analytical solutions of the Boussinesq-equations. The steady and time-dependent solutions for the temperature and velocity distribution are discussed in detail depending on the mass flux in vertical direction. The range of existence for flows with and without back flow is obtained. The transient behaviour of the solutions during the time-dependent development displays interesting physical behaviour.
The use of a TLC scanner can be regarded as a key step in high performance thin layer chromatography (HPTLC). Densitometric measurements transform the substance distribution on a TLC plate into digital computer data. Systems that allow quantitative measurements have been available for many years for either fluorescence or ultraviolet absorption measurements, while lately the reflection analysis mode for both types is the most common application. New scanning approaches are designed to aid the analyst who has common demands for TLC-densitometry without using special data, such as scanned images. Two examples that have been developed lately in the laboratories of the authors are described in this paper. These approaches were developed on the basis of current needs for analysts who employ TLC as a tool in research, as well as in routine analysis. One approach is aimed to support analysts in economically disadvantaged areas, where cost intensive apparatus is unsuitable but trace analysis by simple means is required. The other system, allows the spectral determination of chromatographic spots on TLC plates covering the ultraviolet and visible range, thus, revealing highly desired information for the analyst.
HPTLC (High Performance Thin Layer Chromatography) is a well known and versatile separation method which shows a lot of advantages and options in comparison to other separation techniques. The method is fast and inexpensive and does not need time-consuming pretreatments. Using fiber-optic elements for controlled light-guiding, the TLC-method was significantly improved: the new HPTLC-system is able to measure simultaneously at different wavelengths without destroying the plate surface or the analytes on the surface. For registration of the sample distribution on a HPTLC-plate we developed a new and sturdy diode-array HPTLC- scanner which allows registration of spectra on the TLC- plates in the range of 198 nm to 610 nm with a spectral resolution better than 1.2 nm. The spatial resolution on plate is better than 160 micrometers . In the spectral mode, the new HPTLC-scanner delivers much more information than the commonly used TLC-scanner. The measurement of 450 spectra of one separation track does not need more than three minutes. However, in the fixed wavelength mode the contour plot can be measured within 15 seconds. In this case, the signal will be summarized and averaged over a spectral range having FWHM from 10 nm to 25 nm depending on the substance under test. The new diode-array HPTLC-scanner makes various chemometric applications possible. The new method can be used easily in clinical diagnostic systems easily, e.g. for blood and uring investigations. In addition, new applications are possible. For example, the rich structured PAHs were studied. Although the separation is incomplete the 16 compounds can be quantified using suitable wavelengths.
The aim of this study was to develop a biomechanically validated finite element model to predict the biomechanical behaviour of the human lumbar spine in compression.
For validation of the finite element model, an in vitro study was performed: Twelve human lumbar cadaveric spinal segments (six segments L2/3 and six segments L4/5) were loaded in axial compression using 600 N in the intact state and following surgical treatment using two different internal stabilisation devices. Range of motion was measured and used to calculate stiffness.
A finite element model of a human spinal segment L3/4 was loaded with the same force in intact and surgically altered state, corresponding to the situation of biomechanical in vitro study.
The results of the cadaver biomechanical and finite element analysis were compared. As they were close together, the finite element model was used to predict: (1) load-sharing within human lumbar spine in compression, (2) load-sharing within osteoporotic human lumbar spine in compression and (3) the stabilising potential of the different spinal implants with respect to bone mineral density.
A finite element model as described here may be used to predict the biomechanical behaviour of the spine. Moreover, the influence of different spinal stabilisation systems may be predicted.
Ozon-Querempfindlichkeit bei der Immissionsmessung von schwebstaubakkumuliertem Benzo[a]pyren
(2002)
Für die Beschreibung der Belastung der Luft mit polycyclischen aromatischen Kohlenwasserstoffen (PAK) wird vorwiegend die Konzentration eines Vertreters, das auf Schwebstaub akkumulierte Benzo[a]pyren (BaP), analysiert. Hierbei stellt Benzo[a]pyren die Leit komponen te für die Stoffklasse der PAK dar. Auf europäischer Ebene ist vorgesehen, für diesen Luftinhaltsstoff einen Grenzwert als Jahresmittelwert festzulegen. Deshalb wird bei bei der Normungsbehörde CEN zurzeit eine Europäische Norm für diesen Stoff erarbeitet. Aus der Literatur ist bekannt, dass für Benzo[a]pyren eine Querempfindlichkeit gegen Ozon und NO2 besteht. Im Zuge der Neuentwicklung eines Probenahmekopfs (PNK) für PAK-Immissionsmessungen, der durch den Einsatz eines Ozon- Scrubbers eine ozonfreie Immissionsmessung der Benzo[a]pyren-Konzentration ermög licht, wurde in dieser Arbeit die prinzipielle Einsetzbarkeit dieses Probe nahmekopfs geprüft. Zu diesem Zweck wurden Voruntersuchungen und Feldversuche durchgeführt, mit dem Ziel, Kenntnisse über die Ozon-Querempfindlichkeit zu erhalten. Um die Ozon-Querempfindlichkeit bei der Benzo[a]pyren-Bestimmung zu studieren, wurde Ozon in den Ansaugbereich der Probenahme dosiert. Als Ergebnis der Untersuchungen kann festgehalten werden, dass für die Benzo[a]pyren-Immissionsmessung eine deutliche Ozon-Querempfindlichkeit besteht, die unter Einsatz des neuen Ozon- Scrubbers vermieden werden kann.
A systematic toxicological analysis procedure using high-performance thin layer chromatography in combination with fibre optical scanning densitometry for identification of drugs in biological samples is presented. Two examples illustrate the practicability of the technique. First, the identification of a multiple intake of analgesics: codeine, propyphenazone, tramadol, flupirtine and lidocaine, and second, the detection of the sedative diphenhydramine. In both cases, authentic urine specimens were used. The identifications were carried out by an automatic measurement and computer-based comparison of in situ UV spectra with data from a compiled library of reference spectra using the cross-correlation function. The technique allowed a parallel recording of chromatograms and in situ UV spectra in the range of 197–612 nm. Unlike the conventional densitometry, a dependency of UV spectra by concentration of substance in a range of 250–1000 ng/spot was not observed.
The importance of obtaining simultaneous particle size and concentration values has grown up with continuing discussion of the health effects, of internal combustion engine generated particulate emissions and in particular of Diesel soot emissions. In the present work an aerosol measurement system is described that delivers information about particle size and concentration directly from the undiluted exhaust gas.
Using three laser diodes of different wavelengths which form one parallel light beam, each spectral attenuation is analysed by a single detector and the particle diameter and concentration is evaluated by the use of the Mie theory and shown on-line at a frequency of 1 Hz. The system includes an optical long-path-cell (White principle) with an adjustable path length from 2.5 to 15 m, which allows the analysis within a broad concentration range.
On-line measurements of the particulate emissions in the hot, undiluted exhaust of Diesel engines are presented under stationary and transient engine’s load conditions. Mean particle diameters well below 100 nm are detected for modern Diesel engines. The measured particle concentration corresponds excellently with the traditional gravimetrical measurements of the diluted exhaust. Additionally, measurements of particle emissions (mostly condensed hydricarbons) from a two-stroke engine are presented and discussed.
In-situ densitometry for qualitative or quantitative purposes is a key step in thin-layer chromatography (TLC). It is a simple means of quantification by measurement of the optical density of the separated spots directly on the plate. A new scanner has been developed which is capable of measuring TLC or HPTLC (high-performance thin-layer chromatography) plates simultaneously at different wavelengths without damaging the plate surface. Fiber optics and special fiber interfaces are used in combination with a diode-array detector. With this new scanner sophisticated plate evaluation is now possible, which enables use of chemometric methods in HPTLC. Different regression models have been introduced which enable appropriate evaluation of all analytical questions. Fluorescent measurements are possible without filters or special lamps and signal-to-noise ratios can be improved by wavelength bundling. Because of the richly structured spectra obtained from PAH, diode-array HPTLC enables quantification of all 16 EPA PAH on one track. Although the separation is incomplete all 16 compounds can be quantified by use of suitable wavelengths. All these aspects are enable substantial improvement of in-situ quantitative densitometric analysis.
HPTLC (High Performance Thin Layer Chromatography) is a well known and versatile separation method which shows many advantages when compared to other separation techniques. The method is fast and inexpensive and does not need time-consuming pretreatments. For visualisation of the sample distribution on a HPTLC-plate we developed a new and sturdy HPTLC-scanner. The scanner allows simultaneous registrations of spectra in a range from 198 nm to 612 nm with a spectral resolution of better than 0.8 nm. The on-plate spatial resolution is better than 160 μm. The measurement of 450 spectra in one separation track does not need more than two minutes. The new diode-array scanner offers a fast survey over a TLC-separation and makes various chemometric applications possible. For compound identification a cross-correlation function is described to compare UV sample spectra with appropriate library data. The cross-correlation function herein described can also be used for purity testing. Unresolved peaks can be virtually separated by use of a least squares fit algorithm. In summary, the diode arry system delivers much more information than the commonly used TLC-scanner.
A prototype multiwavelength sensor able to characterise soot emissions in Diesel exhaust in terms of size and concentration has been tested against other methods for diesel particle measurements like electrical mobility sizing (SMPS) and raw exhaust gravimetric sampling (RES). Measurements carried out with the prototype sensor were correlated with the SMPS by assuming spherical and/or fractal aggregate morphology of the particles. Correlation of RES gravimetric data against the sensor and the SMPS led to the calculation of the solid density for soot particles to be 2.3 gr/cm3.
The flow field-flow fractionation (FIFFF) technique is a promising method for separating and analysing particles and large size macromolecules from a few nanometers to approximately 50 μm. A new fractionation channel is described featuring well defined flow conditions even for low channel heights with convenient assembling and operations features. The application of the new flow field-flow fractionation channel is proved by the analysis of pigments and other small particles of technical interest in the submicrometer range. The experimental results including multimodal size distributions are presented and discussed.
Rotating flow systems are often used to study stability phenomena and structure developments. The closed spherical gap problem is generalized into an open flow system by superimposing a mass flux in meridional direction. The basic solutions at low Reynolds numbers are described by analytical methods. The nonlinear supercritical solutions are simulated numerically and realized in experiments. Novel steady and time-dependent modes of flows are obtained. The extensive results concern the stability behaviour, non-uniqueness of supercritical solutions, symmetry behaviour and transitions between steady and time-dependent solutions. The experimental investigations concern the visualization of the various instabilities and the quatitative description of the flow structures including the laminar-turbulent transition. A comparison between theoretical and experimental results shows good agreement within the limit of rotational symmetric solutions from the theory.
We generalize the fluid flow problem of an oscillating flat plate (II. Stokes problem) in two directions. We discuss first the oscillating porous flat plate with superimposed blowing or suction. The second generalization is concerned with an increasing or decreasing velocity amplitude of the oscillating flat plate. Finally we show that a combination of both effects is possible as well.
An algorithm is presented that has successfully been utilized in practice for several years. It improves data analysis in chromatography. The program runs in an extremely reliable way and evaluates chromatographic raw data with an acceptable error. The algorithm requires a minimum of preliminaries and integrates even unsmoothed noisy data correctly.
Formal verification (FV) is considered by many to be complicated and to require considerable mathematical knowledge for successful application. We have developed a methodology in which we have added formal verification to the verification process without requiring any knowledge of formal verification languages. We use only finite-state machine notation, which is familiar and intuitive to designers. Another problem associated with formal verification is state-space explosion. If that occurs, no result is returned; our method switches to random simulation after one hour without results, and no effort is lost. We have compared FV against random simulation with respect to development time, and our results indicate that FV is at least as fast as random simulation. FV is superior in terms of verification quality, however, because it is exhaustive.
This paper treats the interaction between acoustic modes and light (Brillouin scattering) in a single mode optical fibre. Different observed spectra of the Brillouin backscattering in several fibres have been already reported. In order to have a clear idea of the process, we made a simulation to be able to `draw' the theoretical Brillouin spectrum of an optical fibre and to identify the origin of the observed backscattered lines.
First, the model and the computation method used in our simulation are described. Second, the experimentally observed spectra of two real fibres are compared with their computed spectra. Real spectra and simulated spectra are in good agreement.
Our work provides an interesting tool to investigate the changes in the Brillouin spectrum when the input parameters (characteristics of an optical fibre) vary. This should give useful indications to people working on systems which use Brillouin backscattering.
In this paper a high-performance thin-layer chromatography (HPTLC) scanner is presented in which a special fibre arrangement is used as HPTLC plate scanning interface. Measurements are taken with a set of 50 fibres at a distance of 400 to 500 μm above the HPTLC plate. Spatial resolutions on the HPTLC plate of better than 160 μm are possible. It takes less than 2 min to scan 450 spectra simultaneously in a range of 198 to 610 nm. The basic improvement of the item is the use of highly transparent glass fibres which provide excellent transmission at 200 nm and the use of a special fibre arrangement for plate illumination and detection.
Der Beitrag beschreibt wichtige Eckdaten und Ergebnisse der Kraftschlußregelung, die in der Lokomotive 12X auf internationalen Strecken erprobt wurde, und mit der auch zukünftige Projekte ausgestattet werden. Diese werden nicht nur von weiteren technischen Verbesserungen profitieren, sondern auch von geringerem Aufwand für die Inbetriebsetzung.
Shapes and structures of vortex breakdown phenomena in rotating fluids are visualized. We investigate the flow in a cylindrical container and in a cone between two spherical surfaces. The primary swirling flow is induced by the rotating upper disk in the cylindrical case and by the lower boundary in the spherical case. The upper surface can be fixed with a no slip condition or can be a stress-free surface. Depending on these boundary conditions and on the Reynolds number novel structures of recirculation zones are realized. Experiments are done to visualize the topological structure of the flow and to determine their existence range as function of the geometry and rotation rate. A comparison between the experimental and theoretical approach shows a good agreement in respect to the topological structures of the flows.
Im Rahmen des Kontinentalen Tiefbohrprogramms der Bundesrepublik Deutschland (KTB) wurde im September 1987 in der Oberpfalz bei Windischeschenbach mit der Vorbohrung begonnen, die im Frühjahr des letzten Jahres bei einer Tiefe von 4000m erfolgreich abgeschlossen wurde. Mit der in diesem Jahr beginnenden Hauptbohrung will man 10 bis 12km tief in das Erdinnere vorstoßen. Nicht nur anhand von Gesteins- und Flüssigkeitsproben, sondern auch mit Hilfe von Meßsonden werden umfangreiche geophysikalische Daten gewonnen. Der Aufsatz beschreibt, wie die magnetische Suszeptibilität von Gesteinen bis ca. 300°C Umgebungstemperatur und einem Druck von 2kbar gemessen wird und die Daten über ein 14km langes Bohrlochkabel von der Sonde zum Steuerrechner übertragen werden.
Nach einer Darstellung des thermodynamischen Verhaltens von Thermoelementen und dem Vergleich mit realen Thermo-elementen der DIN-Reihe 43710 wird der prinzipielle Aufbau von Meßsystemen mit Thermoelementen und Meßverstärkern behandelt. Ein Verfahren zur Linearisierung der Ausgangskennlinie mit einem mehrstufigen Summenverstärker wird beschrieben. Der Einfluß des Linearisierungsverfahrens auf das Meßergebnis wird allgemein untersucht und anhand eines praxisnahen Beispiels für eine Fe-CuNi-Thermoelement quantitativ berechnet.
Anhand der formelmäßigen Beschreibung des Linearisierungsverfahrens wird der Einfluß der Vergleichsstellen-Temperatur auf das Meßergebnis quantitativ untersucht und an Beispielen erläutert. Daraus werden die Randbedingungen für die Vergleichsstellen-Temperatur hergeleitet und schaltungstechnische Realisierungen für die Kompensation der Temperaturdrift von Vergleichsstellen beschrieben.
Es wird eine Fallstudie vorgestellt, die die Visualisierung von Geschäftsdaten nach dem International Business Communication Standard IBCS (Hichert & Faisst 2016 / 2017) auf der cloudbasierten Plattform SAP Analytics Cloud umsetzt. Mit der Fallstudie soll die Frage beantwortet werden, ob IBCS im Rahmen einer Lehreinheit mit hohem praktischem Anteil mit SAP Analytics Cloud umgesetzt werden kann. Darüber hinaus soll der generelle Einsatz von SAP Analytics Cloud für die Lehre im Analytics-Umfeld evaluiert werden.
Auswahl von elektrischen Antriebskomponenten zur Elektrifizierung des Antriebes eines „Tuk-Tuks“
(2019)
Die vorliegende Abschlussarbeit handelt von einem Tuk-Tuk. Im Ausgangszustand ist dieses mit einem 1-Zylinder Ottomotor versehen.
Im Rahmen eines Hochschulprojektes wird dieser Motor durch einen Elektromotor ersetzt. Ziel dieser Thesis ist es, einen passenden Motor zu finden. Dabei soll eine Auslegung erarbeitet werden, die es ermöglicht, sämtliche Widerstandskräfte zu berechnen und daraus auf die notwendigen Antriebsleistungen bzw. Drehmomente zu schließen. Im Anschluss daran kann eine Aussage getroffen werden, ob der Elektromotor die gewünschten Anforderungen erfüllt.
Das Lokalisationssystem besteht aus einem Anwender-PC mit Bluetooth-Adapter, einem Lautsprecherkreis sowie einem Tablet. Eine Funktion im Programm Matlab auf dem Anwender-PC dient zur Eingabe der Steuerparameter, welche in einer Textdatei an eine Schnittstelle, die ebenfalls auf dem Anwender-PC installiert ist, übergeben und via Bluetooth an eine native App auf einem Tablet gesendet wird. Die Schnittstelle wurde mithilfe der IDE Eclipse mit der Programmiersprache Java erstellt und kann unter der Bedingung, dass auf dem verwendeten PC JRE Version 1.8.0 oder jünger vorinstalliert ist, systemunabhängig ausgeführt werden. Je nach gesendeten Parametern wird eine von sechs möglichen GUIs auf dem Bildschirm des Tablets angezeigt, welche die Anordnung der Lautsprecher im Audiometrieraum wiedergibt. Nach dem Schallereignis hat der Proband die Möglichkeit, je nach gewählter GUI, einen von sieben bzw. zwölf angezeigten Lautsprechersymbolen oder einen beliebigen Punkt auf dem Bildschirm anzutippen. Diese Eingabe entspricht der Richtung, welche der Proband als Schallquelle lokalisierte. Nach Eingabe der Probandenantwort wird diese via Bluetooth an die Schnittstelle und somit an Matlab gesendet, wo die Antwort ausgewertet werden kann.
Die vorliegende Bachelorarbeit beschreibt die Erstellung einer Anwendung, die es ermöglicht, einen Roboterarm mithilfe eines haptischen Geräts zu steuern. Zudem wird die Kraftrückkopplung des haptischen Geräts, abhängig von der wirkenden Kraft des Roboterarms, implementiert.
Zur Realisierung dieser Anforderungen wurden zwei Programme erstellt; diese beiden Programme sind über eine TCP Verbindung miteinander verbunden. Programm 1 stellt die haptische Umgebung bereit, Programm 2 die Robot Operating System Node, mit welcher die Daten zum Roboter gesendet und Daten vom Roboter empfangen werden können.
Die in dieser Arbeit erstellten Programme wurden mithilfe von Test Nodes überprüft und leiten die Position der haptischen Umgebung weiter. Die Kraftrückkopplung des haptischen Geräts ist ebenfalls vorhanden und integriert.
Ein Testlauf mithilfe eines simulierten Roboterarms konnte erfolgreich durchgeführt werden.
Die vorliegende Bachelorarbeit beschäftigt sich damit, welche Schritte für die Entwicklung einer Progressive Web App nötig sind, damit für eine Performance und User Experience gesorgt werden kann, die der einer nativen Anwendungen gleichkommt. Zu diesem Zweck werden der Service Worker, das Web-App-Manifest, HTTPS-Verschlüsslung sowie die App-Shell-Architektur vorgestellt, die die zentralen Techniken von Progressive Web Apps ausmachen. Mit deren Implementierung können Features genutzt werden, die bisher nur nativen Apps vorbehalten waren, wie Offline-Funktionalität, Push-Notifications, „Add-to-Homescreen“ und „Background-Sync“. Der Fokus der Arbeit liegt darauf, diese Features in einer Progressive Web App umzusetzen, indem zunächst eine herkömmliche responsive Website implementiert wird, der nach und nach PWA-Features hinzugefügt werden. Anhand der dafür aufgewendeten Konzeption und Implementierung wird untersucht, welche Unterschiede sich durch eine Migration zu einer PWA bezüglich der Performance und Usability ergeben.
In dieser Arbeit wird die Funktionsweise, Standardisierung und Verwundbarkeit der Technologien RFID und NFC behandelt. Es wird gezeigt welche Angriffe existieren und wie man sich dagegen schützen kann. Es wird ein Überblick über einige in der Praxis verwendete Protokolle sowie deren Sicherheit gegeben. Außerdem werden grundlegende Fragen beantwortet, die man sich bei Auseinandersetzung mit dieser Technologie stellt (z.B. Reichweiten).
The Baroque composer Johann Sebastian Bach (1685–1750) has left us with many puzzles. The well-known oil painting by Elias Gottlob Haußmann is the only painting for which Bach actually posed in person. According to this portrait, Bach must have been quite obese. The cheeks and nose are flushed – possibly as signs of hypertension – and the eye lids are narrow – a sign of myopia. Furthermore, there is a thinning of the lateral third of the right eyebrow, which is known as Hertoghe’s sign, and indicated periorbital edema. Both signs are compatible with hypothyroidism. Bach might have been suffering from type-2 diabetes as the origin of his final illness, and the obituary reports two cataract surgeries by oculist John Taylor in March/April 1750, and, four months later, “apoplexy” followed by a high fever, of which Bach died. It may be speculated, however, that Bach’s entire illness was the result of his presumed obesity, possibly in combination with hypothyroidism.
In this paper pathophysiological interrelated deactivation/activation phenomena are set out in the example of whiplash injury. These phenomena could have been underestimated in previous positron emission tomography studies as their focus was on hypoperfusion rather than hyperperfusion. In addition, statistical parametric mapping analysis of cerebral studies is normally not fine-tuned to special interesting areas rather than to obvious clusters of difference.
Ziel dieses Projekt war, an einem existierenden, funktionierenden und LabVIEW-programmierten Roboter Verbesserungen durchzuführen, damit er stabiler, robuster, einfacher zu benutzen ist, und damit er in seinen Aktionen wiederholbar ist. Der Roboter wurde aus dem Starter-Pack von National Instruments (NI) gebaut, der ein MyRIO-Programmiergerät enthält. Dieses lässt sich in einer graphischen Programmierungssprache (LabVIEW) programmieren, die mehrere Aktionen parallel durchführen kann und in der Industrie weit verbreitet ist. Der Roboter wurde von einem vorherigen Team schon begonnen und konzipiert und besteht aus 3 Etagen, die die Motoren, die mechanischen Teilen und das elektronische Material behalten. Die Mechanik und die Elektronik waren funktionell, aber weder robust noch dauerhaft. Die Programmierung enthielt einige Fehler, die zuerst korrigiert werden mussten. Eine Zeit war nötig, um die vorherigen technischen Lösungen anzuschauen und um sich mit der Programmierung in LabVIEW vertraut zu machen. Dann wurde vor dem ersten Wettbewerb das System für die Aufgabe der Sortierung der Bälle mit einer opaken 3D-bedruckten Abdeckung ausgestattet, um den lichtempfindlichen Sensor vor Licht zu schützen und die vorige Alufolie mit einer robusten Lösung zu ersetzen. Unser Team, das aus drei bis fünf Studenten (abhängig von den Semestern) besteht, hat am 4. Oktober 2018 an einem Wettbewerb der Firma National Instruments teilgenommen, bei dem ein Roboter verschiedene Aktionen selbstständig auf einer Strecke durchführen soll. Ziel dieses Wettbewerbs ist es, die Teamarbeit und die Produkte von National Instruments durch den Bau eines Roboters und dessen Programmierung aus einem MyRIO-Gerät zu fördern. Der Wettbewerb fand bei der Veranstaltung „NI Days“ statt und sah fünf Teams französischer Studenten gegeneinander antreten. Unser Roboter gewann den ersten Platz im Wettbewerb, indem er die meisten Punkte in den Runden erzielte. Nach dem Wettbewerb wurde der Schwerpunkt auf die Mechanik und die Programmierung gelegt, da es noch Probleme gab und um die technischen Lösungen des Roboters robuster zu machen. Dabei wurden Schutzteile von Liniensensoren konzipiert und die Dimensionierung des Arms für die Aufgabe der Rohre begonnen, was danach von einem anderen Teammitglieder weitergeführt wurde. Bezüglich der Programmierung wurde das Frontpanel komplett geändert und die Klarheit des Programms anhand von Kommentaren und Beschreibungen verbessert, um das Programm einfacher und benutzerfreundlicher zu machen. Danach wurden die Probleme der Datei gelöst, die die Zustände des Roboters im Embedded Modus aufschreibt, damit wir Informationen haben, wenn es auf der Strecke einen Fehler gab. Schließlich galt es, die Regelung der Hauptmotoren des Roboters zu verbessern, um seine Verfahrgeschwindigkeit zu erhöhen und gleichzeitig sicherzustellen, dass er die Linie nicht verlässt. Dieses ermöglichte, die Ausführungsgeschwindigkeit der Strecke zu erreichen, die 1,4-mal höher war als die vorherige Geschwindigkeit. Am Ende dieser Arbeit wird ein neues Team von drei bis fünf Studenten das Projekt übernehmen, um sich auf den nächsten Wettbewerb vorzubereiten und den Roboter weiter zu verbessern.
Künstliche Intelligenz (KI) und maschinelles Lernen (ML) sind zwei der großen Schlüsseltechnologien zur Automatisierung intelligenten Verhaltens mit einer großen Anzahl von Anwendungsbereichen. Neben dem Einsatz von Servicerobotern, autonomen Fahrzeugen und intelligenten Suchmaschinen erschließen sich nach und nach weitere Einsatzfelder dieser jungen Wissenschaft. Diese Arbeit verfolgt das Ziel, zu prüfen, ob ein beispielhaftes Problem aus der IT-Security für die Bearbeitung durch maschinelle Lernverfahren geeignet ist, ein entsprechendes Open-Source Toolkit, das JMLT (Java Machine Learning Toolkit) zu dessen Bearbeitung zu entwickeln und mit diesem das Problem zu bearbeiten und die erhaltenen Ergebnisse auszuwerten, um letztendlich die Beantwortung der Eingangsfrage zu verifizieren.
Mit dieser Arbeit entsteht ein frei zugängliches, umfangreiches Open-Source Toolkit, dass jedem Interessierten zur freien Verfügung gestellt wird. Dieses bietet eine ganze Palette an Möglichkeiten, Daten zu verarbeiten, zu modifizieren, mit verschiedenen Methoden des maschinellen Lernens zu bearbeiten und die Ergebnisse grafisch anzuzeigen. Die Mächtigkeit dieses Toolkits wird sich im Laufe dieser Arbeit ergeben. Zur Verwendung sind grundlegende Java-Kenntnisse notwendig.
Intels Software Guard Extension (SGX) ist eine Technologie, die einen umfassenden Datenschutz verspricht. SGX wurde 2013 als Softwaremodell für die isolierte Ausführung von Anwendungen veröffentlicht.
Mit Intel SGX können Container in einem geschützten Speicherbereich erstellt werden. Diese Container werden Enclave genannt. Es ist nicht möglich den Speicher-
bereich der Enclave auszulesen oder in ihn zu schreiben. Die Enclave soll Integrität und Verfügbarkeit der Daten sicherstellen, auch wenn diese auf einem nicht vertrauenswürdigen Host ausgeführt werden.
In dieser Arbeit soll zunächst ein Überblick über die Funktionsweise und das Potenzial von Intel Software Guard Extension gegeben werden. Vor allem soll analysiert werden
wie Datenbanken mit Hilfe von SGX gesichert werden können und wie groß die Performance einbüßen mit SGX sind.
Aufbauend auf den Grundlagen von Intel SGX und EnclaveDB soll anschließend eine sichere Datenbank erstellt werden. Hierzu wird EnclaveDB von Microsoft analysiert und auf Basis dieser Datenbank eine neue Datenbank erschaffen, die Daten verschlüsselt in der Datenbank speichert ohne, dass diese in Klartext vom Host ausgelesen werden können. Zum Schluss wird die Performance von EnclaveDB und der erstellten Datenbank so gut es geht verglichen.
In dieser Thesis wird die Entwicklung einer Progressive Web App, die zur Auflistung von Stellenanzeigen der Valiton GmbH dienen soll, aufgezeigt. Dabei soll ermittelt werden, ob eine Progressive Web App einer Nativen App nahekommt und ob sich der damit verbundene Aufwand lohnt. Umgesetzt wurde die Anwendung mit Hilfe des JavaScript Frameworks Vue.js. Bei der Umsetzung lag der Fokus auf der Offlinefähigkeit, die Push- Benachrichtigungen und das Responsive Design. Diese konnten mit dem UI Framework Vuetify und dem Service Worker implementiert werden. Die Anwendung läuft in allen Browsern, doch sie kommt am besten durch die vollständige Unterstützung des Chrome Browser zur Geltung. Progressive Web Apps werden Nativen Apps immer ähnlicher, jedoch sind sie kein kompletter Ersatz. Ob sich die Umsetzung lohnt, kommt auf den Anwendungsfall an. Die Technologien und Unterstützung verschiedener Browser werden immer besser, womit gesagt werden kann, dass Progressive Web Apps gute Chancen in der Zukunft haben.
The core logging and tracing facility in Windows operating system is called Event Tracing for Windows (ETW).
Data sources providing events for ETW are instrumented all over the operating system.
That means most hard- and software assets in a Windows system are instrumented with ETW and so are able to contribute low-level information.
ETW can be used by developers and administrators to get low-level information about operating system's activity.
We describe existing tools to interact with the ETW faciltity and evaluate them based on defined criteria.
Based on relevant application scenarios, we show the richness of informational content for debugging or detecting security incidents with ETW.
The widely used instrumentation of ETW in the operating system and its application results also in security risks according to confidentiality.
Based on common ETW providers we show the impact to confidentiality what ETW offers an adversary.
At the end we evaluate solutions and approaches for a customizable telemetry infrastructure using ETW in large-scale environments.
Microservice- und andere service-basierte Architekturen wurden im Laufe der Jahre immer beliebter und große Unternehmen steigen zunehmend auf solche Architekturen um. Einige Unternehmen scheitern aber an der Entwicklung und Umsetzung dieser Architekturen, da zu wenig Zeit investiert wird.
Das Ziel dieser Thesis ist es, ein Konzept zur Umsetzung einer Microservice Architektur für ein Ticketsystem mit .Net Core zu entwickeln. Dabei liegt der Fokus auf der Konzeption der Architektur des Ticketsystems anhand der im Unternehmen herrschenden Rahmenbedingungen. Damit soll gezeigt werden, wie eine solche Architektur umgesetzt werden kann und welche Kompromisse gegebenenfalls eingegangen werden müssen.
Um herauszufinden welche Architektur geeignet ist, wurde zunächst eine Analyse der Microservice Architektur und der service-orientierten Architektur (SOA) durchgeführt und die Ergebnisse gegenübergestellt. Dabei stellte sich schnell heraus, dass im Fall des Unternehmens eine Microservice Architektur besser geeignet ist, aber gewisse Eigenschaften nicht so umgesetzt werden konnten, wie sie im Idealfall umgesetzt werden sollten. Durch einige Anpassungen konnte ein Konzept für eine Microservice Architektur entwickelt werden, welches über einen Prototyp auf Umsetzbarkeit geprüft wurde.
Auf dieser Grundlage ist es empfehlenswert, vor der Umsetzung einer neuen Architektur,ein Konzept zu erstellen und verschiedene Optionen abzuwägen. Eine Microservice Architektur ist dabei für web-basierte Anwendungen geeignet, bei denen die einzelnen Services klein gehalten werden können. Außerdem ist die Verwendung einer Microservice Architektur in Kombination mit Montainertechnologien empfehlenswert, um die einzelnen Services besser voneinander zu trennen.
The trend in shopping is towards online commerce and the number of visitors to local shopping centres is declining. In order not to lose the connection to the market, the retailer has to give his customers a reason to continue shopping with him. Certain methods must be used to ensure that the customer does not buy online and stays with their local retailer. Customer loyalty plays a particularly important role here. Because if the customer trusts his dealer and likes to buy from him, the preservation of the shopping location is assured. In order to build a stronger bond between customer and retailer, it is important to consider emotional aspects. Shopping must be turned into an experience that will be remembered by the customers and that will add value to their visit to the store. Visual merchandising is particularly suitable for this purpose. The aim is to transform the otherwise less eventful shopping experience into an emotional experience. The aim of the work is to show the possible elements of visual merchandising and how it is possible with their help to bind the customer and at best encourage him to buy. First, the perception of the human being is briefly explained and how the brain receives the information that is sent out at the point of sale. Then the individual design elements are introduced, which have to be carefully designed and placed. From the outside with the façade and the shop windows to the inside where the senses are addressed and influenced by lights, colours, smells and tastings. Finally, a brief analysis of the Edeka Center in Gundelfingen will show which elements of visual merchandising are used in practice and how customers are influenced, guided and bound there. Here, the previously acquired knowledge is used to describe the shopping experience. Furthermore, this work can be seen as a kind of guideline as to which elements have which effect and how they can be optimally used at the point of sale.
Konzeption und Umsetzung einer Websitemigration unter dem speziellen Blickwinkel der Usability
(2018)
Die vorliegende Arbeit ist in Zusammenarbeit mit der P3 Systems GmbH entstanden. Sie soll zum einen den Migrationsprozess einer Website darstellen und die Hürden die dabei auftreten können, sowie mögliche praktische Lösungswege aufzeigen. Zum anderen soll verdeutlicht werden, inwieweit sich dieser Prozess dazu eignet die Usability der Website durch einen nutzerorientierten Entwicklungsprozess und eine gezielte Anwendung von erprobten Methoden zu erhöhen. Hierzu sollen zunächst das Unternehmen, die zu migrierende Website und die Beweggründe für die Migration vorgestellt werden. Im zweiten Kapitel werden die Grundlagen für die spätere Arbeit gelegt. Hier werden verwendete Web-Technologien, Informationen zur Usability und zu den angewendeten Methoden erklärt. Im Anschluss beginnt die Dokumentation der praktischen Arbeit in der Reihenfolge, in der sie durchgeführt wurde. Zunächst wird der benutzerorientierte Entwicklungsprozess erläutert, darauf aufbauend die Konzeption der neuen Website und schließlich die Umsetzung der Migration an sich, die mit der Evaluation der Ergebnisse endet. Abschießend soll ein Fazit gezogen und ein möglicher Ausblick für die Zukunft aufgezeigt werden.
Diese Bachelorarbeit befasst sich mit der Integration von Storytelling in der Unternehmenskommunikation mittelständischer Unternehmen und analysiert, welche Bedeutung dem Einsatz von Storytelling zur Lead-Generierung, zugesprochen werden kann. Dabei wird die Wirkungsweise von Storytelling näher betrachtet und mit dem unternehmerischen Nutzen in Verbindung gebracht.
Die Arbeit bietet einen Überblick über die Kommunikationsabläufe eines Unternehmens und nimmt den Leadgenerierungsprozess unter die Lupe. Unter Berücksichtigung der besonderen Rahmenbedingungen, die sich für mittelständische Unternehmen ergeben, werden Berührungspunkte und Zusammenhänge erarbeitet, die eine Integration von Storytelling in den Leadgenerierungsprozess ermöglichen. Die Betrachtung der Rolle von Storytelling, sowohl auf der operativen als auch auf der strategischen Ebene, verdeutlicht dabei die unterschiedlichen Integrationsstufen, die sich für den Storytelling-Einsatz ergeben können. Ein abschließender Ausblick, bei dem die Herausforderungen des Mittelstandes erörtert werden, soll auf die Bedeutung des Storytellings in der nahen Zukunft eingegangen werden.
Diese Bachelorarbeit beschäftigt sich mit der Vorstellung und Anwendung von Maßnahmen des Suchmaschinenmarketings, um die Positionierung der Website www.phoenix-biker-tours.de auf den Suchergebnisseiten von Google zu optimieren. Phoenix-Biker-Tours ist ein kleiner Reiseanbieter für geführte Motorradtouren welt-weit. Das Unternehmen verfügt über eine Website, die jedoch bisher für Suchmaschinen nicht optimiert wurde.
Die Bachelorarbeit befasst sich mit der SVG-basierten Darstellung von Infografiken auf Webseiten. Ziel ist es die Vorteile der Infografiken im allgemeinen, aber besonders im Web zu vermitteln. Ebenfalls wird der vorteilhafte Nutzen der vektorbasierten Grafikeinbindung auf Webseiten hervorgehoben.
Hierzu werden zunächst alle Bildwahrnehmungs- und wirkungstheorien genauer betrachtet. Anschließend wird ein Blick auf verschiedene Darstellungformen geworfen, für eine grobe Wissensbasis. Mit diesem Wissen kann nun detaillierter auf die Infografiken eingegangen werden. Neben deren Vorteile und Typen, wird auch die Infografikerstellung erläutert. Anschließend folgt eine Betrachtung der Vor- und Nachteile des SVG-Formats sowie dessen Aufbau. SVGs basieren auf einem XML-Code, welcher optimal in den HTML-Code einer Webseite eingebettet werden kann. Das Einpflegen der SVG-Datei wird in der vorliegenden Arbeit genauer behandelt und anschließend in einer praktischen Arbeit umgesetzt. Der praktische Teil besteht aus einer Webseite, welche eine Infografik präsentiert. Die Infografik ist in Form eines Lebenslaufes aufgebaut. Der OnePager besteht aus mehreren Bereichen, welche sich aus SVG-Grafiken zusammensetzen. Das gesamte Konstrukt ergibt eine Flow-Chart, die durch Interaktivität erkundet werden kann. Durch die praktische Arbeit werden die Vorteile der Vektorgrafiken und der Infografiken verknüpft. Ebenfalls wird die gut umsetzbare Integration von XML-Code in HTML-Code hervorgehoben, sodass sich sagen lässt, dass Infografiken und Vektorgrafiken sowohl alleinstehend, als auch in Kombination einen baldigen Aufschwung im Web erfahren werden.
Die vorliegende Bachelorarbeit erstellt ein Konzept für eine Sozialmarketingkampagne zur Senkung des Fleischkonsums anhand einer Sekundärforschung. Damit verfolgt die Arbeit das Ziel, Handlungsempfehlungen für die Praxis abzuleiten.
Im Teil der Literaturarbeit werden relevante Einflussfaktoren auf den Fleischkonsum und mögliche Ansätze für eine Verhaltensänderung analysiert. Die Ergebnisse der Recherche deuten auf eine teilweise fehlerhafte Umsetzung von Kampagnen zur Reduktion des Fleischkonsums hin.
Die Kampagne der Fifty/Fifty Challenge setzt die Erkenntnisse beispielhaft um. Als Ansatzpunkt dient ein Segment, in dem die größte Offenheit gegenüber einem reduzierten Fleischkonsum besteht. Als Zielgruppe sind expeditiv und sozialökologisch eingestellte Studierende ausgewählt worden. Die Kampagne verfolgt das Ziel, eine Halbierung des Fleischkonsums bei der Zielgruppe zu erreichen. Die Kommunikationsmaßnahmen sind rund um eine Aktionswoche in den Mensen von 20 Studierenden- werken geplant. Die strategische Umsetzung wird exemplarisch anhand der Albert Schweitzer Stiftung aufgezeigt. Die Laufzeit der Kampagne beträgt ein Jahr und benötigt ein Budget von 220.000 €, um rund 780.000 Studierende zu erreichen.
Die Ergebnisse der Arbeit bieten eine Grundlage für die Umsetzung des Themas in der Kampagnenarbeit von Nichtregierungsorganisationen.
Analyse der Anwendbarkeit des Dynamische Fähigkeiten-Konzepts am Beispiel von Großhandelsunternehmen
(2019)
Eine Anpassung aufgrund sich schnell verändernder Geschäftsumgebungen an aktuelle Gegebenheiten ist für alle Unternehmen sowohl in der freien Wirtschaft als auch staatlichen Ursprungs relevant. Diese kann durch starke dynamische Fähigkeiten der involvierten Unternehmen erfolgen. Zur Validierung des theoretischen Konzepts der dynamischen Fähigkeiten werden Großhandelsunternehmen herangezogen und deren Unternehmensaktivitäten im Hinblick auf die erste dynamische Fähigkeit in Gesprächen ermittelt. Die Ausführungen der vier Großhändler zielen in einem ersten Teil darauf ab, die grundsätzliche Anwendbarkeit des Konzepts in der Praxis zu bestätigen. In einem zweiten Teil wird analysiert in welchem Umfang sie für die betrachtete Branche beschrieben werden kann. Es zeigt sich, dass das Dynamische Fähigkeiten-Konzept nicht ohne Einschränkungen auf die Praxis übertragen werden kann, wenngleich die Ausprägungen dem Konzept zugrundeliegender Elemente bei allen Firmen ähnlich sind. Trotz dieser Ähnlichkeit konnten keine festen Muster bzw. Interdependenzen erkannt werden, die die Integration, den Aufbau und/oder die Neukonfiguration von Fähigkeiten zuverlässig fördern. Die Resultate ermöglichen es dennoch in einem letzten Teil zu beurteilen, welche Indikatoren eine Basis zur strategischen Anpassung an den Strukturwandel schaffen. Sie sind Teil der formulierten Hypothesen zu den einzelnen Elementen der ersten dynamischen Fähigkeit. Mit der Summe der Erkenntnisse konnte in gewisser Hinsicht eine Transparenz des Konzepts erreicht werden – mit Hilfe des entwickelten Interviewleitfadens kann analog zum Vorgehen in dieser Arbeit für die zweite und dritte dynamische Fähigkeit verfahren werden, sodass in einem breiteren Kontext erneut eine Aussage über die Anwendbarkeit des Konzepts getroffen werden kann.
Im Datenbankenlabor der Fakultät M+I wurde ein neuer Laborversuch implementiert. Ziel war es die dokumentenorientierte Datenbank MongoDB so zu adressieren, dass Studenten und Studentinnen den Umgang mit diesem System erlernen können. Dazu wurden die wichtigsten Merkmale und Eigenschaften des Systems zusammengetragen und in einem Laborversuch zusammengefasst. Zugleich sollte der administrative Aufwand zur Durchführung des Laborversuches einfach sein. Deshalb wurde das Containersystem Docker verwendet, um die MongoDB auf dem Server zu installieren und adressieren zu können.
Die zunehmende Digitalisierung macht den Einsatz von E-Mail-Marketing in Unternehmen fast unumgänglich. Um einen effektiven Kundenkontakt zu gewährleisten müssen Unternehmen auf den Versand von Newslettern setzen, die in regelmäßigen Abständen an den Kundenstamm herausgeschickt werden. Ein Newsletter beinhaltet Informationen, die von Relevanz für die Kundschaft ist. Die Thematik kann ein Überblick über Geschehnisse des Unternehmens sein, aber auch Events und Rabattaktionen sind möglich. In der heutigen Zeit stehen eine Vielzahl an Tools zur Verfügung, um mit Hilfe von Newslettern den Kontakt zum Kunden und zur Kundin zu pflegen. Die Generierung von E-Mail-Adressen, sowie die Kampagnenerstellung sind solche Teilgebiete. Ebenso das Tracking und der automatisierte Versand der E-Mails. Längst nicht alle Unternehmen nutzen die Vorteile des Kommunikationskanals und von denjenigen, die den Kanal nutzen, ist fast jeder Zweite nicht zufrieden mit seiner E-Mail-Marketing Strategie.1 Außerdem gibt es eine Menge Richtlinien, die es zu beachten gilt, wenn das E-Mail-Marketing genutzt wird, ansonsten kann es zu Abmahnungen kommen.
Die vorliegende Bachelorthesis stellt ein Leitfaden für die Umsetzung von Newslettern im B2C-Bereich dar. Dabei bietet die Arbeit einen Rundumblick in das Thema, sodass Unternehmen dadurch in der Lage sind einen Newsletter aufzubauen und somit den Kontakt zu ihren Abonnenten und Abonnentinnen erfolgreich zu halten. Unterthemen, die in dieser Thesis beleuchtet werden, sind zum einen die Planung und Zielsetzung eines Newsletters, anschließend die erfolgreiche Generierung von E-Mail-Adressen. Zum anderen auch die technischen und rechtlichen Anforderungen an die Newsletter. Außerdem werden die Gestaltungselemente und das Controlling behandelt. Größtenteils werden die Fragen innerhalb dieser Thesis mit Hilfe von relevanter Fachliteratur beantwortet. Zusätzlich werden die Ergebnisse durch eine Umfrage, sowie eine Eye-Tracking Untersuchung unterstützt.
Diese Arbeit handelt von der Entwicklung zweier zukunfts- und handlungsorientierter e-Learning Module für das Triebwerkswechselgerät „Cobra“. Dabei wird das didaktische Konzept für diese e-Learning Module entwickelt und reflektiert. Dies beinhaltet die Auseinandersetzung mit verschiedenen Lerntheorien und didaktischen Modellen. Neben diesen didaktischen Modellen findet die Instruktionstheorie nach Gagnè eine Anwendung. Um den Wissenserwerb zu prüfen werden Aufgaben unter Berücksichtigung der Taxonomien nach Bloom entwickelt. Ausschnitte aus den e-Learning Modulen geben einen Einblick in die Umsetzung des didaktischen Konzeptes.
Die ältere Bevölkerung wächst kontinuierlich an. Dadurch erhöht sich auch der Bedarf an Pflegeleistungen und Pflegepersonal stetig. Allerdings herrscht ein großer Mangel an Pflegekräften. Die vorliegende Arbeit liegt dieser Problematik zugrunde. Ein Aspekt für eine mögliche Problemlösung ist der Einsatz sozialer Roboter, zur Betreuung älterer Menschen und Unterstützung des Pflegepersonals. Ziel dieser Arbeit war es daher, die Akzeptanz älterer Menschen und dem Personal in verschiedenen Pflegeeinrichtungen gegenüber sozialen Robotern sowie gewünschte Fähigkeiten dessen zu untersuchen.
Zu diesem Zweck wurden zum einen 67 ältere Personen mithilfe eines Fragebogens zur Thematik befragt. Zum anderen wurden sieben qualitative Interviews mit Angestellten in Pflegeheimen geführt.
Im Rahmen dieser Masterthesis wird ein quasi energieautarkes, nicht-invasives Messsystem für Kleinstlebewesen entwickelt, das Vitalparameter erfasst und diese in einem FRAM-Speicher bis zum Auslesen abspeichert. Durch eine drahtlose RFID-/NFC-Ausleseschnittstelle kann die erfasste Körpertemperatur und der Puls der letzten Wochen ausgelesen werden. Alle Einstellungen des Messsystems können durch einen geeigneten RFID-Reader für Laptops mit eigens entwickelter grafischer Nutzeroberfläche geändert werden. Das vollständige Aufladen des nur 3,3 g leichten und 15 mm x 25 mm großen Messsystems erfolgt durch eine selbstgedruckte RFID-Reader-Antenne in Verbindung mit einem RFID-Reader und benötigt hierzu weniger als 29 Stunden. Bei vollständig aufgeladenem Energiespeicher ist ein Betrieb von 47 Tagen möglich. Dies wird durch ein speziell für das Messsystem konzipiertes Lade- und Powermanagement erreicht. Neben der Auswahl von energiesparenden Komponenten für die Hardware und deren bestmöglichen Nutzung, wurde die Software so optimiert, dass das Programm schnell und stromsparend abgearbeitet wird. Die Erweiterbarkeit und Anpassung wird durch das modulare Konzept auch in anderen Bereichen gewährleistet.