Refine
Year of publication
Document Type
- Article (reviewed) (286)
- Conference Proceeding (286)
- Bachelor Thesis (131)
- Article (unreviewed) (97)
- Part of a Book (77)
- Contribution to a Periodical (74)
- Report (44)
- Master's Thesis (40)
- Patent (38)
- Book (35)
Conference Type
- Konferenzartikel (205)
- Konferenz-Abstract (47)
- Konferenz-Poster (16)
- Sonstiges (14)
- Konferenzband (7)
Language
- English (590)
- German (527)
- Other language (1)
Keywords
- Dünnschichtchromatographie (29)
- Biomechanik (23)
- Energieversorgung (15)
- Plastizität (14)
- Finite-Elemente-Methode (13)
- Adsorption (11)
- Materialermüdung (11)
- Simulation (11)
- TRIZ (11)
- Wärmepumpe (11)
Institute
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (1118) (remove)
Open Access
- Open Access (415)
- Closed Access (354)
- Closed (211)
- Bronze (88)
- Gold (34)
- Hybrid (32)
- Diamond (27)
- Grün (5)
Der prozentuale Energieaufwand für die Warmwasserbereitung ist umso höher, je geringer der Bedarf an Raumwärme – erreicht durch besser gedämmte Gebäudehüllen – ist. Gleichzeitig kann dieser Aufwand für Warmwasser aufgrund der normativ geforderten Systemtemperaturen von 60/55 °C bei zentraler Warmwasserbereitung über Wärmepumpen nur vergleichsweise energieaufwendig abgedeckt werden. Eine Studie des Fraunhofer ISE zeigt, wie groß dieser Temperatur-Effekt im Vergleich unterschiedlicher Trinkwasser-Erwärmungssysteme ist.
Photovoltaic-heat pump (PV-HP) combinations with battery and energy management systems are becoming increasingly popular due to their ability to increase the autarchy and utilization of self-generated PV electricity. This trend is driven by the ongoing electrification of the heating sector and the growing disparity between growing electricity costs and reducing feed-in tariffs in Germany. Smart control strategies can be employed to control and optimize the heat pump operation to achieve higher self-consumption of PV electricity. This work presents the evaluation results of a smart-grid ready controlled PV-HP-battery system in a single-family household in Germany, using 1-minute-high-resolution field measurement data. Within 12 months evaluation period, a self-consumption of 43% was determined. The solar fraction of the HP amounts to 36%, enabled also due to higher set temperatures for space heating and domestic hot water production. Accordingly, the SPF decreases by 4.0% the space heating and by 5.7% in the domestic hot water mode. The combined seasonal performance factor for the heat pump system increases from 4.2 to 6.7, when only considering the electricity taken from the grid and disregarding the locally generated electricity supplied from photovoltaic and battery units.
Photovoltaic thermal (PVT) technology has been drawing attention recently. Electrification of the heating sector with heat pumps run by carbon-free electricity sources like photovoltaics is setting the ground for the interest. This article gives insight into PVT technologies and collector designs according to application and operating temperatures. For most conventional designs, examples like prototypes from Research & Development projects are presented. In addition, commercial products are listed along these categories, and the influence on the gross thermal and electrical yield is depicted based on Solar Keymark certification data. The process of certification is presented in a comprehensive way, showing current limitations, giving an outlook on the most recent approach for enhanced procedures and specifications. Finally, different system layouts are presented, and examples from installations combined with a heat pump are given with their specific performances. Real performance data of several PVT installations are compared to conventional heat pump systems. The identified seasonal performance factors are in a range from 3.4 to 4.2 and in between air source and ground source heat pumps. Continuous monitoring and derived data are enablers to discover the decisive influence of the system layout and dimensioning on performance indicators like, for example, operating temperatures over the year.
Purpose
To summarize the mechanical loading of the spine in different activities of daily living and sports.
Methods
Since the direct measurement is not feasible in sports activities, a mathematical model was applied to quantify spinal loading of more than 600 physical tasks in more than 200 athletes from several sports disciplines. The outcome is compression and torque (normalized to body weight/mass) at L4/L5.
Results
The data demonstrate high compressive forces on the lumbar spine in sport-related activities, which are much higher than forces reported in normal daily activities and work tasks. Especially ballistic jumping and landing skills yield high estimated compression at L4/L5 of more than ten times body weight. Jumping, landing, heavy lifting and weight training in sports demonstrate compression forces significantly higher than guideline recommendations for working tasks.
Conclusion
These results may help to identify acute and long-term risks of low back pain and, thus, may guide the development of preventive interventions for low back pain or injury in athletes.
Footwear plays a critical role in our daily lives, affecting our performance, health and overall well-being. Well-designed footwear can provide protection, comfort and improved foot functionality, while poorly designed footwear can lead to mobility problems and declines in physical activity. The overall goal of footwear research is to provide a scientific basis for professionals in the field to provide an optimal footwear solution for a given person, for a given task, in a given environment, while using sustainable manufacturing processes. This article suggests potential directions for future research with a focus on athletic footwear biomechanics. Directions include the evidence-based individualisation of footwear, the interaction between design and prolonged use, and improving the sustainability of footwear. The authors also provide a speculative outlook on methodological developments that may provide greater insight into these areas. These developments may include: (1) the use of larger scale, real-world and representative data, (2) the use of 3D printing to create experimental footwear, (3) the advancement of in silico research methods, and (4) furthering multidisciplinary collaboration. If successfully applied in the future, footwear research will contribute to active and healthy lifestyles across the lifespan.
Appraising the Methodological Quality of Sports Injury Video Analysis Studies: The QA-SIVAS Scale
(2023)
Background
Video analysis (VA) is commonly used in the assessment of sports injuries and has received considerable research interest. Until now, no tool has been available for the assessment of study quality. Therefore, the objective of this study was to develop and evaluate a valid instrument that reliably assesses the methodological quality of VA studies.
Methods
The Quality Appraisal for Sports Injury Video Analysis Studies (QA-SIVAS) scale was developed using a modified Delphi approach including expert consensus and pilot testing. Reliability was examined through intraclass correlation coefficient (ICC3,1) and free-marginal kappa statistics by three independent raters. Construct validity was investigated by comparing QA-SIVAS with expert ratings by using Kendall’s tau analysis. Rating time was studied by applying the scale to 21 studies and computing the mean time for rating per study article.
Results
The QA-SIVAS scale consists of an 18-item checklist addressing the study design, data source, conduct, report, and discussion of VA studies in sports injury research. Inter- and intra-rater reliability were excellent with ICCs > 0.97. Expert ratings revealed a high construct validity (0.71; p < 0.001). Mean rating time was 10 ± 2 min per article.
Conclusion
QA-SIVAS is a reliable and valid instrument that can be easily applied to sports injury research. Future studies in the field of VA should adhere to standardized methodological criteria and strict quality guidelines.
Injury prevention is essential in running due to the risk of overuse injury development. Tailoring running shoes to individual needs may be a promising strategy to reduce this risk. Novel manufacturing processes allow the production of individualised running shoes that incorporate features that meet individual biomechanical and experiential needs. However, specific ways to individualise footwear to reduce injury risk are poorly understood. Therefore, this scoping review provides an overview of (1) footwear design features that have the potential for individualisation; and (2) the literature on the differential responses to footwear design features between selected groups of individuals. These purposes focus exclusively on reducing the risk of overuse injuries. We included studies in the English language on adults that analysed: (1) potential interaction effects between footwear design features and subgroups of runners or covariates (e.g., age, sex) for running-related biomechanical risk factors or injury incidences; (2) footwear comfort perception for a systematically modified footwear design feature. Most of the included articles (n = 107) analysed male runners. Female runners may be more susceptible to footwear-induced changes and overuse injury development; future research should target more heterogonous sampling. Several footwear design features (e.g., midsole characteristics, upper, outsole profile) show potential for individualisation. However, the literature addressing individualised footwear solutions and the potential to reduce biomechanical risk factors is limited. Future studies should leverage more extensive data collections considering relevant covariates and subgroups while systematically modifying isolated footwear design features to inform footwear individualisation.
In this paper we report on further success of our work to develop a multi-method energy optimization which works with a digital twin concept. The twin concept serves to replicate production processes of different kinds of production companies, including complex energy systems and test market interactions to then use them for model predictive optimizing. The presented work finally reports about the performed flexibility assessment leading to a flexibility audit with a list of measures and the impact of energy optimizations made related to interactions with the local power grid i.e., the exchange node of the low voltage distribution grid. The analysis and continuous exploration of flexibilities as well as the exchange with energy markets require a “guide” leading to continuous optimization with a further tool like the Flexibility Survey and Control Panel helping decision-making processes on the day-ahead horizon for real production plants or the investment planning to improve machinery, staff schedules and production
infrastructure.
Background
To assess the in-field walking mechanics during downhill hiking of patients with total knee arthroplasty five to 14 months after surgery and an age-matched healthy control group and relate them to the knee flexor and extensor muscle strength.
Methods
Participants walked on a predetermined hiking trail at a self-selected, comfortable pace wearing an inertial sensor system for recording the whole-body 3D kinematics. Sagittal plane hip, knee, and ankle joint angles were evaluated over the gait cycle at level walking and two different negative slopes. The concentric and eccentric lower extremity muscle strength of the knee flexors and extensors isokinetically at 50 and 120°/s were measured.
Findings
Less knee flexion angles during stance have been measured in patients in the operated limb compared to healthy controls in all conditions (level walking, moderate downhill, steep downhill). The differences increased with steepness. Muscle strength was lower in patients for both muscle groups and all measured conditions. The functional hamstrings to quadriceps ratio at 120°/sec correlated with knee angle during level and downhill walking at the moderate slope in patients, showing higher ratios with lower peak knee flexion angles.
Interpretation
The study shows that even if rehabilitation has been completed successfully and complication-free, five to 14 months after surgery, the muscular condition was still insufficient to display a normal gait pattern during downhill hiking. The muscle balance between quadriceps and hamstring muscles seems related to the persistence of a stiff knee gait pattern after knee arthroplasty. LoE: III.
Maintaining stability while walking on arbitrary surfaces or dealing with external perturbations is of great interest in humanoid robotics research. Increasing the system’s autonomous robustness to a variety of postural threats during locomotion is the key despite the need to evaluate noisy sensor signals. The equations of motion are the foundation of all published approaches. In contrast, we propose a more adequate evaluation of the equations of motion with respect to an arbitrary moving reference point in a non-inertial reference frame. Conceptual advantages are, e.g., getting independent of global position and velocity vectors estimated by sensor fusions or calculating the imaginary zero-moment point walking on different inclined ground surfaces. Further, we improve the calculation results by reducing noise-amplifying methods in our algorithm and using specific characteristics of physical robots. We use simulation results to compare our algorithm with established approaches and test it with experimental robot data.
In 4D printing, an additively manufactured component is given the ability to change its shape or function in an intended and useful manner over time. The technology of 4D printing is still in an early stage of development. Nevertheless, interesting research and initial applications exist in the literature. In this work, a novel methodical approach is presented that helps transfer existing 4D printing research results and knowledge into solving application tasks systematically. Moreover, two different smart materials are analyzed, used, and combined following the presented methodical approach to solving the given task in the form of recovering an object from a poorly accessible space. This is implemented by self-positioning, grabbing, and extracting the target object. The first smart material used to realize these tasks is a shape-memory polymer, while the second is a polymer-based magnetic composite. In addition to the presentation and detailed implementation of the methodical approach, the potentials and behavior of the two smart materials are further examined and narrowed down as a result of the investigation. The results show that the developed methodical approach contributes to moving 4D printing closer toward a viable alternative to existing technologies due to its problem-oriented nature.
Das Ziel der vorliegenden Arbeit ist die Beantwortung der Frage, wie sich eine individuelle Fußbettung auf die Druckverteilung im Fuß und das körperliche Wohlbefinden im Allgemeinen auswirkt. Zu Anfang stehen die Nullhypothesen, dass durch eine solche Einlage keine Veränderungen in der Druckverteilung zu erwarten sind.
Um die Forschungsfrage zu beantworten, wurde eine experimentelle interventionelle Pilotstudie mit einer Kohorte von neun Probanden ohne orthopädische Probleme durchgeführt, die alle eine individuelle Schuheinlage erhielten. Die plantare Druckverteilung im Schuh wurde einmal ohne und einmal mit der Einlage sowohl statisch als auch dynamisch erfasst. Die Ergebnisse wurden anschließend verglichen. Die dynamische Datenerfassung beinhaltete die folgenden Konditionen: geradeaus Gehen, Gehen im Kreis (links- und rechtsherum), Stehen und der Transfer einer Kiste mit sich drehendem Oberkörper. Gleichzeitig wurde das Wohlbefinden der Probanden mit verschiedenen Fragebögen erfasst.
Die Anwendung einer individuellen Einlage zeigte im Bereich des medialen Mittelfußes einen Druckanstieg von über 100%, der Rückfuß wurde während des Stehens und Gehens entlastet. Der Vorfuß wurde während des Stehens teilweise mehr belastet. Diese Veränderungen können unter Umständen auf das Einführen der Längsgewölbestütze in der Einlage zurückgeführt werden. Die Auswertung der Fragebögen zu dieser Studie ergab, dass sich speziell für die Füße das Wohlbefinden leicht zum Schlechteren änderte, andere Bereiche, welche in den Fragebögen eruiert wurden, zeigten keine nennenswerten Veränderungen auf.
Daraus wird geschlossen, dass eine Schuheinlage die Druckverteilung in der Fußsohle stark verändern kann. Weiterführende Studien könnten den Einfluss der Einlage im Allgemeinen und der Wirkungsweise einer Längsgewölbestütze im Besonderen mit kinematischen Daten weiter belegen. Längerfristige Studien könnten die Langzeitwirkung von Einlagen auf das Wohlbefinden genauer erforschen.
In recent years, the demand for reliable power, driven by sensitive electronic equipment, has surged. Even minor deviations from the nominal supply can lead to malfunctions or failure. Despite technological advancements, power quality issues persist due to various factors like short circuits, overloads, voltage fluctuations, unbalanced loads, and non-linear loads.
This thesis extensively explores power quality anomalies in industrial and commercial sectors, using power system data as the primary analytical resource. It addresses the critical need for power supply reliability in today's evolving power grid industry, affected by non-linear loads, renewable energy integration, and electric vehicles. This field of study is paramount for ensuring power supply reliability and stability in the evolving power grid industry.
The core of this thesis involves a comprehensive investigation of power quality, with a focus on frequency, power, and harmonics in voltage and current signals. The research employs Python programming for advanced data analysis, utilizing techniques such as advanced Fast Fourier Transformation (FFT) analysis. The primary objective is to provide valuable insights aimed at elevating power supply quality and enhancing reliability in both industrial and commercial environments.
Immunosorbent turnip vein clearing virus (TVCV) particles displaying the IgG-binding domains D and E of Staphylococcus aureus protein A (PA) on every coat protein (CP) subunit (TVCVPA) were purified from plants via optimized and new protocols. The latter used polyethylene glycol (PEG) raw precipitates, from which virions were selectively re-solubilized in reverse PEG concentration gradients. This procedure improved the integrity of both TVCVPA and the wild-type subgroup 3 tobamovirus. TVCVPA could be loaded with more than 500 IgGs per virion, which mediated the immunocapture of fluorescent dyes, GFP, and active enzymes. Bi-enzyme ensembles of cooperating glucose oxidase and horseradish peroxidase were tethered together on the TVCVPA carriers via a single antibody type, with one enzyme conjugated chemically to its Fc region, and the other one bound as a target, yielding synthetic multi-enzyme complexes. In microtiter plates, the TVCVPA-displayed sugar-sensing system possessed a considerably increased reusability upon repeated testing, compared to the IgG-bound enzyme pair in the absence of the virus. A high coverage of the viral adapters was also achieved on Ta2O5 sensor chip surfaces coated with a polyelectrolyte interlayer, as a prerequisite for durable TVCVPA-assisted electrochemical biosensing via modularly IgG-assembled sensor enzymes.
Turbocharger housings in internal combustion engines are subjected to severe mechanical and thermal cyclic loads throughout their life-time or during engine testing. The combination of thermal transients and mechanical load cycling results in a complex evolution of damage, leading to thermo-mechanical fatigue (TMF) of the material. For the computational TMF life assessment of high temperature components, the DTMF model can provide reliable TMF life predictions. The model is based on a short fatigue crack growth law and uses local finite-element (FE) results to predict the number of cycles to failure for a technical crack. In engine applications, it is nowadays often acceptable to have short cracks as long as they do not propagate and cause loss of function of the component. Thus, it is necessary to predict not only potential crack locations and the corresponding number of cycles for a technical crack, but also to determine subsequent crack growth or even a possible crack arrest. In this work, a method is proposed that allows the simulation of TMF crack growth in high temperature components using FE simulations and non-linear fracture mechanics (NLFM).
A NLFM based crack growth simulation method is described. This method starts with the FE analysis of a component. In this paper, the method is demonstrated for an automotive turbocharger housing subjected to TMF loading. A transient elastic-viscoplastic FE analysis is used to simulate four heating and cooling cycles of an engine test. The stresses, inelastic strains, and temperature histories from the FEA are then used to perform TMF life predictions using the standard DTMF model. The crack position and the crack plane of critical hotspots are then identified. Simulated cracks are inserted at the hotspots. For the model demonstrated, cracks were inserted at two hotspot locations. The ΔJ integral is computed as a fracture mechanics parameter at each point along the crack-front, and the crack extension of each point is then evaluated, allowing the crack to grow iteratively. The paper concludes with a comparison of the crack growth curves for both hotspots with experimental results.
Cast aluminum cylinder blocks are frequently used in gasoline and diesel internal combustion engines because of their light-weight advantage. However, the disadvantage of aluminum alloys is their relatively low strength and fatigue resistance which make aluminum blocks prone to fatigue cracking. Engine blocks must withstand a combination of low-cycle fatigue (LCF) thermal loads and high-cycle fatigue (HCF) combustion and dynamic loads. Reliable computational methods are needed that allow for accurate fatigue assessment of cylinder blocks under this combined loading. In several publications, the mechanism-based thermomechanical fatigue (TMF) damage model DTMF describing the growth of short fatigue cracks has been extended to include the effect of both LCF thermal loads and superimposed HCF loadings. This approach is applied to the finite life fatigue assessment of an aluminum cylinder block. The required material properties related to LCF are determined from uniaxial LCF tests. The additional material properties required for the assessment of superimposed HCF are obtained from the literature for similar materials. The predictions of the model agree well with engine dyno test results. Finally, some improvements to the current process are discussed.
The cellulase-producing Trichoderma reesei strain RL-P37 exhibits significant potential, yielding 7.3 g/L of cellulase in 241 hours. Microscopic investigations reveal a link between spore formation and enzyme production, suggesting the need for research into the intricate relationship between enzyme production, stress responses, and the nutritional prerequisites of fungi. Comparatively, the use of sodium hydroxide (NaOH) treatment, as opposed to water treatment, results in the reduction of micronutrient content and carbon source extraction as filtrate. Despite these challenges, research by He et al. (2021) highlights NaOH's efficiency in cellulose extraction from plant-based sources. Using NaOH pretreatment can be proven as effective by designing a proper cultivation method. The selection of inducers for enzyme induction gains importance, with soluble inducers, as emphasized by Zhang et al. (2022), exhibiting superior effectiveness. Hence, adopting soluble inducers in designing cultivation methods for improved enzyme production in shaking flasks is recommended. Enzymatic treatment of bio-waste, as outlined by Hu et al. (2021), shows promise in augmenting essential component content by breaking down plant cell walls and intercellular compartments. However, the feasibility of using an artificial bio-waste medium for cultivating Trichoderma reesei is questioned. Investigating the impact of micronutrient levels, particularly the inhibitory role of zinc, on fungal growth becomes essential. These findings underscore the necessity for ongoing research and optimization in cellulase production, emphasizing both strain productivity and cultivation methodologies.
Chitin ist nach Cellulose, das am zweit häufigsten vorkommende Biopolymer auf der Erde und erlangt durch die positiven Eigenschaften seiner Oligomere immer mehr an Aufmerksamkeit in der Industrie. Derzeit werden Chitin-Oligomere rein chemisch mittels starker Säurebehandlung gewonnen. Alternativ können Endo- und Exochitinasen für eine umweltfreundlichere Hydrolyse eingesetzt werden. In dieser Arbeit wurden drei fungale Endochitinasen aus den Ursprungsorganismen Trichoderma harzianum (Chit33-TH), Trichoderma asperellum (Chit36-TA) und Myceliophthora thermophila (Chit46-MT) in Pichia pastoris rekombinant exprimiert, mittels Ni-NTA-Affinitätschromatographie und Dialyse aufgereinigt und biochemisch charakterisiert. Dabei zeigten die Chitinasen maximale spezifische Umsatzgeschwindigkeiten von 16 (Chit33-TH), 50 (Chit36-TA) und 98 nkat/mg (Chit46-MT). Die Endochitinasen hatten nach der Deglykosylierung ein molekulares Gewicht von 33 (Chit33-TH), 36 (Chit36-TA) und 46 kDa (Chit46-MT). Die pH-Optima und Temperaturmaxima lagen für alle drei Enzyme bei einem pH-Wert von 4,5 und 50 °C, zudem waren sie bei 45 bis 50 °C für 15 Minuten temperaturstabil. Detergenzien und Kationen wie Cu2+, Mn2+, Co2+ und Zn2+ hatten einen inhibierenden Effekt ab 1 mM. Höhere Ca2+-Konzentrationen ab 10 mM reduzierten die Enzymaktivität um bis zu 30 %. Eine Produktinhibition mit N-Acetylglucosamin konnte nicht festgestellt werden. Bei allen rekombinanten Enzymen konnte mittels DNS-Assay die Freisetzung von reduzierenden Zuckerenden und somit geeignete Eigenschaften kolloidales Chitin zu wasserlösliche ChitinOligomere umzuwandeln, nachgewiesen werden. Insbesondere Chit46-MT erreichte nach 24 h einen Hydrolysegrad bis zu 96 % und bewies, dass eine enzymatische Hydrolyse für die industrielle Chitin-Oligomerproduktion nutzbar ist.
One of the main problematics of the seals tests is the time and money consuming they are. Up to now, there are few tries to do a digitalisation of a test where the seals behaviour can be known.
This work aims to digitally reproduce a seal test to extract their behaviour when working under different operation conditions to see their impact on the pimp’s efficiency. In this thesis, due to the Lomaking effect, the leakage and the forces applied on the stator will be the base of analysis.
First of all, among all the literature available for very different kind of seals and inner patterns, it has been chosen the most appropriate and precise data. The data chosen is “Test results for liquid Damper Seals using a Round-Hole Roughness Pattern for the Stator” from Fayolle, P. and “Static and Rotordynamic Characteristics of Liquid Annular Seals with Circumferentially/Grooved Stator and Smooth Rotor using three levels of circumferential Inlet-Fluid” from Torres J.M.
From the literature, dimensions of the test rig and the seals will be extracted to model them into a 3D CAD software. With the 3D CAD digitalisation, the fluid volumes for a rotor-centred position, meaning without eccentricity, will be extracted, and used. The following components have been modelled:
- Smooth Annular Liquid Seal (Grooved Rotor)
- Grooved Annular Liquid Seal (Smooth Rotor)
- Round-Hole Pattern Annular Liquid Seal (𝐻𝑑=2 𝑚𝑚) (Smooth Rotor)
- Straight Honeycomb Annular Liquid Seal (Smooth Rotor)
- Convergent Honeycomb Annular Liquid Seal (Smooth Rotor)
- Smooth Rotor / Smooth Annular Liquid Seal (Smooth Rotor)
As there is just one test rig, all the components have been adapted to the different dimensions of the seals by referencing some measures. This allows to test any seal with the same test rig.
Afterwards a CFD simulation that will be used to obtain leakage and stator forces. The parameters that will be changed are the rotational velocity of the fluid (2000 rpm, 4000 rpm, and 6000 rpm) and the pressure drop (2,068 bar, 4,137 bar, 6,205 bar, and 8,274 bar).
Those results will be compared to the literature ones, and they will determine if digitalisation can be validated or not. Even though the relative error is higher than 5% but the tendency is the same and it is thought that by changing some parameters the test results can be even closer to the literature ones.
To date, many experiments have been performed to study how the internal geometrical shapes of the annular liquid seal can reduce internal leakage and increase pump efficiency. These can be time-consuming and expensive as all rotordynamic coefficients must be determined in each case.
Nowadays, accurate simulation methods to calculate rotordynamic coefficients of annular seals are still rare. Therefore, new numerical methods must be designed and validated for annular seals.
The present study aims to contribute to this labour by providing a summary of the available test rig and seals dimensions and experimental results obtained in the following experiments:
− Kaneko, S et al., Experimental Study on Static and Dynamic Characteristics of Liquid Annular Convergent-Tapered Seals with Honeycomb Roughness Pattern (2003) [1] − J. Alex Moreland, Influence of pre-swirl and eccentricity in smooth stator/grooved rotor liquid annular seals, static and rotordynamic characteristics (2016) [2]
A 3D CAD simulation with Siemens NX Software of the test rig used in J. Alex Moreland’s experiment has been made. The following annular liquid seals have also been 3D modelled, as well as their fluid volume:
− Smooth Annular Liquid Seal (SS/GR) (J. Alex Moreland experiment)
− Grooved Annular Liquid Seal (GS/SR)
− Round-Hole Pattern Annular Liquid Seal (𝐻𝑑=2 mm) (GS/SR)
− Straight Honeycomb Annular Liquid Seal (GS/SR)
− Convergent Honeycomb Annular Liquid Seal (No. 3) (GS/SR)
− Smooth Annular Liquid Seal (SS/SR) (S. Kaneko experiment)
In the case of the seals used in S. Kaneko’s experiments, the test rig has been adapted to each seal, defining interpart expressions which can be easily modified.
Afterwards, it has been done a CFD simulation of the Smooth Annular Liquid Seal using Ansys CFX Software. To do so, the fluid volume geometry has been simplified to do a first approximation. Results have been compared for an eccentricity 𝜀0=0.00 for the following ranges of rotor speeds and differential of pressure:
− Δ𝑃= 2.07, 4.14, 6.21, and 8.27 bar,
− 𝜔= 2, 4, 6 and 8 krpm.
Even results obtained have the same trend as the one proportionated by the literature, they cannot be validated as the error is above 5%. It is also observed that as the pressure drop increases, the relative error decreases considerably.
In dieser Bachelorarbeit wurde eine Studie zum Dehnungsverhalten von Schuhen mit elastischem Obermaterial beim Gehen und Laufen bei verschiedenen Geschwindigkeiten durchgeführt. Aktuell gibt es auf diesem Gebiet keine belastbaren Daten. Hierfür wurde von 33 Probandinnen und Probanden mit vier verschiedenen Schuhgrößen die Dehnung des Schuhobermaterials durch markerbasiertes Motion Capturing aufgenommen. Hierzu wurde eine Markerkette von insgesamt 6 Markern über dem Mittelfußbereich angebracht. Auf einem Laufband wurden im Gehen drei Geschwindigkeiten zwischen 1,0 m/s und 1,5 m/s und im Laufen sieben Geschwindigkeiten zwischen 1,5 m/s und 4,5 m/s aufgenommen. Die Datenauswertung erfolgte zum Großteil mittels von Matlab. Die Ergebnisse zeigen für die maximale Dehnung des Obermaterials im Gehen signifikante Unterschiede von p < 0,001. Auch das Laufen zeigt diese Signifikanz jedoch ausschließlich in den Vergleichen der niedrigen Laufgeschwindigkeiten. Die Dehnungsgeschwindigkeit zeigt im Gehen und in den meisten Bereichen des Laufens eine Signifikanz von p < 0,001. Die Ergebnisse der Dehnungsbeschleunigung weisen ebenfalls eine Signifikanz von p < 0,001 auf. Die Betrachtung der Teilbereiche der Markerkette zeigt in der Dehnung und der Dehnungsgeschwindigkeit Signifikanzen von p < 0,001. Die größte Dehnung entstand im mittleren Markerbereich, wohingegen die Randbereiche signifikant weniger gedehnt wurden. Die Dehnungsgeschwindigkeit zeigt jedoch eine signifikant höhere Geschwindigkeit in den Randbereichen im Vergleich zu dem mittleren Bereich. Im direkten Vergleich zwischen Gehen und Laufen zeigt sich keine Signifikanz. Nicht signifikant sind außerdem die verschiedenen Schuhgrößen im Vergleich zueinander. Die Ergebnisse zeigen, dass die Laufgeschwindigkeit einen Einfluss auf das Dehnungsverhalten bezüglich Dehnung, Dehnungsgeschwindigkeit und Dehnungsbeschleunigung hat.
Zur ergonomischen Unterstützung von Industriearbeitern werden zunehmend Exoskelette eingesetzt. Studien über die Wirkung und den Einfluss von Exoskeletten auf den Körper sind jedoch rar. Diese Arbeit beschäftigt sich daher mit der Wirkung des Rückenexoskeletts BionicBack des deutschen Exoskelett Herstellers hTRIUS auf die Wirbelsäulenkrümmung bei industriellen Hebearbeiten. Im Speziellen wird die Wirbelsäulenkrümmung beim Umpalettieren aus drei verschiedenen Hebehöhen (91 cm, 59 cm, 15 cm) mit Hilfe eines markerbasierten 3D Motion Capture Systems untersucht. Um den Versuchsaufbau alltagsnah und realistisch zu gestalten, wurde diese Pilotstudie in Kooperation mit der Firma Zehnder am Standort Lahr durchgeführt, die sowohl die Probanden als auch den Versuchsaufbau zur Verfügung stellte. Vier gesunde männliche Probanden mit einem durchschnittlichen Alter von 39,5 Jahren (SD = 6,5), einem durchschnittlichen Körpergewicht von 72,75 kg (SD = 7,1) und einer durchschnittlichen Körpergröße von 175 cm (SD = 2,6) wurden in zwei Schichten eingeteilt. Mit den Probanden wurden vor und nach der Schicht sowie an zwei aufeinander folgenden Tagen Messungen durchgeführt, wobei an einem Tag das BionicBack während der Arbeit und der Messung getragen wurde und am an-deren Tag nicht. Während einer Messung nahmen die Testpersonen ein Paket mit einem Gewicht von 21,1 kg dreimal von jeder Hebehöhe von einer Palette auf und legten es auf einer anderen ab. Anschließend wurde die Krümmung der Wirbelsäule am tiefsten Punkt der Hebebewegung untersucht, wobei die Gesamtkrümmung in dieser Position durch die Addition von drei repräsentativen Segmentwinkeln dargestellt wird. Die Abweichung dieser Gesamtkrümmungen in der tiefsten Beugeposition von der individuellen neutralen Wirbelsäulenstellung der Probanden im Stehen ergeben die Werte, die zwischen den einzelnen Versuchsbedingungen verglichen werden. Die Ergebnisse zeigen, dass das BionicBack den Abstand zur Neutralstellung bzw. die Gesamtkrümmung des Rückens im Vergleich zu ohne BionicBack bis zu -11,5° (Median: -11,5° (SD = 5,2); Mittelwert: -8,4° (SD = 6,4)) entsprechend -30% vor der Schicht und bis zu -5,6° (Median: -5,6° (SD = 3,5); Mittelwert: -4,1° (SD = 5,4)) ent-sprechend -17% nach der Schicht reduzieren kann. Die Betrachtung der einzelnen Segmentwinkel zeigt, dass die Reduzierung des Abstandes von der Neutralstellung hauptsächlich im Lendenwirbelbereich stattfindet. Der Vergleich der Wirbelsäulen-krümmung vor und nach der Schicht ohne BionicBack zeigt, dass die Wirbelsäulen-krümmung nach der Schicht, mit Ausnahme der tiefsten Hebehöhe, eine größere Abweichung von der Neutralstellung aufweist als vor der Schicht. Der Vergleich mit BionicBack zeigt, dass die Wirbelsäulenkrümmung nach der Schicht mit Ausnahme der niedrigsten Hubhöhe nicht bzw. weniger von der Neutralstellung abweicht als vor der Schicht. Aufgrund der Ergebnisse wird vermutet, dass das BionicBack durch die Unterstützung einer neutraleren Rückenhaltung das Verletzungsrisiko reduzieren kann. Des Weiteren wird vermutet, dass die Muskelermüdung während einer Arbeitsschicht einen Einfluss auf die Wirbelsäulenkrümmung beim Heben hat. Es wird angenommen, dass dieser Einfluss durch das BionicBack reduziert werden kann. Allerdings dürfen die Grenzen dieser Pilotstudie nicht außer Acht gelassen werden. Sei es die Anzahl der Versuchspersonen, die keine Aussage über die Allgemeingültigkeit zu-lässt und keine effektive statistische Analyse erlaubt, oder systematische Fehler, die aufgrund der Modellvereinfachung und der Methodik auftreten können. Weitere Untersuchungen sind erforderlich, um die Ergebnisse zu validieren. Diese Arbeit soll die Grundlage für weitere Studien mit einer weiterentwickelten Methodik und einer größeren Anzahl von Probanden bilden.
In dieser Arbeit wird die Entwicklung einer Methode zur Messung von Bodenreaktionskräften bei menschlicher Lokomotion auf variablen Untergründen behandelt. Das Ziel dieser Arbeit ist es, unter realistischen Bedingungen eine Ganganalyse in einem Biomechaniklabor durchführen zu können.
Bisher ist es nicht möglich in einem Biomechaniklabor verschiedene Untergründe nach einer bestimmten Methode auszutauschen, womit Szenarien im Alltag besser simuliert werden können.
Um dieses Ziel zu erreichen wurde ein geeignetes Konzept für die Fertigung der benötigten Bodenplatten und Bodenbeläge erstellt. Darauffolgend wurden die Komponenten angefertigt oder schon vorhandene modelliert. Die Anwendung der entwickelten Methode wurde unter realen Bedingungen einer Ganganalyse erfolgreich untersucht. Hierbei konnten exemplarisch die durchschnittlichen Bodenreaktionskräfte in z-Richtung für die Untergründe Kunstrasen, Kunststoffbahn (Tartanboden) und Steinboden untersucht werden. Das größte Optimierungspotential bei diesem Funktionstest zeigte sich bei der Anpassung der geeigneten An- und Ablaufstrecken mit den jeweiligen Untergründen.
Mit dieser entwickelten Methode können in einem Biomechaniklabor besser die Bedingungen die alltäglich benötigten Ganganpassungen an verschiedene Untergründe simuliert werden. In Kombination mit weiteren Messmethoden, wie die Messung der Muskelaktivität (EMG) und der Gangkinematik, kann so ein tieferes Verständnis des menschlichen Gangbildes gewonnen werden.
Estimation and projecting total steel industry production costs from 2019 to 2030 for Germany
(2023)
This thesis analyses the total production cost of the German steel industry from 2019 to 2022, as well as a projection of the German steel industry's total production cost until 2030. The research separates the costs of steel production into their primary components, such as raw materials, energy, CO2 cost, capital expenses and operating expenses. The cost of steel production is determined separately for primary steelmaking with the blast furnace and basic oxygen furnace (BF-BOF) and secondary steelmaking with the electric arc furnace (EAF).
The analysis indicates that, following the COVID-19 disaster and the fuel crisis, the overall cost of producing steel in Germany has progressively risen over the previous few years, reaching its peak in the first half of 2022. In addition, there are considerable disparities between the production costs of primary and secondary steelmaking processes, with primary steelmaking generally being more expensive.
In this analysis, the total cost of production for the German steel industry in the year 2030 has been estimated by taking into account historical trends as well as other predictions that are currently available.
This thesis provides overall insights on the economics of the German steel sector. By giving thorough information on production costs and changes over time, this research can assist guide crucial future investment decisions in this essential industry. To ensure long-term success, our findings emphasize the significance of investing in more sustainable and ecologically friendly steel production processes.
Das Ziel dieser Arbeit ist es, zwei unterschiedliche Bewegungserfassungssysteme zu vergleichen. Dabei wird die neue Technologie der markerlosen Bewegungserfassung mit der gängigen markerbasierten Methode verglichen. Es sollen Aspekte wie Aufbau, Vorbereitung, Durchführung, Nachbearbeitung und Messergebnisse analysiert und gegenübergestellt werden.
Im Rahmen einer Querschnittsstudie wurden insgesamt 27 Probanden bei Richtungswechsel mit unterschiedlichen Winkeln in drei verschiedenen Geschwindigkeiten gemessen. Dabei nahmen beide Systeme gleichzeitig in Verbindung mit zwei Kraftmessplatten die Bewegung auf. Von jeder Geschwindigkeit wurden drei gültige Durchläufe aufgezeichnet und anschließend das Knieabduktionsmoment betrachtet. Über das maximale und minimale Knieabduktionsmoment hat für jeden Winkel und Geschwindigkeit ein Vergleich der beiden Systeme stattgefunden.
Aufbau, Vorbereitung und Durchführung des markerlosen Systems erwiesen sich als deutlich einfacher und reibungsloser. Bei dem markerbasierten System ging viel Zeit für die Systemkalibrierung, das Aufkleben von Markern oder das Wiederholen der Messung durch abfallende Marker verloren. Auch die Datennachbearbeitung ist bei dem markerbasierten System deutlich zeitaufwendiger. Die markerlosen Daten werden allerdings fix ausgegeben und können bei auftretenden Fehlern nicht bearbeitet werden.
Die beiden Systeme wurden zum Schluss anhand des gemessenen Maximums und Minimums des Knieabduktionsmoments verglichen. Insgesamt messen die beiden Systeme durchschnittlich ein unterschiedliches Maximum von 0,2 +- 0,33, bei dem Minimum lag die gesamte durchschnittliche Differenz der beiden Systeme bei -0,34 +- 0,65. Das markerlose System zeigte durchschnittlich höhere Maxima und niedrigere Minima als das markerbasierte System auf. Durch die teilweise starken Messunterschiede und auftretenden Messfehler des markerlosen Systems, sollten die Messergebnisse des Knieabduktionsmoments zur Beurteilung von Rupturen des vorderen Kreuzbandes kritisch hinterfragt werden.
To improve the building’s energy efficiency many parameters should be assessed considering the building envelope, energy loads, occupation, and HVAC systems. Fenestration is among the most important variables impacting residential building indoor temperatures. So, it is crucial to use the most optimal energy-efficient window glazing in buildings to reduce energy consumption and at the same time provide visual daylight comfort and thermal comfort. Many studies have focused on the improvement of building energy efficiency focusing on the building envelope or the heating, ventilation, and cooling systems. But just a few studies have focused on studying the effect of glazing on building energy consumption. Thus, this paper aims to study the influence of different glazing types on the building’s heating and cooling energy consumption. A real case study building located under a semi-arid climate was used. The building energy model has been conducted using the OpenStudio simulation engine. Building indoor temperature was calibrated using ASHRAE’s statistical indices. Then a comparative analysis was conducted using seven different types of windows including single, double, and triple glazing filled with air and argon. Tripleglazed and double-glazed windows with argon space offer 37% and 32% of annual energy savings. It should be stressed that the methodology developed in this paper could be useful for further studies to improve building energy efficiency using optimal window glazing.
Vergleich eines iOS-basierten zu einem markerbasierten System zur dreidimensionalen Bewegungsanalyse
(2023)
Die iOS-basierte Methode zur dreidimensionalen Bewegungsanalyse wird mithilfe von OpenCap durchgeführt. OpenCap ist eine Open-Source-Software, die laut Hersteller eine gute Alternative zu herkömmlichen Methoden der Bewegungsanalyse sein soll. Durch eine verständliche Menüführung, geringe Anschaffungskosten und ohne Notwendigkeit von Fachpersonal, soll hiermit eine großflächigere Anwendung von dreidimensionalen Bewegungsanalyse gegeben werden. (Uhlrich et al., 2022) Um diese Hypothese zu belegen wurde im Rahmen dieser Bachelorthesis eine kleine Studie mit 12 Probanden durchgeführt. Diese waren hauptsächlich Freiwillige der Hochschule Offenburg und sowohl männlich (7/12 Probanden) als auch weiblich (5/12 Probanden). Das Alter lag bei 25,76 ±5,08 Jahre, die Größe betrug 1,73 ±0,08 Meter und das Gewicht 69,38 ±7,12 Kilogramm. Die Probanden wurden zum Vergleich mit zwei verschiedenen Methoden zur dreidimensionalen Bewegungsanalyse (OpenCap und markerbasierter) und bei zwei verschiedenen Sprungformen, aufgenommen.
Anschließend wurden die Ergebnisse der Gelenkwinkel für Hüfte und Knie der rechten Körperhälfte der Probanden betrachtet. Dabei fiel auf, dass die gemessenen Werte von OpenCap, für Hüfte und Knie verschieden stark von den markerbasierten Werten abwichen. Die Differenz der Hüftflexionswinkel, zwischen den beiden Messmethoden, war um einiges größer als die ermittelte Differenz der Knieflexionswinkel. Diese lag beim Counter Movement Jump (CMJ) für die Hüfte bei 8,01° ±10,89° und für das Knie bei -0,9° ±3,22°. Beim Drop Jump (DJ) ergaben die Differenzen für die Hüfte 15,91° ±12,35° und für das Knie 3,03° ±2,59°. Außerdem wichen die Ergebnisse auch von der Studie der OpenCap Erfinder ab, die mit einem mittleren absoluten Fehler von 4,5°, die App anpriesen. (Uhlrich et al., 2022)
Der Vergleich zeigte somit das OpenCap eine gute Alternative zur Messung offensichtlicher Körpersegmente oder Bewegungen, wie beispielsweise dem Knie, sein kann. Für Messungen der Hüftpartie eignet es sich derzeitig, aufgrund seiner Ungenauigkeit, weniger.
Um den Erfolg einer Operation zu beurteilen, werden in klinischen Untersuchungen häufig Fragebögen genutzt. Ziel dieser Arbeit ist es, herauszufinden, ob es einen Zusammenhang zwischen subjektiven Outcome-Scores der Fragebögen und biomechanischen Parametern gibt. Die Forschungsfrage lautet: „Reicht ein Fragebogen zur Beurteilung des Operationserfolges oder sind weitere objektive Untersuchungen von Nutzen.
Um dies zu beantworten, wurde eine Querschnittsstudie mit elf Probanden durchgeführt. Diese mussten vor zwölf Monaten mit einer Hüft-Totalendoprothese versorgt worden sein. Die Probanden mussten verschiedene Fragebögen ausfüllen, anschließend wurde eine Ganganalyse mittels Optogait durchgeführt und die Maximalkraft mit dem Multifunktionalen Diagnostikgerät ermittelt. Die Ergebnisse der Fragebögen wurden mit den biomechanischen Parametern auf eine statistische Korrelation überprüft.
Die Studie hat gezeigt, dass es zwischen einigen Unterkapiteln der Fragebögen und den biomechanischen Parameter moderate bis starke statistisch signifikante Korrelation gibt. Jedoch nicht mit allen Parametern und nicht in der Gesamtbetrachtung der Fragebögen.
Dies zeigt, dass es zwar Zusammenhänge zwischen subjektiven Outcome-Scores und biomechanischen Parametern gibt, diese aber nur einen groben Eindruck des Operationserfolges widerspiegeln. Für eine Beurteilung reicht ein Fragebogen alleine damit nicht aus, und man sollte biomechanische Parameter zusätzlich nutzen.
Ziel der vorliegenden Arbeit ist das netzdienliche Betreiben einer Wärmepumpe. Um diese Netzdienlichkeit zu erreichen, wird ein modellprädiktiver Regler entwickelt und implementiert, dessen Ziel es ist die Stromkosten einer Wärmepumpe zu senken. Dazu werden die Variablen Stromkosten und ein simulierter Heizbetrieb betrachtet.
Die Entwicklung eines modellprädiktiven Reglers setzt zunächst eine Modellierung der Komponenten des Heizsystems voraus. Ebenfalls muss eine Kostenfunktion formuliert werden, die es zu minimieren gilt. In einem Optimierungsproblem werden die Modelle als Randbedingungen und die Kostenfunktion als Zielfunktion der Optimierung formuliert. Dazu müssen gewisse Vereinfachungen getroffen werden, um das Optimierungsproblem zuverlässig und ohne enormen Rechenaufwand in einer Regelungsschleife lösen zu können.
Nun wird das Optimierungsproblem mit externen Modulen verknüpft, die eine Kommunikation mit der realen Wärmepumpen, Strompreisprognosen und Wettervorhersagen ermöglichen. Der dabei entwickelte Algorithmus wird auf einem Raspberry Pi Einplatinencomputer gespeichert und dort in einem regelmäßigen Zeitintervall von 15 Minuten ausgeführt, um den Betrieb der Wärmepumpe zu regeln.
Schließlich wird der modellprädiktive Regler in Betrieb genommen. Anschließend kann der modellprädiktive Betrieb mit dem konventionellen Betrieb verglichen werden. Aus dem Vergleich wird deutlich, dass eine modellprädiktive Regelung tatsächlich die Netzdienlichkeit einer Wärmepumpe verbessern kann. Andererseits werden auch die Entwicklungspotentiale identifiziert.
Diese Bachelorarbeit befasst sich mit der Konstruktion eines Testgerätes zur Untersuchung der Schuh-Fuß und Schuh-Bodeninteraktion beim Speerwurf. Zu Beginn wird eine kurze Einleitung zu den Grundlagen des Speerwurfs gegeben, sowie ein vergleichbares Gerät der technischen Universität Dänemark vorgestellt. Anschließend werden verschiedene Möglichkeiten zum Antrieb der Aktuatoren vorgestellt und diskutiert. Der finale Entwurf besteht aus einer Rahmenkonstruktion aus Aluminiumprofilschienen, einer Boden- und Kraftmessplatte, einer Schuhleiste, welche an mehreren Gelenken gelagert ist und so verschiedene Stellungen des Fußes nachahmen kann, einem Normzylinder, der einen Stoß auf die zu untersuchende Schuhleiste ausführt, und einem Linearantrieb, der die Schuhleiste auf die Kraftmessplatte drückt und so für Halt sorgt.
This paper presents a framework for numerical building validation enhancement based on detailed building specifications from in-situ measurements and evidence-based validation assessment undertaken on a detached sustainable lightweight building in a semi-arid climate. The validation process has been undergone in a set of controlled experiments – a free-float period, and steady-state internal temperatures. The validation was conducted for a complete year with a 1-min time step for the hourly indoor temperature and the variable refrigerant flow (VRF) energy consumption. The initial baseline model was improved by three series of validation steps per three different field measurements including thermal transmittance, glazing thermal and optical properties, and airtightness. Then, the accurate and validated model was used for building energy efficiency assessment in 12 regions of Morocco. This study aims to assess the effect of accurate building characteristics values on the numerical model enhancement. The initial CV(RMSE) and NMBE have improved respectively from 14.58 % and −11.23 %–7.85 % and 1.86 % for the indoor temperature. Besides, from 31.17 % to 14.37 %–20.57 % and 9.77 % for energy consumption. The findings demonstrate that the lightweight construction with the use of a variable refrigerant flow system could be energy efficient in the southern regions of Morocco.
The variable refrigerant flow system is one of the best heating, ventilation, and air conditioning systems (HVAC) thanks to its ability to provide thermal comfort inside buildings. But, at the same time, these systems are considered one of the most energy-consuming systems in the building sector. Thus, it is crucial to well size the system according to the building’s cooling and heating needs and the indoor temperature fluctuations. Although many researchers have studied the optimization of the building energy performance considering heating or cooling needs, using air handling units, radiant floor heating, and direct expansion valves, few studies have considered the use of multi-objective optimization using only the thermostat setpoints of VRF systems for both cooling and heating needs. Thus, the main aim of this study is to conduct a sensitivity analysis and a multi-objective optimization strategy for a residential building containing a variable refrigerant flow system, to evaluate the effect of the building performance on energy consumption and improve the building energy efficiency. The numerical model was based on the EnergyPlus, jEPlus, and jEPlus+EA simulation engines. The approach used in this paper has allowed us to reach significant quantitative energy saving by varying the cooling and heating setpoints and scheduling scenarios. It should be stressed that this approach could be applied to several HVAC systems to reduce energy-building consumption.
Energy efficiency and hygrothermal performance of hemp clay walls for Moroccan residential buildings
(2023)
Hemp-based building envelopes have gained significant popularity in developed countries, and now the trend of constructing houses with hemp-clay blocks is spreading to developing countries like Morocco. Investigating the hygrothermal behavior of such structures under actual climate conditions is essential for advancing and promoting this sustainable practice. This paper presents an in-depth experimental characterization of a commercial hemp-clay brick that has been exposed to the outdoor environment for four years, in addition to field measurements on a building scale demonstration prototype. Additionally, the study simulates 17 representative cities to assess the hygrothermal performance and energy-saving potential in each of Morocco's six existing climate zones, using the EnergyPlus engine. The experimental campaign's findings demonstrate excellent indoor air temperature and relative humidity regulation within the hemp-clay wall building, leading to satisfactory levels of thermal comfort within hemp-clay wall buildings. This is attributed to the material's good thermal conductivity and excellent moisture buffering capacity (found to be 0.31 W/mK and 2.25 g/m2%RH), respectively). The energy simulation findings also point to significant energy savings, with cooling and heating energy reductions ranging from 27.7% to 47.5% and 33.7% to 79.8%, respectively, as compared to traditional Moroccan buildings.
Given the looming threats of climate change and the rapid worldwide urbanization, it is a necessity to prioritize the transition towards a carbon-free built environment. This research study provides a holistic digital methodology for parametric design of urban residential buildings with regard to the Mediterranean semi-arid climate zone of Morocco in the early design phase. The morphological parameters of the urban residential buildings, namely the buildings’ typology, the distance between buildings, the urban grid’s orientation, and the window-towall ratio, are evaluated in order to identify the key combinations of passive and active solar design strategies that determine the high energy performing configurations, based on the introduced Energy Performance Index (EPI), which is the ratio between solar BIPV production to maximum available installed BIPV capacity and the normalized thermal energy needs. Through an automated processing of 2187 iterations via Grasshopper, we simulate daylight autonomy, indoor thermal comfort and solar rooftop photovoltaic and building integrated photovoltaic (BIPV) energy potential. Then, we analyze the conflicting objectives of energy efficiency measures, active solar design strategies, and indoor visual comfort in the decision-making process that supports our goal of getting closer to net zero urban residential buildings. The digital workflow showed interesting trends in reaching a balanced equilibrium between performance metrics influenced by the contrasting impact of solar exposure on indoor daylight autonomy and thermal energy demand. Furthermore, the study’s findings indicate that it is possible to achieve an annual load match exceeding 66,56 % while simultaneously ensuring an acceptable visual indoor comfort (sDA higher than 0.4). The findings also highlight the important role of the BIPV system in shifting towards the net zero energy goal, by contributing up to 30 % of the overall solar energy output and covering up to 20 % of the yearly self-consumption. Moreover, the energy balance evaluation on an hourly basis indicates that BIPV system notably enhances the daily load cover factor by up to 5.5 %, particularly in the case of slab SN typology, throughout the different seasons. Graphical representations of the yearly, monthly and hourly load matches and the hourly energy balance of the best performing configurations provide a thorough understanding of the potential evolution of the urban energy system over time as a result of the gradual integration of active solar electricity production.
The purpose of this master's thesis was to set up a test bed for the absorption of chemical compounds by carbon-based sorbents and polymers and to develop a method for the detection of these substances applied by liquid chromatography.
The study made it possible to demonstrate the effectiveness of both polymers and biochars sorbents for the adosorption of specific substances. The results obtained open new paths on the study of biochar for the treatment of contaminated water. Some biochars made from plant-based materials have been shown to be almost as effective as commercial products used in plants. The developed chromatography method allows efficient separation of substances and their detection.
Self-sufficient enzymes belong to the cytochrome P450 (CYP) group and are known for their superior hydroxylation catalytic activity. In the pursuit of identifying new pesticides to combat antimicrobial-resistant pathogens, we employed BM3 wild type (BM3-WT), the fastest monohydroxylating CYP, along with its seven homologs, to investigate the production of potential hydroxylated derivatives from the established pesticide, 4-oxocrotonic acid using high-pressure liquid chromatography (HPLC) method. Following the recombinant production of BM3-WT and three other homologs in E. coli, and their subsequent purification using Immobilized Metal Affinity Chromatography (IMAC), a novel enzyme assay approach was developed as a substitute for the carbon monoxide (CO) assay. This new method relied on the measurement of NADPH consumption at 340 nm by BM3-WT for palmitic acid. Leveraging this established technique, we explored the substrate specificity of BM3-WT and its homologs not only on palmitic acid but also on other structurally similar compounds, including 4-oxocrotonic acid. The results obtained from the established NADPH assay indicate that all tested enzymes displayed greater catalytic activity on 4-oxocrotonic acid in comparison to other substrates with similar structures. However, the impact of BM3-WT and its homologs on 4-oxocrotonic acid varied in terms of product specificity. Enzymes such as Poh, Trr and Bas-CYP D exhibited specificity in producing solely monohydroxylated products, while others tended to yield dehydroxylated and ketol metabolites.
Rupturen des vorderen Kreuzbandes werden meist mit einer Kreuzbandplastik-Operation wiederhergestellt. Bei einer gängigen OP-Methode wird hierbei Sehnenmaterial am Semitendinosus-Muskel entnommen, und mit diesem gewonnenen Sehnenmaterial das Kreuzband rekonstruiert. Dies hat zur Folge, dass es zu neuromuskulären Defiziten und dem Verhalten der Co-Kontraktion von Quadrizeps und Hamstrings kommen kann. Weitere Folgen sind Muskelschwäche und ein weniger flektiertes Verhalten in der Stützphase beim Gehen am operierten Bein. Das Auftreten von Co-Kontraktion beim Laufen ist im Zusammenhang mit einer expliziten Co-Kontraktionsberechnung noch nicht ausreichend untersucht worden. Auch ist unklar, welchen Einfluss die Kraftfähigkeiten auf Co-Kontraktion und Gelenkwinkel haben. In dieser Studie soll untersucht werden, inwieweit diese Effekte auch bei der Bewegung des Laufens auftreten. Mögliche Zusammenhänge zwischen Kraft/Co-Kontraktion und Kraft/Kniegelenkswinkel werden ebenfalls untersucht. Die Ergebnisse sollen einen Beitrag zum Verständnis der Mechanismen und damit auch zur Verbesserung der Rehabilitationsprozesse leisten. Im Rahmen von „Return to Sport“ Messungen wurden im IFD Colgone über einen Zeitraum von zwei Jahren „Return to Sport“ Messungen durchgeführt und relevante biomechanische Parameter erfasst. Die Untersuchungen fanden im Durchschnitt sieben Monate nach der Kreuzbandoperation statt. Innerhalb der Studie wurden 26 Patientendaten ausgewertet. Die Co-Kontraktion wurde durch Auswertung der EMG-Daten mit Hilfe einer Formel bestimmt. Die Patienten zeigten unabhängig vom Geschlecht signifikant erhöhte Co-Kontraktionswerte, reduzierte Kniegelenkswinkel und reduzierte Kraftfähigkeiten am operierten Bein. Dabei konnten die erhöhten Co- Kontraktionswerte als auch weniger flektierte Kniewinkel nicht bei allen Patienten der Stichprobe auf deren schlechte Kraftfähigkeit zurückgeführt werden. Hier gab es leichte Zusammenhänge aber keine signifikanten Ergebnisse. Da Co-Kontraktion als auch reduzierte Kniegelenkswinkel mit unterschiedlichsten Problemen in Verbindung gebracht werden können, sollte daran mit Hilfe von angepassten Reha- Maßnahmen gearbeitet werden. Rehabilitationsprozesse sollten verschiedene Kraft- und Koordinationsfähigkeiten fördern, mit dem Ziel, das neuromuskuläre Zusammenspiel zu verbessern.
Ziel dieser Studie war es, Zusammenhänge zwischen Kinematik und Kraftanforderungen an den Ringen im Gerätturnen zu ermitteln. Zu diesem Zweck wurde das Schwung- und Krafthalteelement Stemme rückwärts zum Kreuzhang gewählt und analysiert.
Die Datenerhebung erfolgte im Rahmen der Europameisterschaften 2022 in München. Für die Analyse der Kraftanforderungen wurde die vertikale Kraft in den Aufhängungen der Ringe mit eindimensionalen Kraftsensoren gemessen und für die Analyse der Kinematik ein markerloses Bewegungserfassungssystem eingesetzt.
Insgesamt wurden die Ausführungen von 17 professionellen Turnern untersucht. Für die Analyse der Kinematik wurden vier Ausführungsparameter bestimmt und deren Einfluss auf den Kraftbedarf statistisch analysiert, wobei die Kraftdaten auf das jeweilige Körpergewicht normiert wurden und das relative Kraftmaximum als Bezugspunkt für den Kraftbedarf gewählt wurde. Bei den vier Ausführungsparametern handelte es sich um die maximale Körpervorneigung während des Rückschwungs vor der Stemmbewegung des Elementes, den minimalen Arm-Rumpf-Winkel (ARW) während des Elementverlaufs, die höchste Position des Körperschwerpunktes (KSP) während des Elementverlaufs und die Distanz, um die der KSP von der höchsten Position in den Kreuzhang absinkt.
Es zeigte sich eine signifikante Korrelation zwischen der höchsten KSP-Position und dem Kraftmaximum. Für die anderen Ausführungsparameter konnten Tendenzen ermittelt werden. Darüber hinaus konnten die Korrelationen der Parameter untereinander zu zwei Ausführungsvarianten zusammengefasst werden. Dabei führt eine Ausführungsvariante zu einem größeren relativen Kraftmaximum und zu größeren Abzügen als die anderen. Die biomechanische Betrachtung dieser Ausführungsvarianten ergab jedoch, dass die Ausführungsvariante mit dem größeren mittleren Kraftmaximum dennoch leichter auszuführen ist, während die andere Ausführungsvariante in der Durchführung anspruchsvoller ist und besser bewertet wird.
This thesis deals with the FEV centrifugal compressor teststand at Offenburg University of Applied Sciences. The teststand has two electrically operated compressorunits from the Rotrex company, on which students can gain practical experience. The range of application of the teststand is to be extended, so that different impeller geometries can be tested with otherwise unchanged construction. To realise this, knowledge about the operating behaviour of the volute and possible design solutions for the interface between the impeller and the gearbox are required. Using numerical methods for flow analysis, the operating range of the volute was determined by narrowing down the inlet conditions. Furthermore, research was carried out on common couplings, three different coupling concepts were worked out and compared with each other. This work does the preliminary work and thus lays the foundation for the implementation of the upcoming series of tests on the operating behaviour of different impeller geometries.
Das Ziel dieser Arbeit war es zu prüfen, ob bei der Verwendung von Perturbationen in einem Laufschuhvergleich eine Adaptations-Phase im Voraus durchgeführt werden sollte, um den Einfluss potenzieller Adaptationseffekte zu reduzieren. Dafür absolvierten die acht Probanden insgesamt 15 Perturbationen auf einem Laufband, welche sich durch die kurzzeitige Beschleunigung des Laufbands von 2,5 𝑚/𝑠 auf 3,5 𝑚/𝑠 kennzeichneten. Anschließend wurden aus den normalisierten Daten die initialen Gelenkswinkel bei Bodenkontakt im Knie und Sprunggelenk, die minimale bzw. maximale Bodenreaktionskraft in x- bzw. z-Richtung und die Bodenkontaktzeit bestimmt. Um sowohl potenzielle Vorwärtssteuerungen als auch Feedbackbezogene lokomotorische Anpassung zu berücksichtigen, wurden die zwei Schritte vor der Perturbation, der perturbierte Schritt und die drei Schritte nach der Perturbation analysiert. Neben deskriptiver Statistik wurden die einzelnen Schritte mittels Varianzanalyse und paarweisen t-Tests aufeinanderfolgender Trials untersucht. Der initiale Sprunggelenkswinkel zeigt zwar einen Einfluss der Perturbationen im zweiten und dritten Schritt nach der Perturbation, aber es lässt sich keine Anpassung im Verlauf der Messung feststellen. Auch bei der Bodenkontaktzeit lassen sich Unterschiede in den Messwerten und zwischen den Schritten finden, diese können allerdings ebenfalls nicht der Adaptation zugeordnet werden. Die Entwicklung der Mittelwerte und signifikante Ergebnisse in ANOVA und t-Tests deuten beim initialen Kniewinkel für den zweiten und dritten Schritt nach der Perturbation auf eine sukzessive Anpassung des Parameters an den Einfluss der Störung hin, welche nach acht Perturbationen abgeschlossen ist. Für die minimale Bodenreaktionskraft in x-Richtung (Bremskraft) befinden sich die Daten dagegen bereits nach einem Trial auf einem stabilen Niveau, wobei die Abweichungen hier ebenfalls im zweiten Schritt nach der Beschleunigung des Laufbands auftreten. Die maximale vertikale Bodenreaktionskraft (z-Richtung) zeigt Tendenzen zu einer fortschreitenden Anpassung im ersten und zweiten Schritt nach der Perturbation. Hier lassen sich aufgrund des Verlaufs der Mittelwerte und signifikanter Unterschiede beim ersten Schritt sechs Trials als Mindestanzahl für eine Adaptations-Phase ausmachen. Somit konnten in drei von fünf analysierten Parameter Merkmale von Adaptationseffekten gefunden werden, die sich alle in den Schritten nach der Perturbation zeigten und somit Feedbackbezogener Anpassung zuzuordnen sind. Sofern alle Parameter in der anschließenden Messung verwendet werden, sollten in der Adaptations-Phase mindestens acht Perturbationen durchgeführt werden, damit der Einfluss von Anpassungseffekten im Vergleich vernachlässigbar ist.
Das Ziel der vorliegenden Arbeit war es, den Kopplungskoeffizienten (KK) zwischen der Calcaneus Inversion/Eversion und der Tibia Innen-/Außenrotation zu ermitteln. Dabei wurde die Bewegung beim Barfußlaufen ohne Tape, mit frischem Tape und gebrauchtem Tape verglichen.
Die Durchführung erfolgte mit Hilfe eines markerbasierten Kamerasystems von Qualisys (Qualisys AB, Göteborg, Schweden). Diese Studie wurde mit 10 Probanden (Männer: 5; Frauen: 5, Alter: 24,3 ± 1,49 Jahre) durchgeführt. Zu Beginn wurde die Sprunggelenksstabilität der Probanden getestet, da Probanden mit einer Instabilität nicht miteingeschlossen werden sollten. Die Aufgabe bestand darin, barfuß unter drei Bedingungen (ohne Tape, mit frischem Tape, mit gebrauchtem Tape) mit einer Geschwindigkeit von 4,5 m/s zu laufen. Jede Bedingung hatte drei Durchgänge.
Die Auswertung wurde mit Hilfe von Matlab und statistischer Analyse durchgeführt. Matlab führte die Berechnung des KK zwischen Calcaneus Inversion/Eversion und der Tibiarotation aus. Die statistische Analyse beschrieb die Signifikanz der Werte.
Die Ergebnisse zeigten, dass der KK einen signifikanten Anstieg vom Barfußlaufen ohne Tape zum Laufen mit frischem und gebrauchtem Tape aufwies. Der KK ohne Tape lag bei 0,98 ± 0,38, bei frischem Tape von 1,28 ± 0,42 und bei gebrauchtem Tape bei 1,3 ± 0,42.
Zusammenfassend kann gesagt werden, dass eine signifikante Veränderung des KK bei getaptem Sprunggelenk besteht. Dadurch kann es zu einer verstärkten Rotation der Tibia kommen, was zu einer Überlastung der Strukturen des Kniegelenks und damit zu Knieverletzungen führen kann.
Hintergrund der Studie ist die Annahme, dass das Tragen von Barfußschuhen einen positiven Effekt auf die Gleichgewichtsfähigkeit eines Menschen hat und somit präventiv das Sturzrisiko vermindern kann. Ziel der Studie ist daher, einen Zusammenhang zwischen der Zehenfreiheit und der Gangsicherheit festzustellen. Zu diesem Zweck werden anhand einer Ganganalyse mit dem GRAIL-System, der Firma Motek Medical, das Laufverhalten von 23 Probanden in drei verschiedenen Schuhkonditionen (schmale Barfußschuhe, breite Barfußschuhe und getapte Zehen in Barfußschuhen) untersucht. Pro Perturbationsdurchgang werden jeweils fünf Gangzyklen vor und nach der Perturbation aufgenommen. Betrachtet werden die Kokontraktionswerte ausgewählter antagonistischer Muskelpaare des Ober- und Unterschenkels. Diese werden während der fünf Gangzyklen vor den einzelnen Perturbationen mittels EMG (Elektromyographie )-Sensoren gemessen. Die Ergebnisse zeigen, dass das einmalige Tragen von Barfußschuhen und somit die kurzfristige Veränderung der Zehenfreiheit keinen signifikanten Einfluss auf die Kokontraktionswerte und somit auf die Gleichgewichtsfähigkeit hat. Lediglich beim langfristigen Tragen von Barfußschuhen wiesen die Ergebnisse leichte Tendenzen in Richtung einer Erhöhung der Gleichgewichtsfähigkeit auf. Daraus lässt sich ein Trainingseffekt der Barfußschuhe auf den menschlichen Körper ableiten, der langfristig zu einer Verbesserung der Gangsicherheit führt. Da diese Ergebnisse jedoch nicht signifikant sind, muss diese Annahme erst durch weitere Studien geprüft werden. Einen tatsächlich signifikanten Einfluss hatte hingegen der Lerneffekt, der sich während des Versuchsablaufs bei den Testpersonen einstellte, auf die Kokontraktionswerte. Hierbei zeichnet sich eine annähernd exponentiell fallende Kurve im Verlauf der Messungen ab. Interessant ist dabei, dass dies auch für die Baseline zutraf, also auf die Referenzmessung ohne Perturbationen. Dies deutet darauf hin, dass die Probanden nicht primär wegen der Perturbationen in einer angespannten bzw. vorbereiteten Haltung waren, sondern aufgrund des ihnen unbekannten Untergrunds, dem perturbationsfähigen Laufband. Bei zukünftigen Studien sollte daher für aussagekräftige Ergebnisse eine stärkere Eliminierung des Lerneffekts geachtet werden.
Die vorliegende Pilotstudie untersucht die Anwendbarkeit von Mixed Reality zur Applikation eines externen Fokus während spezifischen Bewegungsaufgaben mit dem Ziel der Verbesserung des Return to Sport Testings. In einem ersten Schritt nahmen daher 9 gesunde FußballerInnen an der Studie teil.
Es wurden Sprünge mittels der speziell entwickelten Mixed Reality Anwendung MotumXR, in drei verschiedenen Bedingungen verglichen. Die erste Bedingung entspricht einem standardisierten vertikalen Sprung ohne spielspezifischen externen Fokus, während die zweite und dritte Bedingung einen Sprung mit spielspezifischem externem Fokus, im Sinne eines simulierten Kopfballs, darstellt. Bedingung zwei und drei unterscheiden sich in der Position der einwerfenden Person, welche den virtuellen Ball leicht versetzt von links oder rechts einwirft. Als Sprungform wurde der Counter Movement Jump gewählt. Es wurden kinetische und kinematische Parameter ermittelt, die es ermöglichen, die Auswirkungen des externen Fokus auf die Sprungbewegung zu erfassen.
Die Ergebnisse zeigen signifikante Unterschiede zwischen den Bedingungen in folgenden biomechanischen Parametern: Absprungzeit, vertikale maximale Bodenreaktionskraft, maximale Kraftanstiegsrate, maximaler Knieflexionswinkel und maximales Knieflexionsmoment. Die Kopfballsituation mit externem spielspezifischem Fokus weißen höhere maximale vertikale Bodenreaktionskräfte und gesteigerte maximale Knieflexionsmomente auf im Vergleich zu der Bedingung des maximalen Sprungs. Diese Befunde deuten darauf hin, dass die Sprungstrategie entsprechend der Aufgabenstellung angepasst wurde und die Kopfballsituation in der Mixed Reality Umgebung eine realitätsnähere Testung ermöglichen könnte. Die Position des Einwerfers zeigt keinen Einfluss auf die Beinsymmetrie. Das deutet darauf hin, dass die Anwendung MotumXR vielversprechende Möglichkeiten für die Weiterentwicklung von RTS-Testungen bietet. Weiterführende Untersuchung, die Personen mit Kreuzbandverletzungen mit einbeziehen, sind nötig, um die Ergebnisse dieser Pilotstudie kritisch zu überprüfen.
Einfluss der Zehenfreiheit auf die dynamische Stabilität bei medio-lateralen Laufbandperturbationen
(2023)
Das Tragen von Barfußschuhen, so die These, führt zu einem natürlichen und damit gesunden Gangbild. Ein Merkmal des Barfußschuhs ist die breite Zehenbox, die eine maximale Zehenfreiheit gewährleistet. In dieser Studie wurde der Faktor Schuhweite hinsichtlich seines Einflusses auf die Gangstabilität untersucht. Mit dem GRAIL-System wurden 28 Probanden in jeweils vier Schuhkonditionen (Wash out = eigene Schuhe, schmal, breit, Tape) und 3 Trials (Baseline, Perturbations, Simulated Inebriation) mittels Motion Tracking erfasst. Die Gangstabilität wurde anhand von 𝑀𝑜𝑆 (𝑀𝑎𝑟𝑔𝑖𝑛 𝑜𝑓 𝑆𝑡𝑎𝑏𝑖𝑙𝑖𝑡𝑦), 𝑃𝑜𝐼 (𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡𝑦 𝑜𝑓 𝐼𝑛𝑠𝑡𝑎𝑏𝑖𝑙𝑖𝑡𝑦), Schrittbreite und Schrittdauer beurteilt.
Es konnte kein signifikanter Einfluss der Schuhweite auf die Gangstabilität festgestellt werden. Dagegen ist das Alter ein signifikanter Einflussfaktor (ältere Probanden gehen weniger sicher) sowie die Art des Trials (simulated Inebriation ist am unsichersten). Zusätzlich wurden die Probanden in eine BX (Barefoot Experienced) und eine BUX (Barefoot Unexperienced) Gruppe eingeteilt, um zu untersuchen, ob es einen Unterschied macht, ob ein Proband in der Vergangenheit bereits Barfußschuhe getragen hat. Im Vergleich zur BUX-Gruppe war das Gangbild der BX-Gruppe durch folgende Merkmale gekennzeichnet: kürzere Schrittdauer, breitere Schritte und niedrigere 𝑃𝑜𝐼-Werte (in den Barfußschuhen).
Es kann vermutet werden, dass Personen mit Barfußschuherfahrung in einer neuen Schuhkondition sicherer gehen, weil sie unabhängiger vom Schuh sind. Dies könnte darauf zurückzuführen sein, dass die BX-Personen durch das Barfußlaufen stärkere Fußstrukturen entwickelt haben, die sich unabhängig vom Schuh positiv auf das Gangbild auswirken. Somit wirken sich Barfußschuhe erst langfristig positiv auf den Gang aus.
Das hocheffiziente Konzeptfahrzeug Schluckspecht VI (S6) hat im Sommer 2022 am Shell Eco Marathon als bestes Neufahrzeug abgeschlossen. Dennoch war die Reichweite von 560km/kWh nicht ausreichend, um sich gegen die anderen teilnehmenden Teams zu behaupten. Daher werden am Fahrzeug die Komponenten und Systeme ermittelt, welche das meiste Optimierungspotential bergen. Hierbei stechen besonders die Aerodynamik, die Motoransteuerung und die Rollreibung hervor. Die hier vorliegende Arbeit befasst sich mit der aerodynamischen Optimierung. Zunächst gilt es herauszufinden, welche Bauteile explizit für die Aerodynamik ausschlaggebend sind. Die drei Komponenten, die maßgeblichen Einfluss haben sind: der Grundkörper, die Radkästen und die Fahrwerksflügel. Einen weiteren Einflussfaktor bergen die sich drehenden Räder, da diese jedoch weitestgehend umhaust sind, ist in dieser Hinsicht keine weitere Optimierung erforderlich. Zu Ermittlung der derzeitigen aerodynamischen Werte, vor allem cW, cWA und Geschwindigkeits- und Druckverteilung um das Fahrzeug, wird ein digitales Modell des S6 aufgebaut. An diesem Modell werden Simulationen durchgeführt, die idealisierte Kennwerte liefern. Parallel zur Simulation liefern Versuche am Fahrzeug reale Messdaten. Speziell dafür wird eine neue Versuchsmethode entwickelt: die Konstantfahrtuntersuchung. Bei dieser Untersuchung wird die Vortriebskraft des Fahrzeugs anhand des Motorstroms ermittelt, um so auf die Fahrtwiderstandswerte zu schließen. Zur Erhebung der Messdaten am Fahrzeug wird zudem ein für die Untersuchung angepasster Sensor entwickelt. Diese Untersuchungen liefern plausible Ergebnisse, die jedoch mit denen der Simulation schwer vergleichbar sind. Dies ist bedingt durch die erschwerten Randbedingungen bei der Durchführung der Versuche und beim Aufzeichnen der Messdaten auf der Teststrecke.
Das Ziel dieser Arbeit ist es, herauszufinden inwiefern der Exopulse Mollii Suit® Auswirkungen auf Menschen mit dem Krankheitsbild Multiple Sklerose hat. Genauer soll ermittelt werden, wie die Symptome Spastik und Schmerz beeinflusst werden und wie sich dies auf die Mobilität und Lebensqualität auswirkt.
Im Rahmen der Studie wurde von jedem Probanden eine qualitative Untersuchung mittels eines Fragebogens durchgeführt, um eine subjektive Einschätzung der Beeinträchtigung zu erhalten. Zusätzlich wurde eine quantitative Untersuchung mit vier Assessments durchgeführt, bei denen die Mobilität und Feinmotorik getestet wurden. Der Mollii Suit® wurde daraufhin einmalig angewendet und im Verlauf von 48 Stunden wurden die Untersuchungen wiederholt durchgeführt, um einen möglichen Verlauf und die maximalen Veränderungen zu ermitteln.
Die qualitativen Ergebnisse der Studie ergeben, dass sich bei 22,2 % der Probanden keine Veränderungen zeigten. Bei 77,8 % hingegen zeigten sich positive Auswirkungen in einer großen Variationsbreite. Am häufigsten verbesserte sich die Spastik, gefolgt von der Mobilität. Ebenso berichteten die Probanden, dass sich ihre Beweglichkeit und der Bewegungsablauf verbesserten.
Quantitativ zeigte sich eine durchschnittliche Verbesserung von 21,6 % und einer Range zwischen -1,3 % und 53,4 %.
Aufgrund dieser großen Variationsbreite bei beiden Untersuchungen kann keine genaue Aussage über das Ausmaß der Wirkung und Verbesserung getroffen werden. Es zeigt sich aber das mögliche Potential des Mollii Suit®.
Die bisherige Forschung steht noch an ihrem Anfang und benötigt, um zuverlässige Aussagen treffen zu können, größer angelegte aber auch spezifischere Studien, die die einzelnen Symptome und Wirkweisen genauer untersuchen. Die vorliegende Studie stellt einen Grundstein dar, auf dem zukünftige Studien aufbauen können.
Evaluierung der effektiven Pedalkräfte bei der von dem Smartfit System empfohlenen Sattelhöhe
(2023)
Das Smartfit System unterstützt Bikefitter der Radlabor GmbH bei den grundlegenden Einstellungen am Fahrrad. Unter anderem gibt es eine Empfehlung für die Sattelhöhe an. In dieser Arbeit wird untersucht, ob eine Abweichung von dieser Empfehlung um ± 5° des Kniewinkels in der 90° Kurbelstellung Auswirkungen auf die effektive Pedalkraft hat. Untersucht werden zehn Probanden. Drei 2-minütige Radfahrtests werden bei 90 % der maximalen Leistung gefahren, bei denen alle drei Sattelhöhen getestet werden. Die maximale Leistung wird zuvor in einem Laktat-Stufentest auf dem Ergometer ermittelt. Die effektive Pedalkraft der linken und rechten Seite wird addiert und über den Kurbelverlauf gemittelt. Die gemittelten effektiven Kräfte der drei Sattelhöhen werden anschließend miteinander verglichen. Es gibt keine signifikanten Unterschiede der effektiven Pedalkraft zwischen allen drei Sattelhöhen (p = 0,319). Die effektive Pedalkraft der tiefen Sattelhöhe (- 5° Kniewinkel) ist im Schnitt 1,6 % kleiner als die der Smartfithöhe und die effektive Kraft der hohen Sattelhöhe (+ 5° Kniewinkel) ist im Schnitt 0,16 % größer. Die Empfehlung des Smartfit Systems bietet dem Bikefitter somit Spielraum, um auf individuelle Bedürfnisse des Kunden eingehen zu können.
Die Analytik von Pflanzenkohle ist besonders im Hinblick auf einen möglichen Einsatz in der Landwirtschaft als Düngemittel Ersatz wichtig, da bei der Herstellung krebserregende polyzyklische aromatische Kohlenwasserstoffe (PAK) entstehen. Die PAK-Analytik bietet die Möglichkeit zu überprüfen und zu kontrollieren, wie viel belastetes Material auf diese Weise in die Umwelt eingeführt wird. In dieser Arbeit werden mögliche Methoden zur Extraktion und Analyse im Hinblick auf einen Schnelltest mit der bestehenden Methode bestehend aus Soxhlet-Extraktion und GC-MS Analyse verglichen. Untersucht werden die 16 EPA-PAK. Ein Schnelltest würde den Herstellern von Pflanzenkohle eine günstigere und engmaschigere Überwachung ihrer Produkte bieten.
Für die Extraktion wurden Ultraschallbad, Schüttler und Mikrowelle getestet, sowie verschiedene grüne Lösemittel als mögliche Alternativen zum momentan verwendeten Toluol. Die Extraktion mit 6 h Ultraschallbad hat mit 64% im Verhältnis zur Soxhlet am besten abgeschnitten. Bei dem Vergleich zweier Ultraschallbad-Extrakte mit den Soxhlet-Referenzen wurden jedoch 43 % und 93 % für die Summe der 16 EPA PAK gemessen. Die Methode bedarf also weiterer Untersuchungen.
Für die Analyse wurde HPTLC mit RP-18 Platten und einem Acetonitril-Wasser-Gemisch als mobile Phase getestet. Es wurden drei mögliche Methoden für die Gestaltung eines Schnelltestes getestet, ein Summenpeak mit allen 16 EPA-PAK und Naphthalin oder Benzo[a]pyren als Indikatorsubstanz. Aus diesen Versuchen geht das Standard-Additionsverfahren mit Benzo[a]pyren erfolgreich hervor, da die Ergebnisse durch die GC-MS-Analyse der gleichen Extrakte bestätigt werden konnten. Die Bestimmung von LOD und LOQ bestätigt, dass die Methode empfindlich genug ist, um den nötigen Messbereich erfassen zu können. Es wurden auch Versuche mit Coffein imprägnierten Platten durchgeführt. Diese Methode ist jedoch wegen der notwendigen Zweifachentwicklung deutlich aufwendiger und wurde daher nicht für die quantitativen Versuche gewählt.
Aluminiumgussbauteile spielen heutzutage in vielen Branchen, wie der Automobilindustrie und der Luft- und Raumfahrtindustrie eine wichtige Rolle. Sie zeichnen sich durch hohe Festigkeit und Steifigkeit bei vergleichsweise geringem Gewicht aus. Bei der Herstellung von Aluminiumgussbauteilen, kommt es prozessbedingt immer zu Defekten im Werkstoff. Mit Computer Tomographie Aufnahmen können diese Defekte zerstörungsfrei detektiert werden. Anschließend sollen die Defekte in Finite-Elemente-Methode Berechnungen berücksichtigt werden. Dies bietet einen entscheidenden Vorteil bei der Schadensvorhersage dieser Bauteile.
In dieser Masterarbeit wurde zwei Programme entwickelt, welche das Mapping von Defekten aus CT-Aufnahmen eines Aluminiumgussbauteils auf ein LS-Dyna Netz ermöglichen. Dadurch können die Defekte und damit die Porosität eines Gussbauteils in der Festigkeitsberechnung berücksichtigt und die Schadensvorhersage verbessert werden. Die Programmierung erfolgte in Python.
Das weiterentwickelte Mapping-Programm benötigt zwei Input Dateien. Zum einen wird die Defektdatei aus den CT-Aufnahmen benötigt und zum anderen ein LS-Dyna Netz. Die komplexen Defektgeometrien werden in dem Mapping-Programm vereinfacht als umschließende Kugeln um den Defekt beschrieben. Diese Vereinfachung ist aufgrund der benötigten Rechenleistung notwendig. Anschließend prüft das Mapping-Programm alle Kollisionen zwischen Elementen des FE-Netzes und den Defekten und ermittelt für jedes Element ein Schnittvolumen. Aus dem Schnittvolumen und dem Elementvolumen wird die Porosität berechnet. Die Rechenzeit für ein Bauteil mit 107379 Elementen beträgt 480 Minuten.
Ein zweites, neu entwickeltes Programm ermöglicht das Mapping der wahren Porengeometrie auf FE-Netze. Durch die optimierte Porenbeschreibung wird eine höhere Genauigkeit beim Mapping der Defekte erreicht. Die Rechenzeit beträgt bei einem Bauteil mit 107379 Elementen lediglich 15 Minuten.
Ziel dieser Masterarbeit ist es, das Mapping-Programm zu optimieren, damit es neben Hexaedern weitere Elementtypen verarbeiten kann. Darüber hinaus sollte die Porenbeschreibung verbessert werden, um genauere Ergebnisse zu erhalten. Dafür wurde ein zweites Programm mit einer verbesserter Porenbeschreibung entwickelt, dass zudem deutlich geringere Rechenzeiten benötigt.
5000er-Aluminiumlegierungen neigen bei der Umformung zur Bildung von Fließfiguren durch den PLC-Effekt. Dadurch sind die Anwendungsmöglichkeiten stark eingeschränkt, weil hohe Ansprüche an die Oberflächenqualität nicht erfüllt werden können. Der PLC-Effekt kann jedoch unter bestimmten Bedingungen unterdrückt werden, so dass das Umformpotential stark vergrößert werden kann. In dieser Arbeit wurden die Einflüsse der Dehnrate und des Dehnungszustandes auf das Auftreten des PLC-Effektes an der Legierung EN AW-5182 experimentell untersucht. Dazu wurden Versuche mit verschiedenen Dehnraten und an unterschiedlichen Probengeometrien durchgeführt. Bei den Flachzugversuchen nahm die kritische Dehnung, die Dehnung ab welcher der PLC-Effekt auftritt, im untersuchten Dehnratenbereich mit zunehmender Dehnrate zu. Ab einer nominellen Dehnrate von 5,2/s, bzw. einer von-Mises-Dehnrate von 3,4/s wurde kein PLC-Effekt mehr beobachtet. Die auftretenden PLC-Band-Typen, deren Form und Bewegung entsprach den Beobachtungen von älteren Untersuchungen ([AHZ02]) an der gleichen Aluminiumlegierung. Nur wurde damals bereits ab einer Dehnrate von 0,1/s kein PLC-Effekt mehr nachgewiesen. Als Hauptursache für diesen Unterschied wird eine andere Messtechnik oder Auswertemethode der älteren Untersuchungen vermutet. An den geprüften Proben mit PLC-Effekt waren mit bloßem Auge keine Fließfiguren zu erkennen. Zu Versuchen am ebenen Dehnungszustand mit Kerbzubproben sind keine Literaturwerte bekannt. Die Versuche zeigen, dass der PLC-Effekt dort auch auftritt und die kritische Dehnung mit zunehmender Dehnrate linear ansteigt. Ab einer von Mises-Dehnrate von 1,7/s wurde kein PLC-Effekt mehr beobachtet. Die auftretenden PLC-Bänder waren feldlinienförmig. Auch an den Scherzugproben trat der PLC-Effekt auf. Die kritische Dehnung nahm überwiegend linear mit zunehmender Dehnrate zu. Doch aufgrund nur kleiner Stufen im Dehnungs-Zeitverlauf war eine präzise Auswertung der kritischen Dehnung nicht möglich. Die PLC-Bänder waren parallel zur Hauptschubrichtung orientiert und bewegten sich nur geringfügig. Die an den Nakajima-Proben beobachteten PLC-Bänder zeigten ein deutlich anderes Verhalten als die der Zugversuche. Es traten immer mehrere PLC-Bänder gleichzeitig auf und ihrer Bewegungen waren geringer als an den Zugversuchen ähnlicher Dehnrate. Dadurch waren an den Nakajima-Proben mit PLC-Effekt mit bloßem Auge merkliche Fließfiguren zu sehen. Als Ursache für das andere Verhalten der PLC-Bänder wird der Reibkontakt zum Ziehstempel vermutet. Der PLC-Effekt nahm mit zunehmender Spannungsmehrachsigkeit stetig ab und war bei Erreichen des äquibiaxialen Spannungszustandes nicht mehr zu beobachten. In der Gesamtauswertung wurde gezeigt, dass das Umformpotential durch den PLC-Effekt stark eingeschränkt wird. Mit zunehmender Dehnrate kann das Umformpotential jedoch vergrößert werden und ab einer von-Mises-Dehnrate von etwa 3/s kann der komplette Umformbereich von EN AW 5182 ausgeschöpft werden. Die Versuchsergebnisse müssen nun noch validiert werden. Durch die anderen Bedingungen in industriellen Umformprozessen, können sich Abweichungen zu den Laborversuchen ergeben. Vor allem die Unterschiede zwischen den Zugversuchen und den Nakajima-Versuchen lassen solche Abweichungen als nicht unwahrscheinlich erscheinen.
Der Eignungsnachweis von Prüfprozessen ist sowohl für die Industrie, als auch für Forschungszwecke ausschlaggebend. Dabei sind die Genauigkeit, Präzision sowie die Messbeständigkeit der Messergebnisse von der zu untersuchenden Messeinrichtung mit statistischen Methoden auszuwerten. Mit Leitfäden wird unter einer sog. Messsystemanalyse die Fähigkeit einer Messeinrichtung mit den dazugehörigen statistischen Kennwerten beurteilt. Die Messsystemanalyse unterteilt sich in zwei Typen, wobei die Konsistenz bzw. Messdatenstreuung mit den entsprechenden Kennwerten beurteilt werden können. Unter MSA Typ 1 wird anhand Mittelwerte und Standardabweichungen von Wiederholmessungen die Konsistenz und Genauigkeit mit den Cg- bzw. Cgk-Indizes bewertet, die höher als 1,33 sein müssen, um die Messeinrichtung als fähig zu klassifizieren. Durch MSA Typ 2 wird die Präzision mit dem % R&R-Kennwert (Wiederholbarkeit & Reproduzierbarkeit) bewertet. Messeinrichtungen mit einem % R&R-Kennwert unterhalb 20 % liefern Messdaten mit einer ausreichenden Präzision, d.h. dass die Mittelwerte der Messdaten nicht signifikant voneinander unterscheiden. Die im Rahmen dieser Arbeit untersuchte akustische Messeinrichtung weist einen Cg-Index von 1, 58, einen Cgk-Index von 2, 13 und einen % R&R-Wert von 6, 56 % auf, weshalb die Messdaten mit einer hohen Konsistenz und Präzision erfasst werden.
Die vorliegende Bachelor-Arbeit entstand bei der Robert Bosch GmbH und befasst sich mit der Untersuchung elektrischer Antriebe, dessen Leistungsverhalten mithilfe des Rotormagnetfeldes bestimmt werden. Sie ist Bestandteil des Projektes „MagCam - Examination“ und beinhaltet als Hauptaufgabe die Rastmoment (engl. cogging torque) -Messung an elektrischen Antrieben mithilfe des intelligenten Messsystems „MagCam“. Anhand der Messung des Rotormagnetfeldes wurde das Rastmoment des elektrischen Motors quantifiziert und dessen Ursachen auf der Bauteilebene identifiziert.
Erstellung eines Zuverlässigkeitskonzepts für die Welle-Nabe-Verbindung kleiner Elektromotoren
(2023)
Die vorliegende Arbeit beschäftigt sich mit der Erstellung eines Zuverlässigkeitskonzepts für die Welle-Nabe-Verbindung mit gekerbten Wellen, die innerhalb kleiner Elektromotoren für unterschiedliche Anwendungen mit spezifischen Anforderungen eingesetzt werden. Die Arbeit kann in vier Schritte unterteilt werden.
Im ersten Schritt werden die relevanten Schädigungsmechanismen bestimmt, die während der Betriebszeit der Verbindung für ein Ausfall der Baugruppe sorgen können.
Anschließend wurde aus der Baukastenannahme des Geschäftsbereichs Electrical Drives der Robert Bosch GmbH die Anforderungen an die jeweilige Ausführung abgeleitet und aufgeführt.
Um zu überprüfen, ob die eingesetzten Welle-Nabe-Verbindung die entstehenden Belastungen übersteht, wurde anschließend ein Berechnungskonzept durch Anpassungen an die spezielle eingesetzte Welle-Nabe-Verbindung erstellt, wodurch der Anwender die Möglichkeit hat, die zu erwartenden Fügekräfte bei der Herstellung der Verbindung, sowie das jeweilige übertragbare Drehmoment.
Im letzten Schritt werden die gesammelten berechneten Ergebnisse mit bereits vorhandenen Versuchsdaten der Ausführungen mit Einsatz einer 8 mm Welle aus C60 +C und einer Kerbanzahl von 8 symmetrisch angeordneten Kerben und einer Paketlänge von 18 mm , sowie einer Ausführung mit 8 mm Wellen aus C45 +AC, die lokal induktiv vergütet wurden, mit einer Kerbanzahl von 4 symmetrischen Kerben mit einer Paketlänge von 23 mm verglichen und evaluiert.
Ziel dieser Arbeit ist die Modellierung und Nutzung eines digitalen Zwillings am Beispiel eines realen Tiny-Houses. Dazu werden für die Komponenten der technischen Gebäudeausrüstung Wärmepumpe, thermische Speicher, thermoaktives Bauteilsystem, PVT-Kollektoren und Batterie als Grey-Box-Modelle modelliert und in der Python-Umgebung umgesetzt. In dieser Arbeit wird auf die physikalischen Hintergründe und mathematischen Formulierungen für jede Komponente eingegangen.
In einem automatisierten Programm werden die digitalen Komponenten mit Messwerten aus dem realen Anlagenbetrieb verknüpft. Dieses Skript wird zu Fehlererkennung verwendet. Dabei konnte ein fehlerhafter Betrieb der PVT-Kollektoren bewiesen werden.
Die Verknüpfung der einzelnen Komponenten zum digitalen Zwilling wird zur Betriebsoptimierung verwendet. Hierzu wird die Simulation des Ausgangszustands mit verschiedenen Optimierungsstrategien verglichen. Dabei konnte der Anlagenbetrieb hinsichtlich Komfortbedingungen und Energieeffizienz deutlich optimiert werden. Die finale Optimierungsstrategie basiert auf einereinfachen Wettervorhersage.
Mit der Modellierung und Nutzung eines digitalen Zwillings trägt diese Arbeit dazu bei, innovative Lösungen für die zukünftige Entwicklung und Gestaltung von Gebäuden sowie die Optimierung bereits bestehender Gebäude mithilfe digitaler Zwillinge voranzutreiben.
MINT-College TIEFE
(2021)
Das Projekt MINT-College TIEFE konnte in der zweiten Förderperiode die verschiedenen Maßnahmen der vorangegangenen Förderperiode weiter ausbauen und verstetigen. Die Angebote im Rahmen des Projekts MINT-College TIEFE begleiteten die Studierenden über den Student-Life-Cycle hinweg über das komplette Studium der technischen Studiengänge, beginnend in der Schule und endend beim Übergang in den Beruf. Um die Qualität der Lehre an der Hochschule Offenburg zu verbessern, wurden darüber hinaus verschiedene digital unterstützte Lehrformate weiterentwickelt und ausgebaut. Zentrale Angebote des MINT-College, das 2019 zentrale Einrichtung der Hochschule Offenburg wurde, sind die für die Studieneingangsphase entwickelten Angebote der Einführungstage, des Mentorenprogramms, der Brückenkurse, des Lernzentrums und Angebote für den Übergang in den Beruf, wie das Gründerbüro. Die mediendidaktischen Unterstützungsangebote für Lehrende unterstützten den Lernkulturwandel an der Hochschule. Es wurden systematisch nachhaltige Strukturen aufgebaut, um Innovationen für das Lehren und das Lernen auch künftig entwickeln, erproben und etablieren zu können.
Lithium-ion battery cells exhibit a complex and nonlinear coupling of thermal, electrochemical,and mechanical behavior. In order to increase insight into these processes, we report the development of a pseudo-three-dimensional (P3D) thermo-electro-mechanical model of a commercial lithium-ion pouch cell with graphite negative electrode and lithium nickel cobalt aluminum oxide/lithium cobalt oxide blend positive electrode. Nonlinear molar volumes of the active materials as function of lithium stoichiometry are taken from literature and implemented into the open-source software Cantera for convenient coupling to battery simulation codes. The model is parameterized and validated using electrical, thermal and thickness measurements over a wide range of C-rates from 0.05 C to 10 C. The combined experimental and simulated analyses show that thickness change during cycling is dominated by intercalation-induced swelling of graphite, while swelling of the two blend components partially cancel each other. At C-rates above 2 C, electrochemistry-induced temperature increase significantly contributes to cell swelling due to thermal expansion. The thickness changes are nonlinearly distributed over the thickness of the electrode pair due to gradients in the local lithiation, which may accelerate local degradation. Remaining discrepancies between simulation and experiment at high C-rates might be attributed to lithium plating, which is not considered in the model at present.
In 4D printing an additively manufactured component is given the ability to change its shape or function under the influence of an external stimulus. To achieve this, special smart materials are used that are able to react to external stimuli in a specific way. So far, a number of different stimuli have already been investigated and initial applications have been impressively demonstrated, such as self-folding bodies and simple grippers. However, a methodical specification for the selection of the stimuli and their implementation was not yet in the foreground of the development.
The focus of this work is therefore to develop a methodical approach with which the technology of 4DP can be used in a solution- and application-oriented manner. The developed approach is based on the conventional design methodology for product development to solve given problems in a structured way. This method is extended by specific approaches under consideration of the 4D printing and smart materials.
To illustrate the developed method, it is implemented in practice using a problem definition in the form of an application example. In this example, which represents the recovery of an object from a difficult-to-access environment, the individual functions of positioning, gripping and extraction are implemented using 4D printing. The material extrusion process is used for additive manufacturing of all components of the example. Finally, the functions are successfully tested. The developed approach offers an innovative and methodical approach to systematically solve technical complex problems using 4DP and smart materials.
Um die Ausmaße des Klimawandels und die Emission von Treibhausgasen zu verringern, wird ein Umschwung auf erneuerbare Energien angestrebt. Dazu zählt unter anderem der Wandel von Öl und Gasheizungen, hin zu Wärmepumpen. Aufgrund seiner guten Beurteilung hinsichtlich Nachhaltigkeit und Umweltbeeinflussung, findet Propan als Betriebsstoff jüngst eine zunehmende Beachtung. Da dieses ein brennbares Kältemittel ist, müssen solche Wärmepumpen aus Sicherheitsgründen genauer untersucht werden. Ziel der vorliegenden Arbeit ist es deshalb, den Fall von Propan-Leckagen in den Heizkreislauf einer Propan-Wärmepumpe unter verschiedenen Versuchsbedinungen zu untersuchen. Des weiteren wird untersucht, wie gut das Propan im Leckagefall von einem Gasabscheider abgeschieden werden kann, um das Risiko für den Endanwender zu minimieren.
Um die Auswirkungen einer Propanleckage in den Heizkreis untersuchen zu können, werden unterschiedliche Messungen bei veränderbaren Parametern durchgeführt. Es wird untersucht, wie sich das Propan bei unterschiedlichen Leckagemassenströme Propan, unterschiedlichen Strömungsgeschwindigkeiten des Wassers und unterschiedlichen Temperaturen im Heizkreis verhält. Außerdem wird der Gasabscheider evaluiert, um zu untersuchen, unter welchen Bedienungen das meiste Propan abgeschieden werden kann.
Die Auswertung der Messungen zeigen, dass lediglich der Leckagemassenstrom an Propan einen Einfluss auf die Menge des abgeschiedenen Propans und die dafür benötigte Zeit hat. Umso größer die Propanleckage in dem Fall ist, umso mehr Propan wird dementsprechend in kürzerer Zeit abgeschieden. Durch die Variation des Volumenstrom des Wassers verändert sich der Druck im Heizkreis und steigt bei zunehmendem Volumenstrom an. Ab einem bestimmten Druck kann nun auch Propan über ein eingebautes Sicherheitsventil und nicht nur über den Gasabscheider entweichen. Die Temperatur des Heizkreises hat keinen Einfluss auf die Messungen. Des weiteren zeigen die Messungen, dass der Gasabscheider einen Großteil des Propans abscheidet. Die Messungen zeigen außerdem, dass durch eine niedrigere Strömungsgeschwindigkeit des Wassers mehr Propan über den Gasabscheider abgeschieden werden kann.
Sicherheitstechnisch ist bei einer Propan-Wärmepumpe zu Empfehlen, dass im Fall einer Propan-Leckage das abgeschiedene Propan nach dem Gasabscheider direkt nach draußen zu leiten. Eine weitere Möglichkeit wäre es, den Gasabscheider draußen aufzustellen und das Heizwasser erst nach dem Abscheider in das Gebäude zu leiten.
4D printing (4DP) is an evolutionary step of 3D printing, which includes the fourth dimension, in this case the time. In different time steps the printed structure shows different shapes, influenced by external stimuli like light, temperature, pH value, electric or magnetic field. The advantage of 4DP is the solution of technical problems without the need for complex internal energy supply via cables or pipes. Previous approaches to 4D printing with magnetoresponsive materials only use materials with limited usability (e.g. hydrogels) and complex programming during the manufacturing process (e.g. using magnets on the nozzle). The 4D printing using unmagnetized particles and the later magnetization allows the use of a standard 3D printer and has the advantage of being easily reproducible and relatively inexpensive for further application. Therefore, a magnetoresponsive feedstock filament is produced which shows elastic and magnetic properties. In a first step, pellets are produced by compounding polymer with magnetic particles. In a second step, those pellets are extruded in form of filament. This filament is printed using a conventional printing system for Material Extrusion (MEX-TRB/P). Various prototypes have been printed, deformed and magnetized, which is called programming. In comparison to shape memory polymers (SMP) the repeatability of the movement is better. The results show the possibilities of application and function of magnetoresponsive materials. In addition, an understanding of the behaviour of this novel material is achieved.
A balcony photovoltaic (PV) system, also known as a micro-PV system, is a small PV system consisting of one or two solar modules with an output of 100–600 Wp and a corresponding inverter that uses standard plugs to feed the renewable energy into the house grid. In the present study we demonstrate the integration of a commercial lithium-ion battery into a commercial micro-PV system. We firstly show simulations over one year with one second time resolution which we use to assess the influence of battery and PV size on self-consumption, self-sufficiency and the annual cost savings. We then develop and operate experimental setups using two different architectures for integrating the battery into the micro-PV system. In the passive hybrid architecture, the battery is in parallel electrical connection to the PV module. In the active hybrid architecture, an additional DC-DC converter is used. Both architectures include measures to avoid maximum power point tracking of the battery by the module inverter. Resulting PV/battery/inverter systems with 300 Wp PV and 555 Wh battery were tested in continuous operation over three days under real solar irradiance conditions. Both architectures were able to maintain stable operation and demonstrate the shift of PV energy from the day into the night. System efficiencies were observed comparable to a reference system without battery. This study therefore demonstrates the feasibility of both active and passive coupling architectures.
The title expresses goals the Kansas Geological Survey (KGS) has been working toward for some time. This report extends concepts and objectives developed while working on an earlier effort for effective interactive digital maps on the Internet. That work was reported to the 1998 DMT Workshop in Champaign, Illinois (Ross, 1998). The current project goes beyond previous efforts that focused on methods for serving the contents of a geographic information system (GIS); the points, lines, and polygons representing features of the digital geologic map and the data in the attribute tables of the GIS describing those features.
Electrochemical pressure impedance spectroscopy (EPIS) is an emerging tool for the diagnosis of polymer electrolyte membrane fuel cells (PEMFC). It is based on analyzing the frequency response of the cell voltage with respect to an excitation of the gas-phase pressure. Several experimental studies in the past decade have shown the complexity of EPIS signals, and so far there is no agreement on the interpretation of EPIS features. The present study contributes to shed light into the physicochemical origin of EPIS features, by using a combination of pseudo-two-dimensional modeling and analytical interpretation. Using static simulations, the contributions of cathode equilibrium potential, cathode overpotential, and membrane resistance on the quasi-static EPIS response are quantified. Using model reduction, the EPIS responses of individual dynamic processes are predicted and compared to the response of the full model. We show that the EPIS signal of the PEMFC studied here is dominated by the humidifier. The signal is further analyzed by using transfer functions between various internal cell states and the outlet pressure excitation. We show that the EPIS response of the humidifier is caused by an oscillating oxygen molar fraction due to an oscillating mass flow rate.
Die akustischen Emissionen von Wasserinstallationsgeräten, insbesondere während der nächtlichen Ruhezeit in angrenzenden Räumen, können erhebliche Störungen verursachen. Die primäre Ursache dieser Belästigungen liegt in der spezifischen Funktionsweise von Wasserarmaturen, welche somit als Hauptquelle der Lärmemissionen identifiziert werden können. Hydrodynamische und -akustische Simulationen erweisen sich in diesem Zusammenhang als wertvolle Werkzeuge zur Identifikation von kritischen Bereichen, welche für die Schallabstrahlung verantwortlich sind.
In dieser vorliegenden Arbeit werden die hydrodynamischen und -akustischen Eigenschaften eines Installationsgeräuschnormals mithilfe numerischer Methoden untersucht, wobei gleichzeitig ein kommerzielles Berechnungswerkzeug zur Vorhersage von akustischen Schallfeldern in Bezug auf ein hybrides Verfahren evaluiert und validiert wird. Das Installationsgeräuschnormal dient dabei als Testfall, um die Leistungsfähigkeit des hybriden Akustikmodells in Verbindung mit einem RANS- sowie RANS/LES-Ansatz zu überprüfen. Es werden verschiedene Varianten des Installationsgeräuschnormals untersucht und mit experimentellen Messdaten validiert.
Die hydrodynamischen Simulationsergebnisse der verschiedenen Varianten zeigen eine hervorragende Übereinstimmung mit den experimentellen Daten bei der Verwendung eines RANS/LES-Ansatzes. Der Einsatz eines solchen Hybrid-Modells zur Turbulenzmodellierung hat gezeigt, dass eine verbesserte Wiedergabe von zeitabhängigen Phänomenen in der Strömung erreicht werden kann, welche in direktem Zusammenhang mit der Vorhersage der Schallausbreitung stehen und somit eine bedeutende Auswirkung darauf haben.
Die akustische Untersuchung der verschiedenen Varianten des Installationsgeräuschnormals zeigt, dass die Schallabstrahlung ausschließlich in breitbandigen Frequenzspektren erfolgt. Im Rahmen des Vergleichs mit den Messdaten lässt sich erkennen, dass eine akustische Analyse auf Basis eines hybriden Modells in Verbindung mit dem Akustikmodell vielversprechende Ergebnisse bezüglich der Vorhersage des Schallfelds liefern kann und dabei im Vergleich zu einfachen RANS-Modellen Vorteile aufweist.
Die Bestimmung von Emissionen aus Abgaskaminen mit grossen Querschnitten ist ein Problem, da dort Inhomogenitaeten sowohl der Konzentration als auch der linearen Abgasgeschwindigkeit vorliegen. Die VDI 2066, Bl. 1, schreibt vor, welche Punkte zu waehlen sind, und wenn man dann noch isokinetisch die Abgasproben entnimmt, sollte man zum richtigen Ergebnis kommen. Anm. d.Ref.: Die Hessische Landesanstalt fuer Umwelt ist da schon frueher auf recht komplizierte Loesungen gekommen. Und diese Linie wird in der vorliegenden Arbeit konsequent eingehalten. - Es mag sein, dass der angekuendigte Ergebnisbericht mehr Licht in die Angelegenheit bringt. Aus den hier gemachten Angaben kann man eigentlich nur entnehmen, dass bisher alles falsch gemacht worden ist. (H. -D. Papendick).
Die Folgen ungenügender Entlüftung wurden durch Umfragen bei Konstrukteuren und Werkzeugmachern aus sechs Betrieben ermittelt und sind für Formteil, Werkzeug, Spritzgießprozeß ebenso tabellarisch wie die Gestaltungsmöglichkeiten von Entlüftungen (in der Trennebene und Kavität) dargestellt. Im Rahmen einer Diplomarbeit wurden mit Hilfe eines speziellen Versuchswerkzeuges die Auswirkungen der Entlüftung auf den Spritzgießablauf, das Formteil und das Verhalten bei teilevakuierter Kavität (der Einfluß des Evakuierungsgrades auf die gemittelte Füllhöhe wird anhand einer Kurve erläutert) untersucht. Die Konstanz der Werkzeuginnendrücke, die Berechenbarkeit der Druckabfälle (Tabelle mit Druckabfällen in Abhängigkeit der Entlüftungsspaltgeometrie), die Entlüftungselemente (bewegliche haben den Vorzug der Selbstreinigung) und das Einspritzen unter teilevakuierter Kavität werden beschrieben. Der Einfluß der Werkzeugentlüftung umfaßt die Spalttiefe des Entlüftungskanals, die Größe des Expansionsraumes und den Anschluß an die Dichtkante des Expansionsraumes.
Die Auswirkungen der Entlüftung auf den Spritzgießablauf, das Formteil sowie das Verhalten bei teilevakuierter Kavität wurden im Rahmen einer Diplomarbeit untersucht. Die negativen Folgen für Formteil, Werkzeug und Spritzgießablauf, die aus einer ungenügenden Werkzeugentlüftung resultieren, werden aufgezeigt. Die grundsätzlichen Gestaltungsmöglichkeiten von Werkzeugentlüftungen sind zusammengestellt. In Versuchsreihen wurde das Entlüftungsverhalten bei teilevakuierter Kavität bei konstantem Einspritzdruck untersucht sowie der Einfluß der Werkzeugentlüftung bei unterschiedlichen Spalttiefen des Entlüftungskanals ermittelt. Die wichtigsten Resultate und konstruktiven Auslegungskriterien bezüglich der Entlüftungselemente, des Einspritzens unter teilevakuierter Kavität und des Einflusses der Werkzeugentlüftung, welche aus den Untersuchungen im Rahmen der Diplomarbeit hervorgehen, sind zusammengefaßt.
Asynchronmaschinen mit Kaefiglaeufer benoetigen waehrend ihres Hochlaufs das 3- bis 8fache des Bemessungsstroms. Dieser hohe Anlaufstrom geht erst zurueck, wenn der Kippschlupf erreicht ist (bei etwa 90% der Bemessungsdrehzahl). Wenn die Kurzschlussleistung des einspeisenden Netzes zum Zeitpunkt der Motorzuschaltung gering ist, koennen durch Spannungseinbrueche Anlaufprobleme einer Kaefiglaeufermaschine auftreten. Bei der Planung eines solchen Antriebs muessen deshalb genauere Simulationsrechnungen ueber die Zusammenhaenge von Hochlaufzeit, Spannungseinbruch und zulaessigen Grenzwerten durchgefuehrt werden. Ergebnisse derartiger Anlaufsimulationen eines 800-kW- und eines 1,13-MW-Hochspannungsmotors bei Anschaltung an einen 10-MVA- und einen 2-MVA-Generator wurden fuer verschiedene Zuschaltungssituationen in Oszillogrammen festgehalten. Durch genauere mathematische Angaben verdeutlicht werden die Faelle des Motorhochlaufs bei Inselbetrieb mit geringer Kurzschlussleistung sowie die Zuschaltung der Asynchronmotoren auf den Generator vor und nach Anhebung der Netzspannung behandelt. Angaben werden ferner gemacht zur Zuschaltung des 1,13-MW-Motors auf die Parallelschaltung des 10-MVA- und des 2-MVA-Generators. Aus den Simulationsoszillogrammen der Faelle von Hochlauf und Motorzuschaltung sind die zeitabhaengigen Aenderungen von Ankerstrom, Wirkleistungsaufnahme, Blindleistungsaufnahme, Klemmenspannung, Drehzahlabweichung, Antriebsmoment und Lastdrehmoment zu entnehmen.
Das zweibändige Werk richtet sich an Studierende der Fachrichtungen Elektrotechnik, Maschinenbau, Mathematik und Physik an Fachhochschulen und Universitäten, die sich im Fach Mathematik auf Klausuren oder das Vordiplom vorbereiten wollen.
Im Unterschied zu anderen Mathematik-Lehrbüchern, die die Theorie ausführlich diskutieren, wird hier zu Beginn eines jeden Kapitels die Theorie knapp zusammengefaßt. Der Schwerpunkt liegt auf Aufgaben mit Prüfungsniveau und deren ausführlichen Lösungen. Zu Anfang der Kapitel werden grundlegende Definitionen und Sätze wiederholt und anhand einiger Beispiele erläutert. Anschließend folgen Aufgaben mit Musterlösungen. Wo es immer möglich ist, werden auch alternative Lösungsmöglichkeiten diskutiert.
Band 2 umfaßt die Themen:
- Funktionen mehrerer Veränderlicher
- Integralrechnung
- Gewöhnliche Differentialgleichungen
- Differentialgeometrie
- Die Laplace-Transformation
- Fourierreihe und Fouriertransformation
- Vektoranalysis.
Beide Bände zusammen bilden die ideale Grundlage zur Vorbereitung und zum Bestehen von Mathematik-Prüfungen im Studium.
Lange Erfahrungen der Autoren im Lehrfach Mathematik haben die Notwendigkeit gezeigt, den Studierenden eine praktische Möglichkeit der Prüfungsvorbereitung zu bieten. Die Betroffenen können sich durch die Beschäftigung mit qualifizierten mathematischen Aufgaben auf Klausuren und Prüfungen vorbereiten.
Im Unterschied zu Lehrbüchern, die mit theoretischen Grundlagen ausführlich diskutieren, werden diese in dem vorliegenden Werk zu Beginn eines jeden Kapitels kurz zusammengefaßt. Das Schwergewicht liegt hier auf den Aufgaben mit Prüfungsniveau und deren Lösungswegen, die ausführlich beschrieben werden. Grundlegende Definitionen und Sätze werden kurz wiederholt und anhand einiger Beispiele erläutert. Es folgen Aufgaben mit Musterlösungen. Wo es möglich ist, werden auch alternative Lösungswege diskutiert. So ist dieses Werk eine ideale Ergänzung zu mehr theoretisch ausgerichteten Lehrbüchern.
Grundkurs Regelungstechnik
(2013)
Das Lehr- und Übungsbuch enthält in komprimierter Form neben einer kurzen Einführung in die Grundlagen eines Regelkreises bzw. der komplexen Zahlen und Laplace-Transformation, lineare kontinuierliche Systeme im Zeit- und Frequenzbereich. Weitere Themen sind die Entwürfe einer Regelung im Zeit- bzw. Frequenzbereich und Regelung ökonomischer Systeme, die zeigen, dass Geschäftsvorgänge in Unternehmen auch regelungstechnisch beschrieben und gedeutet werden können. Jeweils am Ende eines Kapitels werden erläuternde Beispiele und Übungsaufgaben mit Ergebnissen vorgestellt.
Grundkurs Regelungstechnik
(2009)
Komprimierte, mathematisch ausgerichtete Einführung in Grundlagen der Regelungstechnik für Studierende der Ingenieurwissenschaften an Fachhochschulen und Universitäten. Neuausgabe von "Kompaktkurs Regelungstechnik" (ID 17/02), die um ca. 50 Seiten erweitert (Abschnitt über betriebliche Systeme) und durchgehend aktualisiert wurde. Ist jetzt auf Bachelorstudiengänge ausgerichtet und enthält zahlreiche Übungsaufgaben und durchgerechnete Beispiele. Die alte Ausgabe sollte ersetzt werden.
Kompaktkurs Regelungstechnik
(2001)
Der vorliegende "Kompaktkurs Regelungstechnik" wendet sich an Studierende der Fachrichtungen Maschinenbau, Elektrotechnik und der allgemeinen Ingenieurwissenschaften von Berufsakademien, Fachhochschulen und Technischen Universitäten sowie an die in der Praxis stehenden Ingenieure, die ihre regelungstechnischen Kenntnisse auffrischen, vertiefen oder erweitern wollen. Das Buch entstand aus Erfahrungen des Autors in Vorlesungen und Praktika mit Studierenden des Maschinenbaues und der Elektrotechnik an der Fachhochschule Offenburg und an der Berufsakademie Karlsruhe. Deshalb wurde auch dem eigentlichen Thema die beiden mathematischen Kapitel "Einführung in die komplexe Zahlen und Funktionen" und "Einführung in die LAPLACE Transformation" vorangestellt, weil das hier vorgestellte und besprochene Formelwerk ein wichtiges und unerläßliches Werkzeug bei der Beschreibung und Lösung regelungstechnischer Aufgaben darstellt. Die Stoff auswahl stellt einen Auszug aus der Fülle von Methoden und Verfahren dar, die heute zu den Grundlagen der Regelungstechnik zählen.
Bei thermischen Konvektionsströmungen ist der Einfluß von Geometrie und Randbedingungen für die Strömungsform und den konvektiven Wärmetransport von wesentlicher Bedeutung. Mit Hilfe der optischen Strömungsmeßtechnik (Differentialinterferometrie) wurde die freie Konvektion in einem quaderförmigen Behälter mit seitlicher Beheizung untersucht. Der Aufbau und die Experimente werden beschrieben. Die quantitative Auswertung von Dichte- und Temperaturfeldern aus den Differentialinterferogrammen wird aufgezeigt und der Einfluß unterschiedlicher Randbedingungen wie feste und freie Oberfläche auf die Strömungsform und den Wärmetransport dargelegt. Die eingesetzte Differentialinterferometrie zeigt aufgrund ihrer Anpassungsfähigkeit an die jeweiligen Versuchsbedingungen und durch den einfachen Aufbau spezifische Vorteile gegenüber dem Mach-Zehnder Interferometer.
Beim Betrieb von Maschinen mit großen Trägheitsmomenten treten bei Asynchronmaschinen mit Käfigläufer als Antriebsmotor teilweise Probleme beim Hochlauf des Aggregats auf. Es werden Maßnahmen zur Verbesserung des Anlaufs erläutert sowie mit Hilfe von Näherungsrechnungen und Simulationen untersucht. Aus den Simulationsergebnissen lassen sich Voraussagen über das Gelingen des Hochlaufs und die Tauglichkeit verschiedener Hilfsmaßnahmen ableiten.
Es wird ein zeitoptimiertes Scanning-Verfahren zur Leckortung an Reinraum-Filterdecken auf der Basis der Richtlinie VDI 2083 Bl. 3 vorgestellt. Aufgabe des Verfahrens ist, die Positionen in der Meßebene liegender Flächen mit dem Querschnitt der isokinetischen Sondenöffnung zu bestimmen. Dabei wird eine vorab zu bestimmende Wahrscheinlichkeit zugrundegelegt, bei der die mittlere auftretende Konzentration von Partikeln höher ist, als die nach VDI 2083 Bl.3 zulässige. Die Verhältnisse beim Sondendurchgang über einem Kontaminationsbereich werden unter Beachtung aller Randbedingungen berechnet, wobei der sich für die Leckerkennung ungünstigste Fall, der bei einer homogenen Verteilung der durch das Leck austretenden Partikel auf der nachzuweisenden Fläche liegt, angenommen wird. Der Sondendurchgang wird als Bewegungsablauf definiert, zeitlich bestimmt vom Eintritt der Sondenvorderkante in die Kontaminationsfläche bis zum Verlassen derselben mit der Sondenhinterkante. Als Ergebnis der Berechnungen werden Vorschubgeschwindigkeit der Sonde beim Scanverfahren, Flächenleistung des Scanverfahrens, Sondendurchgangszeit und Leckerkennungskriterium, ausgewiesen. (Otto)
Bei einem neuen Kühldeckensystem wird die Luft im Deckenhohlraum oberhalb der abgehängten Decke durch Konvektoren gekühlt, wobei die Wärmeübertragung ausschließlich durch freie Konvektion und Strahlung erfolgt. Die abgehängte Decke nimmt durch Strahlung und freie Konvektion Wärme aus dem darunterliegenden Büroraum auf und gibt sie über freie Konvektion an die Luft im Deckenhohlraum sowie durch Strahlung an die Begrenzungsflächen des Deckenhohlraumes ab. Die vom Kühlwasser durchströmten Rippenrohre nehmen ihrerseits Wärme aus der Luft im Hohlraum auf, die infolge der freien Konvektion durch die Rippenrohre strömt. Zur Aufnahme des bei starker Belastung und Dauerbetrieb anfallenden Kondensats ist unterhalb des Konvektors eine Kondensatauffangwanne angebracht. Mit dem von Rutsch erstellten Rechenprogramm ist es möglich, für verschiedenste Randbedingungen die Rippenrohre auf maximale Kühlleistung zu optimieren. Voraussetzung für die direkte Anwendung dieses Berechnungsverfahrens sind jedoch ungestörte An- und Abströmbedingungen der Luft am Konvektor. Neben der Optimierung der Rippenrohre auf Kühlleistung ist für den Aufbau der eigentlichen Decke die Luftströmung im Deckenhohlraum und die Austrittstemperatur aus den Konvektoren von entscheidender Bedeutung. Die maximale Kühlleistung der Rippenrohre kann nur erreicht werden, wenn alle Einzelrippenrohre nahezu gleichmäßig durchströmt werden und günstige Abströmverhältnisse vorhanden sind. Die Strömungsverhältnisse im Deckenhohlraum und innerhalb der Konvektoren wurden durch Rauch sichtbar gemacht und auf Video aufgezeichnet. Entscheidenden Einfluß auf die Temperaturverteilung an der Kühldecke haben die Breite des Konvektors, die Konstruktion der Kondensatauffangwanne, der Abstand der Konvektoren voneinander und der Konvektortyp. Direkt unterhalb der Kondensatauffangwanne beträgt die Temperaturdifferenz ca. 3 K. Der Temperaturgradient im Abströmbereich liegt bei ca. 0,2 bis 0,3 K/m.
Turbulenzarme Verdrängungsströmungen (TAV), häufig auch als Laminarflow (LF) bezeichnet, werden in hochreinen Reinraumbereichen eingesetzt, um die Versorgung des kritischen Bereiches (offenes Produkt) mit schwebstoffgefilterter bzw. partikelfreier Luft zu gewährleisten. Die TAV kann durch Störgrößen, wie Thermikströme, Personeneingriffe, Strömungshindernisse, Materialtransport usw. gestört werden, womit eine unerwünschte Kontamination des kritischen Bereiches einhergehen kann.
Durch den Einsatz von Torschleieranlagen zwischen zwei Zonen mit unterschiedlichen Temperaturen kann der Luftaustausch aufgrund freier Konvektion verhindert werden. Der Einfluß unterschiedlicher Betriebsfälle auf den Energieverbrauch und die thermische Behaglichkeit wurde im Labor untersucht. Die Effizienz von Torschleieranlagen wurde zusätzlich im Praxisbetrieb beim Einsatz an einer Kühlzelle überprüft. Bei diesem Anwendungsfall steht nicht die thermische Behaglichkeit sondern der Energieverbrauch, die Gefahr der Kühlguterwärmung und die der Eisbildung vor dem Kühlzelleneingang im Vordergrund.
Massiv- Heiz-/Kühldecken bestehen im wesentlichen aus in der tragenden Deckenkonstruktion eingegossenen Kunststoffrohren, die je nach Jahreszeit von Heiz- bzw. Kühlwasser durchströmt verden. Das instationäre Verhalten wurde mit dem Anlagen und Simulationsprogramm TRNSYS untersucht. Anhand ausgesuchter Ergebnisse können die Anforderungen an die notwendigen Regelkonzepte abgeleitet werden. Es eignen sich für derartige Systeme, insbesondere wegen ihrer großen Speicherfähigkeit und damit Trägheit, modifizierende selbstadaptierende Regler. Aufgrund der großen Trägheit der Massivdecke ist eine direkte außentemperaturgeführte Vorlauftemperaturregelung des Wasserstromes nicht sinnvoll. Es sollte ein selbstadaptierendes Regelsystem verwendet werden, das anhand der vorangegangenen Lastverläufe die Gebäudekonstante und damit das Speicherverhalten der Räume ermittelt. Damit der Regelaufwand reduziert werden kann, sollen mehrere Räume als Gruppe zusammengefaßt werden. Als weitere Größe für das Regelkonzept ist die Speichertemperatur am Ende der Ladezeit zu messen und in das Programm mit einzubinden.
Vortex breakdown phenomena in rotating fluids are investigated both theoretically and experimentally. The fluid is contained in a cone between two spherical surfaces. The primary swirling motion is induced ba the rotating lower boundary. The upper surface can be fixed with non-slip condition or can be a stress-free surface. Depending on these boundary conditions and on the Reynolds number, novel structures of recirculation zones are realized. The axisymmetric flow patterns are simulated numerically by a finite difference method. Experiments are done to visualize the topological structure of the flow pattern and to observe the existence ranges of the different recirculating flows. The comparison between theory and experiment shows good agreement with respect to the topological structure of the flow.
Die quantitative Dünnschichtchromatographie (HPTLC) mit einem Graustufen-Handscanner ist eine preiswerte, schnelle und präzise Methode zur Schwermetallbestimmung. Als Alternative zu teuren Densitometern wird ein Grünlichtscanner mit einer Auflösung von 256 Graustufen benutzt. Die Ortsauflösung beträgt maximal 400 dpi (dots per inch). Die Chromatogramme werden mit 300 dpi aufgenommen. Zur Entwicklung wird eine Camag-Linearkammer verwendet. Zur Probenvorbereitung werden die zu bestimmenden Schwermetallionen bei pH 4,2 mit Dithizon komplexiert. Nur die Metallkationen Zn(2+), Co(2+), Hg(2+), Cd(2+) und Ni(2+) reagieren zu einem farbigen Metallkomplex, wobei sich Zn(2+)- und Co(2+)-Komplexe chromatographisch abtrennen lassen. Nach Komplexierung der Wasserprobe wird mit Essigsäureethylester ausgeschüttelt, Probe- und Standardlösung auf eine Platte aus Kieselgel SI-60 aufgetragen, mit Essigsäureethylester fokussiert und nach der Trocknung der Platte mit Toluol entwickelt. Die HPTLC-Platte wird mit scannereigener Software eingelesen und im PCX-Format (PC PaintBrusch der Fa. ZSoft) auf die Festplatte abgelegt. Zur Auswertung wird eine Leseroutine benutzt. Die ganze Chromatographiebahn ist mit 150 Einzeldioden aufgenommen, die eine Strecke von 48 mm in 564 Einzelmessungen auflösen. Die Summe aller 150 Einzelaufnahmen liefert das Densitogramm aus dem der Schwermetallgehalt bestimmt wird.
Die Untersuchungen wurden im Raumlufttechnischen Labor der Fachhochschule Offenburg zur Beurteilung der Effizienz der Schadstoffabfuhr unter Einhaltung der thermischen Behaglichkeit beim Einsatz verschiedener Luftführungssysteme- Quellauslaß, Deckendrallauslaß und Fußbodenauslaß- in Verbindung mit einer Kühldecke durchgeführt. Die Ergebnisse zeigen, daß keine signifikanten Vorteile für ein bestimmtes RLT-Konzept bestehen. Je nach Wahl der Randbedingungen der Untersuchungen liegen die erreichbaren Kühlleistungen innerhalb einer Systemkombination weiter auseinander als im Verhältnis zu den Vergleichssystemen. Insgesamt ist hinsichtlich der von beiden Systemen zusammen abgebbaren, maximalen Kühlleistung die Kombination Kühldecke mit Deckendralluftauslaß vorteilhaft.
Eine einfache Bestimmung von Mineraloel-KWstoffen - Ersatz des FCKW-haltigen Extraktionsmittels
(1996)
Die Messung von KWstoffen in Abwaessern nach DIN ist eine in der Umweltanalytik haeufig geforderte Bestimmung. Die Abwasserprobe wird dabei mit 1,1,2-Trichlortrifluorethan extrahiert. Anschliessend wird der Extrakt mittels IR-Spektroskopie vermessen. Neben einigen Schwaechen ist bei dieser Bestimmungsmethode besonders die Verwendung des ozonschaedigenden FCKW-Loesemittels heute nicht mehr zeitgemaess. - Die Verf. beschreiben ein schnelles robustes Bestimmungsverfahren, das alle Schwaechen der alten Methode vermeidet.
Der Heel-Rise Test (HRT) wird in der Klinik und der Therapie benutzt, um die Funktionsfähigkeit der Wadenmuskulatur einzuschätzen. Eine Orientierung am Normwert von 25 Wiederholungen hilft dabei, die Muskulatur als normal oder anormal einzustufen. Dieser Wert beruht jedoch auf eine älteren und nicht mehr zeitgemäßen Studie. Auch ist fraglich, ob der absolut erreichte Wert eines HRTs eine direkte Aussage über die Funktionsfähigkeit der Plantarflexoren geben kann.
Das Ziel dieser Arbeit ist somit den HRT mit einer Maximalkraftmessung auf dem Isokineten zu vergleichen und diese auf einen möglichen Zusammenhang zu prüfen. Dazu kann folgende Forschungsfrage aufgestellt werden: „Können die Messergebnisse des HRT eine positive Korrelation mit einer Maximalkraftmessung am Isokineten eingehen?“
Für die Beantwortung der Forschungsfrage ist eine quantitative Untersuchung der beidseitigen Wadenkraft von 20 jungen und gesunden Teilnehmer*innen durchgeführt worden. Dabei wurde das Bein, mit dem die Kraftuntersuchung beginnt, randomisiert. Da ein linearer Zusammenhang zwischen den HRT-Messwerten und einer Maximalkraftmessung auf dem Isokineten vermutet wird, wird dieser durch eine Korrelationsanalyse nach Bravais-Pearson geprüft.
Der Vergleich der Kraftmessungen zeigt, dass die HRT-Ergebnisse eine moderate bis hohe positive Korrelation mit den Maximalkraftwerten auf dem Isokineten eingehen. Dabei hat die Beindominanz sowie die Testreihenfolge der Beine keinen großen Einfluss auf die Ergebnisse. Untersucht man Männer und Frauen getrennt, hebt sich jedoch die positive Korrelation auf und es kann ein geringer, bis kein Zusammenhang zwischen dem HRT und der Maximalkraft auf dem Isokineten festgestellt werden. Zudem ist zu erkennen, dass Männer in allen Kraftuntersuchungen höhere Kraftergebnisse erzielt haben. Da die Stichprobe nur junge, gesunde und aktive Menschen umfasst, sind Aussagen über erkrankte Personen, ältere Menschen oder den Einfluss der Leistungsfähigkeit nicht möglich.
Durch die positive Korrelation des HRT mit dem Goldstandard der Kraftdiagnostik, der Isokinetitk, scheint die Kritik am HRT entkräftet zu werden. Jedoch sind die Ergebnisse mit Vorsicht zu betrachten, da sich bei Betrachtung des Geschlechts die positive Korrelation aufhebt. Das Ergebnis der Arbeit soll, im Anbetracht der Limitation, trotzdem ermutigen, den HRT weiterhin für die Kraftdiagnostik der Wadenmuskulatur zu nutzen. Die eingeschränkte Stichprobengröße, eine fehlende Standardisierung der HRT-Durchführung, sowie die vielen Auswahlwahlmöglichkeiten in der Isokinetik machen es kompliziert die Ergebnisse dieser Arbeit auf andere Personengruppen oder Messmethoden zu übertragen. Dennoch gibt die Untersuchung einen ersten Einblick und ermöglicht die Aussagekraft des HRT zu stützen und somit seine Bedeutung und Qualität für die Kraftdiagnostik zu verbessern.
Durch den verstärkten Einsatz von EDV-Geräten an den Arbeitsplätzen in Büroräumen stiegen die flächenbezogenen inneren Kühllasten deutlich an. Für die Arbeitsplätze in Fensternähe müssen EDV-gerechte Lichtverhältnisse vorhanden sein. Es werden Versuchsergebnisse eines neu entwickelten Kühlkonvektors im Fensterbereich im Zusammenhang mit Innenjalousien vorgestellt. Dieser Kühlkonvektor eignet sich auch für den kombinierten Einsatz mit Kühldecken und raumlufttechnischen (RLT)-Anlagen, wie weitere Versuche bestätigen. Der Kühlkonvektor kann auch beim Ersatz von Induktionsgeräten angewandt werden, die z.B. nach dem 4-Leiter-Prinzip angeschlossen sind. Die Untersuchungen haben gezeigt, daß mit der Kombination von Kühldecke, Kühlkonvektor und RLT-Anlage große flächenbezogene Kühllasten abgeführt werden können, ohne daß dadurch die thermische Behaglichkeit negativ beeinflußt wird. Der Luftstrom läßt sich auf das hygienisch bzw. auf das zur Entfeuchtung notwendige Maß reduzieren, wodurch sich die Betriebskosten senken. Der Anteil der drei Komponenten an der gesamten Kühllast beträgt im Mittel: 15 % RLT-Anlage, 15 % Kühlkonvektor und 70 % Kühldecke.
Nativ-organische Abfälle bilden mit ca. 30 Gew. % den Hauptteil des Hausmülls. Daher leistet die Bioabfallkompostierung einen bedeutenden Schritt hin zu einer sinnvollen Abfallverwertung. Bundesweit werden derzeit jährlich etwa 750 000 t Bioabfallkompost erzeugt. Mit Ausnahme von sieben Land- und Stadtkreisen planen die Landkreise Baden-Württembergs die getrennte Sammlung von Bioabfällen: Einwohner von 23 Landkreisen waren 1993, zum Teil versuchsweise, an Biotonnen angeschlossen. Die Notwendigkeit der Bioabfallkompostierung scheint außer Frage zu stehen, intensiv erörtert werden jedoch die Verfahrenskonzepte, die der Bioabfallkompostierung zugrunde liegen. Kern der Diskussion ist, ob einfache Kompostierungsverfahren wie die dezentrale Kompostierung den technisch aufwendigeren Verfahren zentraler Anlagen gleichwertig sind.
Als erster Landkreis in Baden Württemberg hat der Landkreis Sigmaringen bei der Entsorgung des bei 120 000 Einwohnern im Kreis anfallenden organischen Abfalls neue Wege beschritten und die Landwirtschaft in den Stoffkreislauf miteinbezogen, anstatt das anfallende Material zu deponieren. Auf dem Hintergrund der TA-Siedlungsabfall, die vorschreibt, daß nach einer Übergangszeit organische Abfälle nicht mehr deponiert werden dürfen, sondern kompostiert oder thermisch behandelt werden müssen, hat der Landkreis Sigmaringen im Jahr 1992 ein Konzept zur dezentralen Kompostierung verabschiedet.
In this paper, the J-integral is derived for temperature-dependent elastic–plastic materials described by incremental plasticity. It is implemented using the equivalent domain integral method for assessment of three-dimensional cracks based on results of finite-element calculations. The J-integral considers contributions from inhomogeneous temperature fields and temperature-dependent elastic and plastic material properties as well as from gradients in the plastic strains and the hardening variables. Different energy densities are considered, the Helmholtz free energy and the stress-working density, providing a physical meaning of the J-integral as a fracture criteria for crack growth. Results obtained for a plate with two different crack configurations each loaded by a cool-down thermal shock show domain-independence of the incremental J-integral for different energy densities even for high temperature gradients and significant temperature-dependence of the yield stress and the hardening exponent in the presence of large scale yielding. Hence, the derived J-integral is an appropriate parameter for the assessment of cracks in thermomechanically loaded components.
Im Leistungssport können Verletzungen den weiteren Karriereverlauf einer Athletin stark beeinflussen. Eine umso größere Rolle spielt daher der Rehabilitationsprozess. Diese Arbeit befasst sich mit den Kraftfähigkeiten des M. triceps surae nach einer Achillessehnenrekonstruktion im Bereich des Leistungsturnens. Die Quantifizierung der Kraftfähigkeiten erfolgt mit Hilfe von isokinetischen Krafttests. Dazu werden auf beiden Seiten einmal wöchentlich 2 x 3 Wiederholungen bei einer Testgeschwindigkeit von 30 deg/s durchgeführt. Die Messungen überspannen einen Zeitraum von 10 Wochen und beginnen 6 Monate postoperativ. Die Datenauswertung erfolgt mit MATLAB. Auf der unverletzten Seite werden keine oder nur geringfügige Änderungen in den Kraftfähigkeiten erwartet. Auf der verletzten Seite hingegen wird ein deutlicher Anstieg in den Kraftfähigkeiten erwartet. Die Kraftfähigkeiten werden über das maximale Drehmoment, den Drehmomentkraftstoß und die Kraftanstiegsrate (rate of force development = RFD) festgestellt. Werden die Messwerte aus der ersten und der letzten Messung verglichen, zeigen die Ergebnisse ein anderes Bild auf. Die Messwerte für die unbetroffenen Seite steigen um 17,1 % für das Drehmoment, um 17,2 % für den Drehmomentkraftstoß und um 20,4 % für die RFD. Auf der betroffenen Seite steigen die Werte respektive um 19,1 %, 15,2 % und 59,3 %. Es liegt also lediglich für die RFD ein deutlicher Anstieg im Vergleich zur unbetroffenen Seite vor. Ein anderes Ergebnis zeigt sich, wenn die Messwerte der ersten und der vorletzten Messung verglichen werden. Die Werte der unverletzten Seite steigen um 19,2 %, 19,6 % und 35,4 %. Auf der verletzten Seite hingegen, ist eine Steigerung von 32,6 %, 31,7 % und 102,2 % zu sehen. Somit liegt ein deutlicher Anstieg in dem Kraftfähigkeiten der verletzten Seite, auch in Bezug unverletzte Seite, vor. Ob es sich bei der letzten Messung um einen Ausreißer auf der betroffenen Seite handelt, lässt sich durch fehlende Folgemessungen nicht bestimmen.
Für eine fundiertere Aussage sollte ein längerer Zeitraum betrachtet werden. Aufgrund der zeitlichen Begrenzung für die Erstellung dieser Arbeit ist das leider nicht möglich.
Vulnerabilitätsanalyse "Hitzestress und menschliche Gesundheit" am Beispiel der Stadt Reutlingen
(2020)
In diesem Modellprojekt wird das Schutzgut "Menschliche Gesundheit" insbesondere unter dem Gesichtspunkt der im Rahmen des globalen Klimawandels zu erwartenden Überhitzung der Städte ("städtische Hitzeinseln") betrachtet.
In der Großstadt Reutlingen ("Tor zur Schwäbischen Alb/112.500 EW) mit ihrer Pfortenlage am Rande der Schwäbischen Alb und der Höhenlage (400-800 m) sowie der Bebauungsdichte werden bis 2050 bzw. 2100 (Strategie zur Anpassung an den Klimawandel Baden-Württemberg - Vulnerabilitäten und Klimaanpassungsmaßnahmen, 2015) die massivsten Auswirkungen bezüglich Aufenthaltsbehaglichkeit und Gesundheitsfolgen in Reutlingen erwartet.
Der Untersuchungsschwerpunkt liegt im Wirkungsbereich Mensch-Siedlung, d.h. in der Betrachtung von empfindlichen Bevölkerungspopulationen (z.B. ältere Menschen) und hitzeempfindlichen Nutzungsstrukturen (z.B. verdichteten städtischen Siedlungsflächen). Insbesondere die bereits in der abgeschlossenen Gesamtstädtischen Klimaanalyse ermittelten überwärmten Areale ("hot spots") und die im Rahmen des Klimawandels für 2020-2050 zukünftig zu erwartende Hitzestressbelastung bei empfindlichen Bevölkerungsgruppen in Stadtquartieren und Funktionsbauten, stehen im Zenit der Untersuchung.
Dabei wird über das Kriterium Empfindlichkeit (Basis sind z.B. quartierbezogene Datenstrukturen von Älteren, Einrichtungen wie Krankenhäuser, Kinderpflegeeinrichtungen, Alten- Behinderten- und Pflegeheime) die zukünftige Hitzestress-Belastung für Reutlingen erarbeitet. Weiteres wichtiges Kriterium ist die Betroffenheit nach Standortsituation (Höhenlage, Durchlüftungsverhältnisse, Bioklima/PMV = Maß für die bioklimatische Behaglichkeit) und die Anzahl hitzestressgeplagter Menschen (Kinder, Kranke, Ältere). Insbesondere für das Szenarium 2020 bis 2050 (s. Strategie zur Anpassung an den Klimawandel Baden-Württemberg - Vulnerabilitäten und Klimaanpassungsmaßnahmen, 2015) werden objekt- bzw. einrichtungsbezogen (z.B. Altenpflegeeinrichtungen) sowie quartiersspezifisch (Stadtstrukturtypen) die Auswirkungen bzw. Verwundbarkeiten erarbeitet. Dieser objektspezifische (bauklimatische) Ansatz, die innovative Indikatorenbildung zur situativen kommunalen Anwendbarkeit auch über Reutlingen hinaus sowie der partizipative Ansatz mit Nichtregierungsorganisationen (NGO´s) begründet den Modellcharakter ("Reutlinger Modell") dieser Untersuchung. Das Modellprojekt bildet das zweite Modul in einem dreiteiligen Klimaanpassungskonzept für die Stadt Reutlingen.
Beschrieben wird die Kombination Gold/Titan als Edelmetall-Legierung die sich durch die hohe Biokompatibilität im Vergleich zu anderen Legierungsmetallen bei der Implantatprothetik auszeichnet. Motiviert wird die Anwendung durch die Tatsache, daß einzelne der in aufbrennfähigen Edelmetallegierungen vorhandenen Komponenten vermehrt zu Unverträglichkeitsreaktionen bei Patienten Anlaß gaben. Ziel ist mit möglichst nur einer Legierung einen möglichst breiten Indikationsbereich abzudecken. Dies läßt die Verwendung von Titan als Bestandteil hochgoldhaltiger Legierungen erstrebenswert erscheinen. Anhand eines Patientenfalles wird der Einsatz der Goldbasislegierung 'Esteticor Vision' der Firma Cendres & Metaux dargestellt. Die Legierung setzt sich zusammen aus 98.2 % Gold, 1,7 % Titan, 0,1 % Iridium. Die technischen Daten erlauben eine universelle Einsetzbarkeit. Präpariert wurde ein Langzeitprovisorium nach Knochenaufbau im Bereich der atrophierten Alveolarfortsätze. Das Aufschmelzen der Legierung erfolgt unter Schutzgas in Graphittiegeln um Oxidbildung zu vermeiden. Die guten Fließeigenschaften ermöglichen die Ausbildung selbst filigranster Bereiche der Restauration was zu einem in Form und Funktion gelungenen Ergebnis führt. Biokompatibilität, Sicherheit, Kosten/Nutzen-Verhältnis und der Wunsch nach einer einzigen goldfarbenen Legierung für möglichst viele Indikationen werden nach Meinung des Autors durch die beschriebene Legierung erfüllt.
Kleine Anlagen zur dezentralen Strom- und Waermeerzeugung (Block(heiz)kraftwerke) gewinnen auf Grund ihrer vielfaeltigen Einsatzmoeglichkeiten zunehmend an Bedeutung. Die CO2-Bilanz mit Deponiegas bzw. Erdgas betriebenen Blockkraft- und Block(heiz)kraftwerken wird gegenuebergestellt. Es zeigt sich, dass durch den Einsatz von Deponie-Blockkraftwerken bzw. von Blockheizkraftwerken CO2-Einsparungen von ueber 100 kg CO2/MWh im Vergleich zur getrennten Waerme- und Stromerzeugung erzielt werden koennen.
Moderne strombetriebene Wärmepumpenanlagen sind im Hinblick auf die Umweltbilanz und die Jahresenergiekosten selbst gegenüber den effizientesten gasbefeuerten und ölbefeuerten Heizanlagen deutlich im Vorteil. Um diesen Vorteil auch in der Praxis zu erreichen, muss der Auswahl und Dimensionierung der Wärmepumpe einschliesslich der Wärmequelle besondere Beachtung geschenkt werden. Hinsichtlich des Temperaturniveaus bietet sich als Wärmequelle besonders das Erdreich an, beispielsweise durch Erdsonden erschlossen. Abhängig von den hydrogeologischen Rahmenbedingungen ist insbesondere auf die längenbezogene Wärmeentzugsleistung der Erdsonden zu achten. Hierfür hat das Ministerium für Umwelt und Verkehr des Landes Baden-Württemberg einheitliche Grundlagen für die Beurteilung und Bearbeitung geschaffen. Ausgehend von einer Wärmepumpenheizanlage, von der bereits Messungen vorliegen, wurde diese Anlage mit dem Simulationsprogramm TRNSYS nachgebildet und die wesentlichen Temperaturverhältnisse in verschiedenen Erdreichtiefen und Erdsondenabständen ermittelt. Mit diesen Erdreichtemperaturen werden mit Hilfe eines vereinfachten Energiebilanzverfahrens die Jahresarbeitszahlen ermittelt. Dabei zeigt sich, dass neben der Hydraulik der Heizanlage der Art der Trinkwassererwärmung besondere Bedeutung zukommt, da dies sich entscheidend auf die Jahresarbeitszahl und damit auch auf die mögliche Reduzierung des CO2-Ausstosses auswirkt.
Risiko und Sicherheit sind Begriffe, die nur im Zusammenhang mit dem Menschen gesehen werden können, wobei bei der Risikoabschätzung die Fragen beantwortet werden müssen, was passieren kann und was passieren darf. Ausgehend von der Vornorm DIN V 19250 wird im Detail auf folgende Punkte eingegangen: Risikoparameter, Schadensausmaß, Häufigkeit, Aufenthaltsdauer im Gefahrenbereich, Gefahrenabwendung, Eintrittswahrscheinlichkeit, Bewertung der Eintrittsmöglichkeiten von Ereignissen, Restrisikoverkleinerung, Vorhersage von Schadensereignissen einschließlich Störfallauslöser. Die Demonstration erfolgt an Beispielen aus der Chemie.
Der Bericht beschreibt die Vorgehensweise für die Entwicklung von Hochleistungszweitaktmotoren beim Institut für Transportwesen und Motorentechnik (ITM). Die gezielte Auswertung von motorischen Daten bietet die Möglichkeit, Motorenentwicklungsprozesse in wichtigen Fragestellung zu unterstützen. Für die Auslegung von Bauteilen und Prozessen werden Simulationsprogramme eingesetzt. Diese Entwicklungswerkzeuge können effizienter angewandt werden, wenn die Berechnungsergebnisse einer Qualitätskontrolle unterliegen. Wichtig hierfür sind Bewertungskriterien, die aus der Erfahrung einer Vielzahl von Versuchen bestehen. Da in Produktion gegangene Motoren üblicherweise schon einen Evolutionsprozeß durchlaufen haben, kann vermutet werden, daß solche Kriterien von erfolgreichen und weniger erfolgreichen Produkten in der Weise abgeleitet werden können, wie dies hier vorgestellt wurde. Die Angabe von Trendfunktionen für konstruktive Merkmale und Betriebsparameter ist notwendig um eine bedarfsorientierte Vorauslegung von Antrieben durchführen zu können. Alle hier vorgestellten Ergebnisse sind natürlich von der Datenmenge abhängig, die zu den jeweiligen Fragestellungen ausgewertet werden kann. Dazu müssen alle durchgeführten Versuchsreihen in die Datenbank eingeführt und mit Ergebnissen der Simulationsrechnungen in Beziehung gesetzt werden.
High performance thin layer chromatography (HPTLC) is a frequently used separation technique which works well for quantification of caffeine and quinine in beverages. Competing separation techniques, e.g. high-performance liquid chromatography (HPLC) or gas chromatography (GC), are not suitable for sugar-containing samples, because these methods need special pretreatment by the analyst. In HPTLC, however, it is possible to separate ‘dirty’ samples without time-consuming pretreatment, because disposable HPTLC plates are used. A convenient method for quantification of caffeine and quinine in beverages, without sample pretreatment, is presented below. The basic theory of in-situ quantification in HPTLC by use of remitted light is introduced and discussed. Several linearization models are discussed.
A home-made diode-array scanner has been used for quantification; this, for the first time, enables simultaneous measurements at different wavelengths. The new scanner also enables fluorescence evaluation without further equipment. Simultaneous recording at different wavelengths improves the accuracy and reliability of HPTLC analysis. These aspects result in substantial improvement of in-situ quantitative densitometric analysis and enable quantification of compounds in beverages.
A new diode-array scanner in combination with a computer-controlled application system meets all the demands of modern HPTLC measurement. Automatic application, simultaneous measurements at different wavelengths, and different linearization models enable appropriate evaluation of all analytical questions. The theory of error propagation recommends quantification at reflectance values smaller than 0.8; this can be verified only by use of diode-array scanning. The same theory also recommends quantification by use of peak height data, because the theory predicts best precision only for peak height evaluation. Diode-array scanning with reflectance monitoring enables appropriate validation in TLC and HPTLC analysis. All these aspects result in substantial improvement of in-situ quantitative densitometric analysis, and simultaneous recording at different wavelengths opens the way for chemometric evaluation, e.g. peak purity monitoring, which improves the accuracy and reliability of HPTLC analysis.
Fluorescence Enhancement of Pyrene Measured by Thin-Layer Chromatography with Diode-Array Detection
(2003)
In-situ densitometry for qualitative or quantitative purposes is a key step in thin-layer chromatography. It offers a simple way of quantifying by measuring the optical density of the separated spots directly on the plate. A new TLC scanner has been developed which is able to measure TLC plates or HPTLC plates, at different wavelengths simultaneously, without destroying the plate surface. The system enables absorbance and fluorescence measurements in one run. Fluorescence measurements are possible without filters or other adjustments.
The measurement of fluorescence from a TLC plate is a versatile means of making TLC analysis more sensitive. Fluorescence measurements with the new scanner are possible without filters or special lamps. Improvement of the signal-to-noise ratio is achieved by wavelength bundling. During plate scanning the scattered light and the fluorescence are both emitted from the surface of the TLC plate and this emitted light provides the desired spectral information from substances on the TLC plate. The measurement of fluorescence spectra and absorbance spectra directly from a TLC plate is based on differential measurement of light emerging from sample-free and sample-containing zones.
The literature recommends dipping TLC plates in viscous liquids to enhance fluorescence. Measurement of the fluorescence and absorbance spectra of pyrene spots reveals the mechanism of enhancement of plate dipping in viscous liquids—blocked contact of the fluorescent molecules with the stationary phase or other sample molecules is responsible for the enhanced fluorescence at lower concentrations.
In conclusion, dipping in TLC analysis is no miracle. It is based on similar mechanisms observable in liquids. The measured TLC spectra are also very similar to liquid spectra and this makes TLC spec-troscopy an important tool in separation analysis.
A new formula is presented for transforming fluorescence measurements in accordance with Kubelka-Munk theory. The fluorescence signals, the absorption signals, and data from a selected reference are combined in one expression. Only diode-array techniques can measure all the required data simultaneously to linearize fluorescence data correctly. To prove the new theory HPTLC quantification of the analgesic flupirtine was performed over the mass range 300 to 5000 ng per spot. The fluorescence calibration curve was linear over the whole range. The transformation of fluorescence measurements into linear mass-dependent data extends the technique of in-situ fluorescence analysis to the high concentration range. It also extends Kubelka-Munk theory from absorption to fluorescence analysis. The results presented also emphasize the importance of Kubelka-Munk theory for in-situ measurements in scattering media, especially in planar chromatography.