Refine
Year of publication
Document Type
- Conference Proceeding (1253)
- Article (reviewed) (686)
- Bachelor Thesis (604)
- Article (unreviewed) (566)
- Part of a Book (459)
- Contribution to a Periodical (287)
- Book (242)
- Master's Thesis (205)
- Other (142)
- Working Paper (104)
Conference Type
- Konferenzartikel (950)
- Konferenz-Abstract (156)
- Konferenzband (77)
- Sonstiges (42)
- Konferenz-Poster (32)
Language
- German (2866)
- English (1976)
- Other language (5)
- Russian (3)
- Multiple languages (2)
- French (1)
- Spanish (1)
Keywords
- Mikroelektronik (62)
- Digitalisierung (48)
- Marketing (46)
- Social Media (38)
- COVID-19 (37)
- E-Learning (35)
- RoboCup (33)
- Kommunikation (32)
- Künstliche Intelligenz (32)
- Dünnschichtchromatographie (29)
Institute
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (1117)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (1103)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (917)
- Fakultät Wirtschaft (W) (648)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (565)
- Fakultät Medien (M) (ab 22.04.2021) (381)
- INES - Institut für nachhaltige Energiesysteme (245)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (161)
- Zentrale Einrichtungen (81)
- IMLA - Institute for Machine Learning and Analytics (78)
Open Access
- Closed Access (1708)
- Open Access (1691)
- Closed (752)
- Bronze (344)
- Diamond (92)
- Gold (77)
- Hybrid (49)
- Grün (16)
If the current situation could be described in one word, it would be ‘uncertainty’. In times of global crisis, it is important to support the economy to keep businesses alive. Therefore, this paper shows the Finnish government measures and how exporters can benefit from them. Looking in particular at the maritime sector, the research pointed out that there were not that many specific measures for exporters and shipbuilders. This essay detected that the provided measures are suitable for the needs of the affected companies and are an effective instrument by the government to stabilise the industry. This is proved by the number of companies taking advantage of these loans, grants and guarantees. Due to the already mentioned uncertainty, it remains unclear how measures have to be adjusted in the future.
This paper discusses a technological solution to real-time road transportation optimization using a commercial multi-agent based system, LS/ATN, which has been proven through real-world deployment to reduce transportation costs for both small and large fleets in the full and part load business. Subsequent to describing the real-time optimization approach, we discuss how the platform is currently evolving to accept live data from vehicles in the fleet in order to improve optimization accuracy. A selection of the predominant pervasive technologies available today for enhancing intelligent route optimization is described.
Every new technology is used by us humans almost without hesitation. Usually the military use comes first. Examples from recent history are the use of chemical weapons by Germany in the First World War and of atomic bombs in the Second World War by the US. Now, with the rapid advances in microelectronics over the past few decades, a wave of its application, called digitization, is spreading around the world with barely any control mechanisms. In many areas this has simplified and enriched our lives, but it has also encouraged abuse. The adaptation of legislation to contain the obvious excesses of “digitization” such as hate mail and anonymous threats is lagging behind massively. We hear almost nothing about technology assessment through systematic research; it is demanded at most by a few, usually small groups in civil society, which draw attention to the threats to humankind—future and present—and the Earth's ecosystem. One such group, the Federation of German Scientists (VDW) e.V., in the spirit of the responsibility of science for the peaceful and considered application of the possibilities it creates, asked three of its study groups to jointly organize its 2019 Annual Conference. The study groups “Health in Social Change,” “Education and Digitization,” and “Technology Assessment of Digitization” formulated the following position paper for the 2019 VDW Annual Conference, entitled “Ambivalences of the Digital.”
Zielvereinbarungen sollen SMART formuliert werden, um die Leistungsbereitschaft von Mitarbeitern optimal zu fördern - so wird es zumindest in der praxisorientierten betriebswirtschaftlichen Literatur propagiert. Ob Zielvereinbarungen, die spezifisch, messbar, erreichbar, relevant für das Unternehmen und zeitlich terminiert sind, wirklich eine höhere Leistungsbereitschaft zur Folge haben, wird im Folgenden auf Basis einer empirischen Untersuchung überprüft.
Unternehmerische Entscheidungen sollten auf einer angemessene Informationsgrundlage basieren. Diese rechtliche Aufforderung stellt Geschäftsleiter in der Praxis vor erhebliche Herausforderungen, die insbesondere die Erstellung von Prognosen betreffen. Um hier einen Unterstützungsbeitrag zu leisten, wird eine Heuristik vorgestellt, die das Treffen prognosebezogener Informationsentscheidungen anleitet. Die Heuristik übernimmt aus der Multiattributiven Nutzentheorie die Empfehlung, Informationsentscheidungen als Gesamtheit aus Zielfunktion und Bewertungsfunktion zu modellieren. In der Zielfunktion werden die Ziele der Informationsentscheidungen von den allgemeinen Unternehmenszielen wie etwa dem Gewinn gelöst. Statt dessen wird auf die Bewirkung besonderer Qualitätseigenschaften von Informationen abgestellt; das sind Vollständigkeit, Genauigkeit und Zuverlässigkeit. Daraus ergeben sich die beiden grundlegenden Ziele von Informationsentscheidungen: „Maximierung der Informationsqualität“ und „Minimierung der Informationskosten“. Auf dieser Grundlage besteht für die Bewertungsfunktion die Herausforderung darin, die positiven Nutzenwirkungen aus einer Vergrößerung der Informationsqualität abzuwägen gegen die negativen Nutzenwirkungen, die aus einer damit verbundenen Vergrößerung der Informationskosten resultieren. Um diese Herausforderung zu bewältigen, wird ein iteratives Verfahren aus sequentiell zu treffenden und in diesem Sinne inkrementellen Informationsentscheidungen vorgeschlagen. Wertvoll ist diese Heuristik einerseits in entscheidungstheoretischer Hinsicht, weil sie vorliegende methodische Überlegungen zum Treffen von Informationsentscheidungen erweitert. Vor allem aber besitzt die Heuristik einen praktischen Wert für Geschäftsleiter, da ihre Anwendung bessere Voraussetzungen dafür schafft, der rechtlichen Pflicht zur ordentlichen und gewissenhaften Geschäftsführung zu genügen.
Geschäftsleiter von Kapitalgesellschaften und Genossenschaften müssen beim Treffen riskanter Entscheidungen ihrer rechtlichen Sorgfaltspflicht genügen. Eine wichtige Voraussetzung dafür ist, zum Entscheidungszeitpunkt angemessen informiert zu sein. Die praktische Umsetzung dieser Forderung stellt insbesondere für die unsicheren Prognosen der Zielwirkungen alternativer Handlungsmöglichkeiten eine beträchtliche Herausforderung dar. Der vorliegende Beitrag erörtert die Fragen, wie sich prognosebezogene Informationen in ihrer Qualität abstufen lassen und welche Überlegungen für die Bestimmung einer angemessenen Information vorzunehmen sind.
Digitalisierung ist ein populäres Wort mit diffuser Bedeutung. Aus der technischen Signalverarbeitung stammend, wird es heute in vielfältiger Form verwendet. Man kann damit einen gesellschaftlichen Megatrend beschreiben, die öffentliche Verwaltung zur Modernisierung auffordern oder produkt- wie prozessbezogene Veränderungen in Unternehmen begründen.
Lenkung von Innovationen
(2020)
Im Februar 2018 meldet das Manager Magazin, das sich immer mehr Manager von fragwürdigen Digitalisierungsexperten beraten lassen und viel Geld damit verbrennen. Geht es um das große Zukunftsthema, sitzt das Portemonnaie augenscheinlich locker. „Wenn Sie ein Budget durchdrücken wollen, schreiben Sie einfach ‚digital‘ an Ihr Projekt“, sagt Bayer-Vorstandschef Werner Baumann und macht indirekt deutlich, welche Defizite es vielerorts bei der Lenkung von Innovationen gibt.
Synergieprognosen spielen bei der Begründung von Unternehmensübernahmen regelmäßig eine wichtige Rolle. Da diese Prognosen unsicher sind, bedürfen sie einer fundierten Beurteilung, was wiederum eine offene Diskussion innerhalb von Vorstand und Aufsichtsrat voraussetzt. Solche Diskussionen sind jedoch keine Selbstverständlichkeit, da Gruppen dazu neigen, problematische Entscheidungsaspekte nicht angemessen zu würdigen. Mit dem Tornado-Diagramm wird ein Instrument vorgestellt, das diesem Effekt entgegenwirkt und die Entscheider dazu motiviert, auch ungünstige Synergieprognosen zu diskutieren. Auf diese Weise kann die Übernahmeentscheidung auf eine bessere Informationsgrundlage gestellt werden.
Zum Kern der Aufsichtsratstätigkeit gehört die Begutachtung der Qualität wichtiger Vorstandsentscheidungen. Hierbei ist nicht nur zu prüfen, ob es klar formulierte Entscheidungsziele gibt und alternative Handlungsmöglichkeiten in Betracht gezogen wurden. Zu beurteilen ist insbesondere auch die Qualität der Prognosen, auf denen die behaupteten Zielbeeinflussungen basieren. Woran erkennen Aufsichtsräte kritische Prognosen?
Unternehmerische Entscheidungen sind im Regelfall riskant. Um das Ausmaß des Risikos deutlich zu machen, hat sich in der Praxis die Anfertigung von Szenarioanalysen durchgesetzt. Damit jedoch werden vorliegende Risiken systematisch unterschätzt. Bei wichtigen Entscheidungen sollte besser eine Sensitivitätsanalyse oder eine Simulation durchgeführt werden.
Der Titel „Organisatorische Entscheidungen treffen!“ führt in grundlegende Fragen der Organisation ein. Erläutert wird, woraus eine Organisation besteht und wie man sie durch gezielte Entscheidungen an die Bedürfnisse des Unternehmens anpasst. Die allgemeingültigen Aussagen werden durch zahlreiche konkrete Beispiele illustriert.
Das Buch konzentriert sich auf die wichtigsten Aspekte der organisatorischen Gestaltung. Es möchte daher nicht mit den Grundlagenwerken der Organisationslehre konkurrieren, vielmehr begleitet es eine Lehrveranstaltung, deren Stil sich ständig zwischen Vorlesung und Übung abwechselt. Die Übungsaufgaben, die im Unterricht behandelt werden, stehen auch online zur Verfügung und sind dort um Musterlösungen ergänzt. Darüber hinaus gibt es in der Online-Lernumgebung eine Musterklausur, die der zielgerichteten Prüfungsvorbereitung dient.
Wer das Buch sorgfältig durcharbeitet, den Lehrstoff auf die Übungsaufgaben anwendet und die Probeklausur besteht, erwirbt ein solides Grundlagenwissen und ist damit gut vorbereitet, organisatorische Fragen zu analysieren und entsprechende Entscheidungen vorzubereiten.
Wissenschaftler treten als Berater auf und nehmen nicht nur Einfluss auf wirtschaftliche, sondern auch auf politische Entscheidungen. Welche Anforderungen sind an diese Art der Entscheidungsunterstützung zu stellen? Lassen sich für Wissenschaftler zulässige und unzulässige Einflussmöglichkeiten identifizieren? Der Beitrag beantwortet diese Frage unter Rückgriff auf Erkenntnisse aus Soziologie und Entscheidungslehre.
Was ist eine Theorie?
(2015)
Das vermutlich wichtigste Tatbestandsmerkmal der Business Judgment Rule ist das Vorliegen einer angemessenen Informationsgrundlage. Sie gilt dann als erreicht, wenn ein Geschäftsleiter vernünftigerweise annehmen darf, dass die Verbesserung einer gegebenen Informationsqualität den dafür erforderlichen Aufwand an Zeit bzw. Geld nicht rechtfertigt. Implizit wird hierbei vorausgesetzt, dass man verschiedene Ausmaße an Zeit, Geld und Informationsqualität unterscheiden kann. Für den Zeit- und Geldaufwand stimmt das auch, aber wie stuft man die Informationsqualität ab? Im Beitrag wird für prognosebezogene Informationen ein entsprechender Vorschlag gemacht.
Inzwischen hat sich Instagram für Unternehmen als relevante Marketing-Plattform etabliert. Weltweit sind etwa 25 Millionen Business-Profile aktiv und die Zahl wird voraussichtlich noch deutlich steigen. Stories sind aktuell wohl eines der modernsten Content-Formate in der Social Media Welt. Umso wichtiger ist es, sich als Unternehmen frühzeitig mit dem Thema zu beschäftigen und sich auf der Plattform richtig zu positionieren. Die Hälfte aller Instagram Business Profile veröffentlichen pro Monat mindestens eine Instagram Story. Je mehr Unternehmen die Stories nutzen, desto höher wird der Wettbewerb innerhalb des Story-Features. Für Unternehmen wird es daher auch zunehmend schwieriger an eine der vorderen Positionen innerhalb des Story Feeds zu gelangen. Wer sich als Werbetreibender positionieren will, muss sich den stets neuen Entwicklungen, der Geschwindigkeit der Neuheiten, der Aktualität der Trends und den Anforderungen der Community anpassen.
In dieser Arbeit wird die Identifikation von Trägheitsparametern von Mehrkörpersystemen, am Beispiel eines ein aus vier Segmenten bestehenden Roboterarms untersucht. Es werden verschiedene neuronale Netzarchitekturen zur Identifikation der Trägheitsparameter des Roboterarms exploriert. Als Referenz für das Abschneiden der Ansätze wird ein vorab implementierter numerischer Optimierungsansatz, welcher mittels der Software „Matalb“ umgesetzt wurde, benutzt. Der Ansatz zum Aufstellen der benötigten Bewegungsgleichungen und die Formulierung des Regressionsproblems unterscheidet sich von den in der Literatur verwendeten Ansätzen, und beruht auf einem neu entwickelten Sensorkonzept der Hochschule Offenburg (des Sweaty Labors).
Der numerische Ansatz, insbesondere nach Linearisierung des Problems, erzielte herausragende Ergebnisse und konnte die idealen Parameterwerte präzise identifizieren. Demgegenüber standen die neuronalen Netzwerke, deren Potenzial trotz umfassender Untersuchung verschiedener Architekturen und Ansätze nicht vollends ausgeschöpft werden konnte. Die Resultate zeigen deutlich die Grenzen und Herausforderungen bei der Anwendung maschineller Lernmethoden in der spezifischen Aufgabenstellung der Trägheitsparameteridentifikation auf.
Diese Arbeit leistet einen Beitrag zum Verständnis der Möglichkeiten und Grenzen bei der Anwendung neuer Messtechnologien und Berechnungsverfahren in der Robotik. Die überlegene Leistung des numerischen Solvers gegenüber den neuronalen Netzansätzen unterstreicht die Bedeutung weiterer Forschungen in diesem Bereich.
Aufgrund der zunehmenden Internationalisierung, veränderten Einstellungen und Entscheidungen der Verbraucher:innen hinsichtlich der Nachhaltigkeit, der Ausbreitung des Internets sowie der fortschreitenden Digitalisierung entsteht eine wachsende Dynamik von Märkten. Eine Möglichkeit, dadurch bedingten und schnelllebigen Veränderungen als Unternehmen gerecht zu werden, bieten die Instrumente des strategischen Marketing-Controllings im Rahmen der Unternehmenssteuerung. Dazu gehören die Methoden der Portfolioanalyse, welche, wie der Begriff bereits angibt, das Portfolio eines Unternehmens bewerten. Basierend auf der Bewertung der Tätigkeitsfelder können fundierte strategische Managemententscheidungen bezüglich des Portfolios getroffen werden. Bereits eine Studie aus dem Jahr 2013 zeigt, dass 78 % der befragten Unternehmen strategische Produktportfolioanalysen als strategisches Marketinginstrument einsetzen. Davon geben 35 % an, diese regelmäßig einzusetzen, die restlichen 43 % lediglich unregelmäßig.3 Es lässt sich feststellen, dass, wie bereits erwähnt, verschiedene Methoden zur Auswahl stehen, darunter die Marktwachstum-/Produktlebenszyklus-Portfolioanalyse, die Marktwachstum-/Marktanteils-Portfolioanalyse, die Marktattraktivitäts-/Wettbewerbsvorteils-Portfolioanalyse und die Marktwachstum-/Kostendeckungsgrad-Portfolioanalyse, bei welchen verschiedene Aspekte einfließen und gegenübergestellt werden. Allerdings stellt die Entscheidung über die Eignung einer Anwendung dieser Methoden und die Bewertung derer Ergebnisse eine Herausforderung dar. Letztere können die Einschätzung der strategischen Ausgangssituation und die strategische Ausrichtung eines Unternehmens substanziell beeinflussen und somit sowohl positive als auch negative Auswirkungen auf den gesamten Unternehmenserfolg haben.
Für Unternehmen ist es zunehmend von Interesse, durch Social-Media-Kommunikation nicht nur die Aufmerksamkeit der Zielgruppe zu wecken, sondern mit der aufmerksamkeitsstarken Ansprache die Wahrnehmung ihrer Marke und das marktbezogene Verhalten zu beeinflussen. Humorvolle Appelle sind in diesem Zusammenhang zur gängigen Werbepraxis geworden und finden auf Social Media in der direkten Interaktion zwischen Marken und ihrer Zielgruppe statt. Mit der vorliegenden Arbeit wird humorvoll-schlagfertige Unternehmenskommunikation auf Social Media untersucht. Das Ziel war es, die Wirkungszusammenhänge zwischen derartiger Kommunikation, deren Bewertung, dem Markenimage, der Markenauthentizität und den Handlungsabsichten besser zu verstehen. Die Erkenntnisse über diese Zusammenhänge können sowohl der weiteren Erforschung als auch künftigen Marketingentscheidungen dienen.
Im Zuge dessen wurden die theoretischen Hintergründe moderner Markenkommunikation sowie der Konzepte Humor und Schlagfertigkeit ausgearbeitet. Der empirische Teil der Arbeit besteht aus der Konzipierung, Durchführung, Analyse und Ergebnisdiskussion einer quantitativen Studie. Zu den zentralen Ergebnissen zählt, dass sich der Grad an Humor und an Schlagfertigkeit darauf auswirkt, wie sehr die Kommunikation gefällt. Wenn diese gut gefällt, stärkt das wiederum das Markenimage. Auch die wahrgenommene Markenauthentizität bestimmt das Markenimage und wird selbst vor allem durch den Grad der Schlagfertigkeit bestimmt. Das Markenimage beeinflusst die Weiterleitungsabsicht der Kommunikation (virale Effekte) und die Kaufabsicht. Dabei unterscheidet sich humorvoll-schlagfertige Unternehmenskommunikation von neutraler Vergleichskommunikation hinsichtlich der Weiterleitungsabsicht signifikant.
The use of biochar is an important tool to improve soil fertility, reduce the negative environmental impacts of agriculture, and build up terrestrial carbon sinks. However, crop yield increases by biochar amendment were not shown consistently for fertile soils under temperate climate. Recent studies show that biochar is more likely to increase crop yields when applied in combination with nutrients to prepare biochar-based fertilizers. Here, we focused on the root-zone amendment of biochar combined with mineral fertilizers in a greenhouse trial with white cabbage (Brassica oleracea convar. Capitata var. Alba) cultivated in a nutrient-rich silt loam soil originating from the temperate climate zone (Bavaria, Germany). Biochar was applied at a low dosage (1.3 t ha−1). The biochar was placed either as a concentrated hotspot below the seedling or it was mixed into the soil in the root zone representing a mixture of biochar and soil in the planting basin. The nitrogen fertilizer (ammonium nitrate or urea) was either applied on the soil surface or loaded onto the biochar representing a nitrogen-enhanced biochar. On average, a 12% yield increase in dry cabbage heads was achieved with biochar plus fertilizer compared to the fertilized control without biochar. Most consistent positive yield responses were observed with a hotspot root-zone application of nitrogen-enhanced biochar, showing a maximum 21% dry cabbage-head yield increase. Belowground biomass and root-architecture suggested a decrease in the fine root content in these treatments compared to treatments without biochar and with soil-mixed biochar. We conclude that the hotspot amendment of a nitrogen-enhanced biochar in the root zone can optimize the growth of white cabbage by providing a nutrient depot in close proximity to the plant, enabling efficient nutrient supply. The amendment of low doses in the root zone of annual crops could become an economically interesting application option for biochar in the temperate climate zone.
Micronization of biochar (BC) may ease its application in agriculture. For example, fine biochar powders can be applied as suspensions via drip-irrigation systems or can be used to produce grnulated fertilizers. However, micronization may effect important physical biochar properties like the water holding capacity (WHC) or the porosity.
This paper investigates the maximum torque capability and torque ripple reduction using the asymmetric stator teeth for interior permanence magnet (IPM) synchronous machines. Traditional electric machines have the identical width for all stator teeth and the winding function is fixed. Using different widths for different stator teeth changes the winding function, therefore, the torque ripple components. The mathematical modeling of interior permanent magnet (IPM) synchronous machine torque ripple and finite element analysis simulation results for the characteristic properties of electric machines are presented. Compared with a similar rating IPM machine, certain combinations of the teeth widths can reduce the torque ripple by 80% with less than 4% average torque decline.
Tryptamines can occur naturally in plants, mushrooms, microbes, and amphibians. Synthetic tryptamines are sold as new psychoactive substances (NPS) because of their hallucinogenic effects. When it comes to NPS, metabolism studies are of crucial importance, due to the lack of pharmacological and toxicological data. Different approaches can be taken to study in vitro and in vivo metabolism of xenobiotica. The zygomycete fungus Cunninghamella elegans (C. elegans) can be used as a microbial model for the study of drug metabolism. The current study investigated the biotransformation of four naturally occurring and synthetic tryptamines [N,N‐Dimethyltryptamine (DMT), 4‐hydroxy‐N‐methyl‐N‐ethyltryptamine (4‐HO‐MET), N,N‐di allyl‐5‐methoxy tryptamine (5‐MeO‐DALT) and 5‐methoxy‐N‐methyl‐N‐isoporpoyltryptamine (5‐MeO‐MiPT)] in C. elegans after incubation for 72 hours. Metabolites were identified using liquid chromatography–high resolution–tandem mass spectrometry (LC–HR–MS/MS) with a quadrupole time‐of‐flight (QqTOF) instrument. Results were compared to already published data on these substances. C. elegans was capable of producing all major biotransformation steps: hydroxylation, N‐oxide formation, carboxylation, deamination, and demethylation. On average 63% of phase I metabolites found in the literature could also be detected in C. elegans. Additionally, metabolites specific for C. elegans were identified. Therefore, C. elegans is a suitable complementary model to other in vitro or in vivo methods to study the metabolism of naturally occurring or synthetic tryptamines.
Numerous 2,5-dimethoxy-N-benzylphenethylamines (NBOMe), carrying a variety of lipophilic substituents at the 4-position, are potent agonists at 5-hydroxytryptamine (5HT2A ) receptors and show hallucinogenic effects. The present study investigated the metabolism of 25D-NBOMe, 25E-NBOMe, and 25N-NBOMe using the microsomal model of pooled human liver microsomes (pHLM) and the microbial model of the fungi Cunninghamella elegans (C. elegans). Identification of metabolites was performed using liquid chromatography-high resolution-tandem mass spectrometry (LC-HR-MS/MS) with a quadrupole time-of-flight (QqToF) instrument. In total, 36 25D-NBOMe phase I metabolites, 26 25E-NBOMe phase I metabolites and 24 25N-NBOMe phase I metabolites were detected and identified in pHLM. Furthermore, 14 metabolites of 25D-NBOMe, 11 25E-NBOMe metabolites, and nine 25N-NBOMe metabolites could be found in C. elegans. The main biotransformation steps observed were oxidative deamination, oxidative N-dealkylation also in combination with hydroxylation, oxidative O-demethylation possibly combined with hydroxylation, oxidation of secondary alcohols, mono- and dihydroxylation, oxidation of primary alcohols, and carboxylation of primary alcohols. Additionally, oxidative di-O-demethylation for 25E-NBOMe and reduction of the aromatic nitro group and N-acetylation of the primary aromatic amine for 25N-NBOMe took place. The resulting 25N-NBOMe metabolites were unique for NBOMe compounds. For all NBOMes investigated, the corresponding 2,5-dimethoxyphenethylamine (2C-X) metabolite was detected. This study reports for the first time 25X-NBOMe N-oxide metabolites and hydroxylamine metabolites, which were identified for 25D-NBOMe and 25N-NBOMe and all three investigated NBOMes, respectively. C. elegans was capable of generating all main biotransformation steps observed in pHLM and might therefore be an interesting model for further studies of new psychoactive substances (NPS) metabolism.
Analyse der Finanzierungs- und Überlebensstrategien von Bands im Streaming-Zeitalter in Deutschland
(2020)
Die vorliegende Bachelorarbeit befasst sich mit der Analyse der Finanzierungs- und Überlebensstrategien von Bands im Streaming-Zeitalter in Deutschland. Hierbei soll untersucht werden, wie Musikstreaming die finanziellen Einkünfte für Musiker verändert hat, warum Musiker vom Streaming nur in geringem Maße profitieren und wie sie versuchen den geringen Streaming-Einnahmen entgegenzuwirken.
Die Arbeit führt durch theoretische Betrachtungen der Musikindustrie auf die heute herrschende Problematik durch Streaming hin. Dabei werden einzelne Akteure der Musikindustrie, die Erlösquellen für Musiker und Bands, der Einfluss des Musikkonsums auf die finanziellen Erlöse und die Veränderungen, die Streaming für die Musikwelt mit sich bringt, betrachtet. Darüber hinaus wurde eine multiple Fallstudie mit fünf Bands unterschiedlicher Bekanntheit durchgeführt. Zu den in der Studie untersuchten Bands zählen die Leoniden, Heisskalt, Blackout Problems, Killerpilze und City Light Thief. Die Studie soll einen Einblick geben, welche Möglichkeiten deutsche Bands nutzen, um im Streaming-Zeitalter erfolgreich zu sein. Daraus werden abschließend einige Faktoren abgeleitet, die zur Finanzierung und zum Überleben deutscher Bands
beitragen können.
Die Social Media Plattform Instagram, welche es Usern erlaubt, ihre Interessen, Einstellungen und Erlebnisse bildhaft mit einer weltweiten Community zu teilen, stellt u. a. auf Grund ihrer hohen Reichweite und des hohen Userengagements ein attraktives Marketinginstrument für Unternehmen dar. Die Beliebtheit der Plattform Instagram lässt sich am Zuwachs der Nutzerzahlen ablesen, die binnen drei Jahren und vier Monaten von 100 Millionen auf 500 Millionen im Juni 2016 anstiegen.1 Bereits in Deutschland folgen ca. 50 % der neun Millionen Instagramnutzer einem Unternehmen. Pro Beitrag, Post genannt, wird durchschnittlich eine Interaktionsrate von ca. 4,8 % durch die eigenen Follower erzielt. Diese Interaktionszahlen kann zum gegenwärtigen Zeitpunkt kein anderes soziales Netzwerk vorweisen.
Über den Kern von Instagram, das visuelle Bild, welches bei Rezipienten zur schnellsten Verarbeitung und Interpretation führt, können Unternehmen und Marken gewollt kognitive Prozesse bei den Verbrauchern auslösen.4 Dahingehend sind der Transport eines direkten Markenimages, die Begünstigung der Brand Awareness und eine Vorwegnahme von subjektiven Kaufentscheidungen möglich.
Viele Unternehmen tun sich jedoch mit dem jungen und schnelllebigen Kanal schwer und verlieren sich oft in den Möglichkeiten der Instrumente. Ein unstrukturiertes Vorgehen führt dazu, dass die Effizienz des Kanals verfehlt wird, man in der Masse untergeht und nicht konkurrenzfähig ist. Daher bedarf es einer adäquaten Vorbereitung auf den Kanal und dessen Instrumente, damit die Marketingaktivitäten auch den erhofften Return on Investment liefern. Für Unternehmen gilt es, in einem fundierten Planungsprozess zu klären, in welchem Segment sie sich platzieren wollen, was für eine Zielgruppe erreicht werden soll, mit welcher Intention sie diese ansprechen wollen und allen voran, mit welchem Instrument dies geschehen soll. Auf Instagram haben werbende Unternehmen die Wahl zwischen Content-Marketing, Advertising Kampagnen oder Influencer-Marketing.
Es wird ein System zur Vorlesungsnachverfolgung (engl. Lecture Tracking) vorgestellt, das eine Kamera automatisch in Richtung des Vortragenden ausrichtet. Die kontinuierliche Positionsbestimmung der Kamera als auch die des Vortragenden erfolgt dabei durch Smartphones. Die Kamera und ein Smartphone sind an einen Roboter montiert, der als Schwenkeinheit dient. Das andere Smartphone trägt der Vortragende. Beide Smartphones können ihre Position im Raum bestimmen, sodass der erforderliche Drehwinkel berechnet und an den Roboter gesendet werden kann. Dieser führt dann die entsprechende Rotation durch, sodass der Vortragende immer in der Bildmitte zu sehen ist.
Im Rahmen dieser Arbeit wird ein „lowcost“ System für smarthome-Anwendungen vorgestellt. Die Steuerung der smarthome-Komponenten erfolgt durch einen Appliance-Controller auf Basis des FS20 Protokolls, wogegen die „Intelligenz“ des Systems durch eine mobile Anwendung (Android-OS) realisiertwird. Durch Auslagerung der Rechenleistung und der Benutzerschnittstelle auf das smartphone kann eine kostengünstige Alternative zur bestehenden Smarthome-Systemen aufgezeigt werden, die durch Einbindung externer Anwendungen leicht erweitert werden kann.
The automatic processing of handwritten forms remains a challenging task, wherein detection and subsequent classification of handwritten characters are essential steps. We describe a novel approach, in which both steps - detection and classification - are executed in one task through a deep neural network. Therefore, training data is not annotated by hand, but manufactured artificially from the underlying forms and yet existing datasets. It can be demonstrated that this single-task approach is superior in comparison to the state-of-the-art two task approach. The current study focuses on hand-written Latin letters and employs the EMNIST data set. However, limitations were identified with this data set, necessitating further customization. Finally, an overall recognition rate of 88.28% was attained on real data obtained from a written exam.
Es wird ein neuer Ansatz zur Bestimmung des Abstands zweier oder mehrerer Smartphones zueinander vorgestellt. Dabei wird die Position des jeweiligen Smartphones im Raum bzw. im Gelände bezüglich eines Referenzpunkts (Spatial Anchor Point) ermittelt. Über einen zentralen Server tauschen die Smartphones ihre Position relativ zum Referenzpunkt aus und können daraus die Abstände zueinander berechnen. Unterschreitet der Abstand zweier Smartphones einen Schwellwert (< 2 m), erfolgt eine entsprechende Signalisierung auf den Smartphones.
Fix your downsampling ASAP! Be natively more robust via Aliasing and Spectral Artifact free Pooling
(2023)
Convolutional neural networks encode images through a sequence of convolutions, normalizations and non-linearities as well as downsampling operations into potentially strong semantic embeddings. Yet, previous work showed that even slight mistakes during sampling, leading to aliasing, can be directly attributed to the networks' lack in robustness. To address such issues and facilitate simpler and faster adversarial training, [12] recently proposed FLC pooling, a method for provably alias-free downsampling - in theory. In this work, we conduct a further analysis through the lens of signal processing and find that such current pooling methods, which address aliasing in the frequency domain, are still prone to spectral leakage artifacts. Hence, we propose aliasing and spectral artifact-free pooling, short ASAP. While only introducing a few modifications to FLC pooling, networks using ASAP as downsampling method exhibit higher native robustness against common corruptions, a property that FLC pooling was missing. ASAP also increases native robustness against adversarial attacks on high and low resolution data while maintaining similar clean accuracy or even outperforming the baseline.
Motivated by the recent trend towards the usage of larger receptive fields for more context-aware neural networks in vision applications, we aim to investigate how large these receptive fields really need to be. To facilitate such study, several challenges need to be addressed, most importantly: (i) We need to provide an effective way for models to learn large filters (potentially as large as the input data) without increasing their memory consumption during training or inference, (ii) the study of filter sizes has to be decoupled from other effects such as the network width or number of learnable parameters, and (iii) the employed convolution operation should be a plug-and-play module that can replace any conventional convolution in a Convolutional Neural Network (CNN) and allow for an efficient implementation in current frameworks. To facilitate such models, we propose to learn not spatial but frequency representations of filter weights as neural implicit functions, such that even infinitely large filters can be parameterized by only a few learnable weights. The resulting neural implicit frequency CNNs are the first models to achieve results on par with the state-of-the-art on large image classification benchmarks while executing convolutions solely in the frequency domain and can be employed within any CNN architecture. They allow us to provide an extensive analysis of the learned receptive fields. Interestingly, our analysis shows that, although the proposed networks could learn very large convolution kernels, the learned filters practically translate into well-localized and relatively small convolution kernels in the spatial domain.
Many commonly well-performing convolutional neural network models have shown to be susceptible to input data perturbations, indicating a low model robustness. To reveal model weaknesses, adversarial attacks are specifically optimized to generate small, barely perceivable image perturbations that flip the model prediction. Robustness against attacks can be gained by using adversarial examples during training, which in most cases reduces the measurable model attackability. Unfortunately, this technique can lead to robust overfitting, which results in non-robust models. In this paper, we analyze adversarially trained, robust models in the context of a specific network operation, the downsampling layer, and provide evidence that robust models have learned to downsample more accurately and suffer significantly less from downsampling artifacts, aka. aliasing, than baseline models. In the case of robust overfitting, we observe a strong increase in aliasing and propose a novel early stopping approach based on the measurement of aliasing.
Many commonly well-performing convolutional neural network models have shown to be susceptible to input data perturbations, indicating a low model robustness. Adversarial attacks are thereby specifically optimized to reveal model weaknesses, by generating small, barely perceivable image perturbations that flip the model prediction. Robustness against attacks can be gained for example by using adversarial examples during training, which effectively reduces the measurable model attackability. In contrast, research on analyzing the source of a model’s vulnerability is scarce. In this paper, we analyze adversarially trained, robust models in the context of a specifically suspicious network operation, the downsampling layer, and provide evidence that robust models have learned to downsample more accurately and suffer significantly less from aliasing than baseline models.
Over the last years, Convolutional Neural Networks (CNNs) have been the dominating neural architecture in a wide range of computer vision tasks. From an image and signal processing point of view, this success might be a bit surprising as the inherent spatial pyramid design of most CNNs is apparently violating basic signal processing laws, i.e. Sampling Theorem in their down-sampling operations. However, since poor sampling appeared not to affect model accuracy, this issue has been broadly neglected until model robustness started to receive more attention. Recent work in the context of adversarial attacks and distribution shifts, showed after all, that there is a strong correlation between the vulnerability of CNNs and aliasing artifacts induced by poor down-sampling operations. This paper builds on these findings and introduces an aliasing free down-sampling operation which can easily be plugged into any CNN architecture: FrequencyLowCut pooling. Our experiments show, that in combination with simple and Fast Gradient Sign Method (FGSM) adversarial training, our hyper-parameter free operator substantially improves model robustness and avoids catastrophic overfitting. Our code is available at https://github.com/GeJulia/flc_pooling
Despite the success of convolutional neural networks (CNNs) in many academic benchmarks for computer vision tasks, their application in the real-world is still facing fundamental challenges. One of these open problems is the inherent lack of robustness, unveiled by the striking effectiveness of adversarial attacks. Current attack methods are able to manipulate the network's prediction by adding specific but small amounts of noise to the input. In turn, adversarial training (AT) aims to achieve robustness against such attacks and ideally a better model generalization ability by including adversarial samples in the trainingset. However, an in-depth analysis of the resulting robust models beyond adversarial robustness is still pending. In this paper, we empirically analyze a variety of adversarially trained models that achieve high robust accuracies when facing state-of-the-art attacks and we show that AT has an interesting side-effect: it leads to models that are significantly less overconfident with their decisions, even on clean data than non-robust models. Further, our analysis of robust models shows that not only AT but also the model's building blocks (like activation functions and pooling) have a strong influence on the models' prediction confidences. Data & Project website: https://github.com/GeJulia/robustness_confidences_evaluation
Despite the success of convolutional neural networks (CNNs) in many academic benchmarks for computer vision tasks, their application in the real-world is still facing fundamental challenges. One of these open problems is the inherent lack of robustness, unveiled by the striking effectiveness of adversarial attacks. Adversarial training (AT) is often considered as a remedy to train more robust networks. In this paper, we empirically analyze a variety of adversarially trained models that achieve high robust accuracies when facing state-of-the-art attacks and we show that AT has an interesting side-effect: it leads to models that are significantly less overconfident with their decisions even on clean data than non-robust models. Further, our analysis of robust models shows that not only AT but also the model's building blocks (like activation functions and pooling) have a strong influence on the models' prediction confidences.
Decarbonisation Strategies in Energy Systems Modelling: APV and e-tractors as Flexibility Assets
(2023)
This work presents an analysis of the impact of introducing Agrophotovoltaic technologies and electric tractors into Germany’s energy system. Agrophotovoltaics involves installing photovoltaic systems in agricultural areas, allowing for dual usage of the land for both energy generation and food production. Electric tractors, which are agricultural machinery powered by electric motors, can also function as energy storage units, providing flexibility to the grid. The analysis includes a sensitivity study to understand how the availability of agricultural land influences Agrophotovoltaic investments, followed by the examination of various scenarios that involve converting diesel tractors to electric tractors. These scenarios are based on the current CO2 emission reduction targets set by the German Government, aiming for a 65% reduction below 1990 levels by 2030 and achieving zero emissions by 2045. The results indicate that approximately 3% of available agricultural land is necessary to establish a viable energy mix in Germany. Furthermore, the expansion of electric tractors tends to reduce the overall system costs and enhances the energy-cost-efficiency of Agrophotovoltaic investments.
The aim of this research work was to develop a boiler model with few parameters required for energy planning. The showcase considered for this work was the boiler system of the energy center at Offenburg University of Applied Sciences. A grey box model of the boiler was developed systematically starting from model abstraction, simplification, model break-down and to the use of empirical correlations wherever necessary to describe the intermediate effects along with the use of information from manufacturer’s specification in order to reduce parameters. This strategy had resulted in a boiler model with only 6 parameters, namely, nominal burner capacity, water gallery capacity, air ratio, heat capacity of wall, thermal conductance on flue gas and hot water side. Most of these parameters can be obtained through the information available in the spec sheets and thus an energy planner will be able to parameterize the model with low effort. The model was validated with the monitored data of the showcase. It was tested for the start-up, shut-down behavior and the effect of storage.
Polygeneration systems are a key technology for the reduction of primary energy usage and emissions. High costs, lack of flexibility and effort for parameterization hinder the wide usage of modeling tools during their conceptual design. This paper describes how planning tools can be structured for the conceptual design phase where only little information is available to the planner. A library concept was developed using the principles of object-oriented modeling to address the flexibility issue. With respect to cost and expandability, the open-source modeling language Modelica was chosen. Furthermore, easy-to-parameterize component models were developed. In addition to the improved library concept and novel component models, an easy-to-adapt control concept is proposed. The component models were validated and the applicability of the library was demonstrated by means of an example. It was shown that the data usually obtained from spec sheets are sufficient to parameterize the models. In addition to this, the control concept was approved.
Innovative combined heat, cold and power (Trigeneration) at Offenburg University of Applied Sciences
(2013)
The aim of the paper was to investigate the energy saved in the shift from separate generation of thermal and electrical energy to trigeneration at the energy facility in Offenburg University of Applied Sciences (HS OG). The energy facility at HS OG used a traditional heating system and electricity from grid until 2007 afterwhich they installed a trigeneration system to meet its continuously changing dynamic thermal and electrical demands. This paper highlights the methodology that had been derived to analyze and study the effect of this shift based on the energy consumption data available from 2004 to 2011, which were scarce due to the limited monitoring. From the energy analysis, we concluded that 8 % primary energy was saved in this shift at the energy facility of HS OG. And from economical perspective 5 % useful thermal energy and 39 % useful electrical energy was saved in this shift at the energy facility of HS OG. Nevertheless, the term energy saving, in general, is very relative and complex to define in such a changeover.
The energy supply of Offenburg University of Applied Sciences (HS OG) was changed from separate generation to trigeneration in 2007/2008. Trigeneration was installed for supplying heat, cooling and electrical power at HS OG. In this paper, trigeneration process and its modes of operation along with the layout of the energy facility at HS OG were described. Special emphasis was given to the operation schemes and control strategies of the operation modes: winter mode, transition mode and summer mode. The components used in the energy facility were also outlined. Monitoring and data analysis of the energy system was carried out after the commissioning of trigeneration in the period from 2008 to 2011. Thus, valuable performance data was obtained.
Micro gas turbines (MGTs) are regarded as combined heat and power (CHP) units which offer high fuel utilization and low emissions. They are applied in decentralized energy neration.
To facilitate the planning process of energy systems, namely in the context of the increasing application of optimization techniques, there is a need for easy-to-parametrize component models with sufficient accuracy which allow a fast computation. In this paper, a model is proposed where the non-linear part load characteristics of the MGT are linearized by means of physical insight of the working principles of turbomachinery. Further, it is shown that the model can be parametrized by the data usually available in spec sheets. With this model a uniform description of MGTs from several manufacturers
covering an electrical power range from 30kW to 333kW can be obtained. The MGT model was
implemented by means of Modelica/Dymola. The resulting MGT system model, comprising further heat exchangers and hydraulic components, was validated using the experimental data of a 65kW MGT from a trigeneration energy system.
The aim of this essay is to give an overview about recent developments of the government innovation funds of Sweden and Finland. In order to discover recent developments basic knowledge regarding innovation funds, funding structures and information about the two big funding agencies Vinnova Sweden and Business Finland is presented. Building on this information, the developments of the two funding agencies are compared and examined for similarities and differences. Both countries have a very similar structure in terms of the R&D sector and are striving with the same issues. Just as sustainability is a leading issue, the collaboration between the different shareholders is another main challenge. Both topics were negatively affected by the COVID-19 pandemic. Both Sweden and Finland had to really push forward innovation with financial support and political, strategic goals. Even though there are strong recent developments, the countries are facing the same challenges, do have similar funding structures and therefore have no big comparative strengths or weaknesses to each other.
The Projekt-Sweaty is a project of the University of Applied Sciences of Offenburg, an autonomous robot is being developed that competes against a set of several international colleges and universities in the RoboCup.
"Sweaty" is a soccer-playing humanoid robot who participated in the RoboCup World Cup in Brazil for the first time in 2014.
RoboCup is a competition aimed at developing a robot soccer team that surpasses the human world champion team. The competition started in 1997 the first official RoboCup games and conferences were held with great success. More than 40 teams took part and more than 5,000 spectators attended. RoboCup’s rules change to promote advances in robot science and technology and to bring the league’s challenges closer to the real world.
Building a robot that plays football will not in itself generate a significant social and economic impact, but the realization will certainly be considered an important success for the field of robotics.
Thanks to the interaction of all the faculties, the team consists of professors and students from the fields of mechanical and process engineering, electrical engineering, information technology, and information and media technology. Students can use the project during their studies and use the knowledge acquired in practice to implement and through their own creative ideas complement.
Die vorliegende Arbeit thematisiert die Relevanz der Betrachtung von kulturellen Gegebenheiten und Unterschieden für die Verlagsbranche, sowie deren Auswirkung auf die Kommunikationspolitik. Dazu wird ein analytischer Vergleich des Zeitschriftenmarkts von Deutschland und Amerika anhand
ausgewählter Zeitschriften und Zeitungen durchgeführt.
Im Rahmen dieses Arbeitspapier wird zunächst ein Prozess für die Markenentwicklung und -führung vorgestellt. Im Anschluss gehen die Autoren näher auf die Bedeutung und vor allem die konkrete Ausgestaltung der Inklusion innerhalb dieses Markenentwicklungsprozesses ein. Schließlich werden einige Empfehlungen hinsichtlich einer noch optimaleren Berücksichtigung der Inklusion innerhalb des Prozesses beschrieben.
In dieser Bachelor-Thesis wird zunächst einmal die Situation der alternden deutschen Gesellschaft aufgezeigt. Besonders berücksichtigt wird dabei die Stadt Villingen, da sich in dieser Stadt der praktische Teil meiner Thesis verortet hat. Die Bedeutung von „Altsein“, bzw. „Altwerden“ und die neuen Anforderungen, die der demografische Wandel für die Gesellschaft mit sich bringt, werden hierbei kurz aufgeführt. Daneben soll deutlich gemacht werden, dass der demografische Wandel neue Bildungsangebote, welche auch mediale Angebote umfasst, fordert. In dem zweiten Teil wird meine praktische Arbeit vorgestellt. Es wird erläutert welche Strategien notwendig sind um ein Medienprojekt für ältere Menschen anzubieten sowie welche didaktischen und methodischen Arbeitsschritte sinnvoll sind. Die Überlegungen, die ich in meiner theoretischen und praktischen Arbeit anstelle, sollen dazu dienen, der Senioren-Radiogruppe im Kirchenbezirk Villingen soviel Knowhow zu vermitteln, dass sie am Ende meiner Arbeit autonom Hörbeiträge produzieren und diese auf eine Homepage hochladen können.
In this paper we propose a motion framework forbipedal robots that decouples motion definitions from stabilizingthe robot. This simplifies motion definitions yet allows dynamicmotion adaptations. Two applications, walking and stopping onone leg, demonstrate the power of the framework. We show thatour framework is able to perform walking and stopping on one legeven under extreme conditions and improves walking benchmarkssignificantly in the RoboCup 3D soccer simulation domain.
In 2012 sind laut Börsenverein des Deutschen Buchhandels 91.100 neue Bücher auf dem Markt erschienen. Zwar bedeutet dies einen Rückgang von 5,4 Prozent im Vergleich zum Vorjahr (2011: 96.273 Titel) und ist der niedrigste Wert seit sieben Jahren, aber nach wie vor ist das eine sehr hohe Zahl an Neuerscheinungen. Dies führt dazu, dass selbst Vielleser und Personen mit einer hohen Lesefrequenz den Überblick verlieren und angeben, dass der Buchmarkt für sie unübersichtlich ist. Gleiches ist auch bei Jugendlichen zu erkennen. Hier geben ein Achtel der Befragten an, dass ihnen der Überblick fehle und sie deshalb nicht lesen.
Es wird deutlich, dass der Käufer die entscheidende Instanz ist und durch seine Entscheidung, ein Produkt zu kaufen oder nicht, den Erfolg eben dieses Produkts bestimmt. Da es sich bei der aktuellen Marktsituation also klar um einen Käufer oder Kundenmarkt handelt, müssen die Verlage immer mehr auf die Wünsche und Bedürfnisse ihrer Kunden und Leser eingehen. Das erreichen sie vor allem durch die Spezialisierung ihres Programms. In der Folge gibt es zum Beispiel Wissenschaftsverlage, Schulbuchverlage oder Kinder- und Jugendbuchverlage. Die spezialisierten Verlage müssen die Zusammensetzung und Wünsche ihrer jeweiligen Zielgruppe genau kennen, um erfolgreich zu sein.
Um den Kunden hinsichtlich der Programmübersicht zu unterstützen und so mögliche Käufer zu gewinnen, hat sich der Kinderbuchverlag Ernst Kaufmann Verlag in Lahr zusammen mit dem Oetinger Verlag in Hamburg neben seinem Kerngeschäft einen Reise- und Versandbuchhandel („Smalland“) aufgebaut. Smalland bietet dem Verlag die Möglichkeit, in Zusammenarbeit mit rund 10.000 Kindergärten in ganz Deutschland Kinderbuchausstellungen durchzuführen.
Zweimal im Jahr werden Buchpakete mit je circa 30 Titeln verschiedener Verlage zusammengestellt, welche dann als Musterpakete von den Kindergärten für die Eltern und Kinder ausgestellt werden. Eltern fordern dann die gewünschten Kinderbücher per Sammelbestellung an.
Um verlagseigene Produkte im jeweiligen Programmumfeld optimal zu positionieren ist es notwendig, die bisherigen Ergebnisse der Ausstellungen zu analysieren. Hierfür eignet sich eine Analyse der Absatzzahlen von insgesamt zehn Halbjahren, welche dem Verlag vorliegen.
Ziel dieser Arbeit ist es, das Programmumfeld eines ausgewählten verlagseigenen Produkts zu untersuchen und die Erfolgsparameter eben dieses Produkts festzustellen. Mittels einer Absatzzahlenuntersuchung und anhand acht aufgestellter Thesen wird sich diesem Ziel genähert.
Maintaining stability while walking on arbitrary surfaces or dealing with external perturbations is of great interest in humanoid robotics research. Increasing the system’s autonomous robustness to a variety of postural threats during locomotion is the key despite the need to evaluate noisy sensor signals. The equations of motion are the foundation of all published approaches. In contrast, we propose a more adequate evaluation of the equations of motion with respect to an arbitrary moving reference point in a non-inertial reference frame. Conceptual advantages are, e.g., getting independent of global position and velocity vectors estimated by sensor fusions or calculating the imaginary zero-moment point walking on different inclined ground surfaces. Further, we improve the calculation results by reducing noise-amplifying methods in our algorithm and using specific characteristics of physical robots. We use simulation results to compare our algorithm with established approaches and test it with experimental robot data.
In this paper, we propose an approach for gait phase detection for flat and inclined surfaces that can be used for an ankle-foot orthosis and the humanoid robot Sweaty. To cover different use cases, we use a rule-based algorithm. This offers the required flexibility and real-time capability. The inputs of the algorithm are inertial measurement unit and ankle joint angle signals. We show that the gait phases with the orthosis worn by a human participant and with Sweaty are reliably recognized by the algorithm under the condition of adapted transition conditions. E.g., the specificity for human gait on flat surfaces is 92 %. For the robot Sweaty, 95 % results in fully recognized gait cycles. Furthermore, the algorithm also allows the determination of the inclination angle of the ramp. The sensors of the orthosis provide 6.9 and that of the robot Sweaty 7.7 when walking onto the reference ramp with slope angle 7.9.
In dieser Arbeit wird das Verformungsverhalten und die Stabilität des Frontflügels des Formula Student Rennwagens der HS Offenburg untersucht. Die Analyse wird mittels der Finiten-Elemente-Methode durchgeführt (Programm: ANSYS Workbench). In der Simulation wird das Modell mit verschiedenen statischen Kräften belastet, unter anderem die Kräfte aus dem technischen Reglement und die auftretende Abtriebskraft. Neben der Verformung werden auch verschiedene Stabilisierungsmöglichkeiten analysiert. Zusätzlich zu den Simulationsergebnissen selbst werden in dieser Arbeit der Simulationsvorbereitungsprozess sowie die Konstruktion des Frontflügels und Grundlagen der FEM beschrieben. Eine Besonderheit bildet dabei die Verwendung des ANSYS Composite PrePost um die verwendeten Verbundwerkstoffe zu untersuchen.
Das Ziel der vorliegenden Bachelorarbeit war es, ein Anforderungsprofil für den Aufbau eines Messsystems im Hochspannungsnetz der DB Energie zu entwickeln. Dieses soll als Basis für den künftigen Aufbau des Systems dienen und die Besonderheiten des 110 kV, 16,7 Hz Netzes berücksichtigen. Die Ziele des Messsystems sind es, Aussagen über den Betriebszustand des Netzes mit resonanter Sternpunkterdung, hinsichtlich der Netzstabilität, der Erdschlusslöschfähigkeit und dem Erzeugerverhalten, treffen zu können.
Dazu wurden Experteninterviews durchgeführt, die die Anforderungen an das Messkonzept definieren. Darauf aufbauend wurden die geforderten Messungen und Auswertungen hinsichtlich der Umsetzbarkeit im Netz der DB Energie überprüft. Besonderes Augenmerk lag auf den verbauten Strom- und Spannungswandler im Netz, an denen die entsprechenden Messgrößen abgegriffen werden sollen. Deren Abbildungstreue, in Bezug auf die Genauigkeit des Messwerts und das Transferverhalten bei unterschiedlichen Frequenzen, wurde eingehender betrachtet.
Ebenfalls wurde die bei den Messungen aufkommenden Datenmengen näher betrachtet. Die Art der Messung und Auswertung der Daten sind hier ausschlaggebend, um die Daten klein zu halten. Die Empfehlung ist ein Kompromiss aus zwei gleichzeitig ablaufenden Auswertungen, um die anfallenden Datenmengen gut und schnell analysieren zu können.
Der Studienbeginn wird an der Hochschule Offenburg durch Vorbereitungskurse, sogenannte Brückenkurse, unterstützt. Wir stellen vorläufige Ergebnisse beim Einsatz von Smartphones und Tablets im Rahmen des Physik-Brückenkurses vor, bei dem die Studenten Hilfen zum selbständigen Üben durch eine App erhalten. Durch die Überarbeitung des Kurses und den Einsatz der App konnte der Teilnehmerschwund verringert werden. Die Evaluationsergebnisse bestätigen eine hohe Akzeptanz der Neuerungen seitens der Studierenden. Erste Auswertungen von Ein- und Ausgangstests deuten darauf hin, dass durch den Brückenkurs eine Angleichung der Vorkenntnisse der Studienanfänger erreicht wird, da Teilnehmer mit geringeren Vorkenntnissen tendenziell einen größeren Lernfortschritt erreichen. Durch unterschiedliche Schwierigkeitsstufen und selbstregulierte Übungsphasen in individuellem Tempo können aber auch die Erfordernisse der stärkeren Teilnehmer angemessen berücksichtigt werden.
Brückenkurs Physik
(2019)
Dieses Lehrbuch fasst alle wesentlichen, für das Studium eines MINT-Faches relevanten Inhalte der Physik zusammen und hilft physikalisches Grundwissen aufzufrischen. Es unterstützt Studienanfänger dabei, die Routine in der konkreten Anwendung, die an der Hochschule vorausgesetzt wird, zu festigen. Dabei folgt die Stoffauswahl dem Mindestanforderungskatalog Physik, den ein Arbeitskreis aus Professoren der baden-württembergischen Hochschulen für angewandte Wissenschaften zusammengestellt hat.
Die Physik des Fahrrades
(2020)
Jeder kann Fahrradfahren, keiner weiß,warum es klappt: Anders als beim Reiten, Laufen oder Skifahren muss man sich mit dem Fahrrad immer vorwärtsbewegen, um nicht umzufallen. Prof. Giel von der Hochschule Offenburg erklärt dieses und andere Geheimnisse des Radfahrens. Zum Beispiel, ob man mit der Fahrradpumpe auch Autoreifen aufpumpen kann, warum normale Fahrradfahrer die Marathon-Distanz schneller als die weltbesten Läufer zurücklegen und welche legalen Tuning-Methoden das eigene Fahrrad noch schneller machen.
Selbsttests in Lernmanagementsystemen (LMS) ermöglichen es Studierenden, den eigenen Lernfortschritt einzuschätzen. Im Gegensatz zur Einreichung und Korrektur vollständig ausformulierter Aufgabenlösungen nutzen LMS überwiegend die Eingabe der Lösung im Antwort-Auswahl-Verfahren (Single-Choice). Nach didaktischen Ansatz „Physik durch Informatik“ geben die Lernenden stattdessen ihre Aufgabenlösungen in einer Programmiersprache ins LMS ein, was eine automatisierte Rückmeldung erleichtert und das Erreichen einer höheren Kompetenzstufe fördert. Es wurden zehn LMS-Selbsttests erstellt, bei denen die Lösungen zu einer Lehrbuch-Aufgabenstellung jeweils durch Eingabe in einer Programmiersprache und von einer Kontrollgruppe im Antwort-Auswahl-Verfahren abgefragt wurden. Ergebnisse aus dem ersten Einsatz dieser Selbsttests für die Lehrveranstaltung Physik im Studiengang Biotechnologie werden vorgestellt.
Freiwillige Fachtutorien erreichen aus unterschiedlichen Gründen nicht alle Studierenden. Allein der subjektive Eindruck, dass zu wenige Ressourcen seitens der Hochschule (Übungsräume, studentische Tutoren, lückenlose Stundenplanpassung) oder der Studierenden (Zeit, Motivation) zur Verfügung stünden, führt zu Absenzen bei freiwilligen Präsenztutorien. Um die empfundenen und realen Begrenzungen dieser Veranstaltungen zu verringern, wurden für den Studiengang Maschinenbau die Musterlösungen der Übungsaufgaben Physik und Mathematik in Form von Videoclips erstellt und über die Lernplattform Moodle für alle Studierende des Semesters bereitgestellt. Die Clips beziehen sich jeweils auf eine Teilaufgabe und besitzen die Länge eines typischen Youtube-Tutorials. In etwa 5 Minuten bieten sie dem Zuschauer einen Lösungsweg zu den jeweiligen Übungsaufgaben. Die Studierenden können die Clips alternativ oder ergänzend zur Präsenzveranstaltung nutzen. Bei der Erstellung der Clips wurde auf den Einsatz von Spezialeffekten wie Animationen etc. zugunsten einer effizienten Produktion verzichtet, so dass eine einzelne Lehrperson pro Stunde etwa 10 bis 20 Minuten Videoclips aufzeichnen kann. Die Auswertung der Zugriffszahlen auf die Clip-Dateien ermöglicht eine aufgabengenaue Ermittlung der aktiven Nutzer. Im Betrag wird eine vorläufige Auswertung der Teilnehmerzahl und der Korrelation zwischen Klausurergebnis und Nutzungsgrad präsentiert.
Offenburg university of Applied Sciences offers pre-study extracurricular preparatory courses for future engineering students in mathematics and physics. Due to pandemic restrictions, the two-week preparatory physics course preceeding winter term 2020/21 was presented as an online -only course.
Students enrolled to the course attended eight online lect ures of approximately 90 minutes duration followed by a group assignment. Both lectures and tutoring to the group assignment used a videoconference system with group sizes of 120 (lecture) and 6 (peer instruction and group assignments). The eight lectures focused on the high school physics curriculum of mechanics, electricity, thermodynamics and optics. Each lecture included four “peer instruction” questions to improve student activation. Student responses were collected using an audience response online tool.
The “peer instruction” questions were discussed by the students in online groups of six students. These groups also received written group assignments consisting of common textbook exercises and additional problems with incomplete information. To solve these problems, groups were encouraged to discuss possible solutions. The on-line course attendance was monitored and showed a characteristic exponential “decay” curve with a half-life of approximately 18 lectures which is comparable to conventional courses: Around 73% of the students enrolled in the preparatory course attended all eight lectures. In addition to the attendance, the progress of the participants was monitored by two online tests: A pre-course online test the first course day and a post -course online test on the last day.
The completion of both tests was highly recommended, but not a formal requirement for the students. The fraction of students completing the pre-course, but not the post-course test was used as an estimate for the drop-out rate of (34±3)%.
Physik durch Informatik
(2022)
Selbsttests in Lernmanagementsystemen (LMS) ermöglichen es Studierenden, den eigenen Lernfortschritt einzuschätzen. Das didaktische Konzept Physik durch Informatik (PDI) ist charakterisiert durch die Nutzung einer Programmiersprache zur Lösungseingabe bei Mathematik und Physik-Aufgaben. Im Gegensatz zur Lösungseingabe durch Zahlenwerte oder im Antwort-Auswahl-Verfahren erfordert die Implementierung einer Lösung in einer Programmiersprache eine höhere Kompetenzstufe.
Die Vorlesung Physik ist ein grundlegender Baustein der meisten Ingenieursstudiengänge und stellt für viele Studienanfänger eine Hürde zum Studienstart da. Die Vorkenntnisse der Studienanfänger sind zunehmend heterogen und der sichere Umgang mit physikalischen Konzepten erfordert mehr oder wenig Übung, um diese zu festigen oder auch erstmals einzuführen. Um dieses Üben zu ermöglichen, wurde für die Vorlesung "Physik 1" in den Studiengängen Maschinenbau, Werkstofftechnik, Mechatronik, Biomechanik, Biotechnologie und Umwelt- und Verfahrenstechnik der Hochschule Offenburg ein E-Tutorium erarbeitet, das die Übungsaufgaben in Form von 10 Online-Selbsttest mit jeweils vier Übungsaufgaben anbietet. Die Selbsttests beinhalten dabei typische Aufgabenstellungen, deren Zahlenwerte (Masse, Geschwindigkeit usw.) bei jedem Aufruf der Aufgabe variieren. Dadurch lassen sich die Selbsttests zum selbständigen Üben nutzen. Ein reines Abschreiben einer Musterlösung ist durch die veränderlichen Zahlenwerte darüber hinaus unmöglich. Wir beschreiben eine Methode zur effizienten Erzeugung der Moodle-basierten Selbsttests mit Hilfe der Software R/exams und berichten über die Erfahrungen beim ersten Einsatz.
Industrial companies can use blockchain to assist them in resolving their trust and security issues. In this research, we provide a fully distributed blockchain-based architecture for industrial IoT, relying on trust management and reputation to enhance nodes’ trustworthiness. The purpose of this contribution is to introduce our system architecture to show how to secure network access for users with dynamic authorization management. All decisions in the system are made by trustful nodes’ consensus and are fully distributed. The remarkable feature of this system architecture is that the influence of the nodes’ power is lowered depending on their Proof of Work (PoW) and Proof of Stake (PoS), and the nodes’ significance and authority is determined by their behavior in the network.
This impact is based on game theory and an incentive mechanism for reputation between nodes. This system design can be used on legacy machines, which means that security and distributed systems
can be put in place at a low cost on industrial systems. While there are no numerical results yet, this work, based on the open questions regarding the majority problem and the proposed solutions based on a game-theoretic mechanism and a trust management system, points to what and how industrial IoT and existing blockchain frameworks that are focusing only on the power of PoW and PoS can be secured more effectively.
The importance of machine learning has been increasing dramatically for years. From assistance systems to production optimisation to support the health sector, almost every area of daily life and industry comes into contact with machine learning. Besides all the benefits that ML brings, the lack of transparency and the difficulty in creating traceability pose major risks. While there are solutions that make the training of machine learning models more transparent, traceability is still a major challenge. Ensuring the identity of a model is another challenge. Unnoticed modification of a model is also a danger when using ML. One solution is to create an ML birth certificate and an ML family tree secured by blockchain technology. Important information about training and changes to the model through retraining can be stored in a blockchain and accessed by any user to create more security and traceability about an ML model.
With many advances in sensor technology and the Internet of Things, Vehicle Ad Hoc Net- work (VANET) is becoming a new generation. VANET’s current technical challenges are deploying decentralized architecture and protecting privacy. Because Blockchain features are decentralized, distributed, mass storage, and non-manipulation features, this paper designs a new decentralized architecture using Blockchain technology called Blockchain-based VANET. Blockchain-based VANET can effectively resolve centralized problems and mutual distrust between VANET units. To achieve this, it is needed to provide scalability on the blockchain to run for VANET. In this system, our focus is on the reliability of incoming messages on the network. Vehicles check the validity of the received messages using the proposed Bayesian formula for trust management system and some information saved in the Blockchain. Then, based on the validation result, the vehicle computes a rate for each message type and message source vehicle. Vehicles upload the computed rates to Roadside Units (RSUs) in order to calculate the net reliability value. Finally, RSUs using a sharding consensus mechanism generate blocks, including the net reliability value as a transaction. In this system, all RSUs collaboratively maintain the latest updated Blockchain. Our experimental results show that the proposed system is effective, scalable and dependable in data gathering, computing, organization, and retrieval of trust values in VANET.
While most ultrafast time-resolved optical pump-probe experiments in magnetic materials reveal the spatially homogeneous magnetization dynamics of ferromagnetic resonance (FMR), here we explore the magneto-elastic generation of GHz-to-THz frequency spin waves (exchange magnons). Using analytical magnon oscillator equations, we apply time-domain and frequency-domain approaches to quantify the results of ultrafast time-resolved optical pump-probe experiments in free-standing ferromagnetic thin films. Simulations show excellent agreement with the experiment, provide acoustic and magnetic (Gilbert) damping constants and highlight the role of symmetry-based selection rules in phonon-magnon interactions. The analysis is extended to hybrid multilayer structures to explore the limits of resonant phonon-magnon interactions up to THz frequencies.
We revisit the quantitative analysis of the ultrafast magnetoacoustic experiment in a freestanding nickel thin film by Kim and Bigot [J.-W. Kim and J.-Y. Bigot, Phys. Rev. B 95, 144422 (2017)] by applying our recently proposed approach of magnetic and acoustic eigenmode decomposition. We show that the application of our modeling to the analysis of time-resolved reflectivity measurements allows for the determination of amplitudes and lifetimes of standing perpendicular acoustic phonon resonances with unprecedented accuracy. The acoustic damping is found to scale as ∝ω2 for frequencies up to 80 GHz, and the peak amplitudes reach 10−3. The experimentally measured magnetization dynamics for different orientations of an external magnetic field agrees well with numerical solutions of magnetoelastically driven magnon harmonic oscillators. Symmetry-based selection rules for magnon-phonon interactions predicted by our modeling approach allow for the unambiguous discrimination between spatially uniform and nonuniform modes, as confirmed by comparing the resonantly enhanced magnetoelastic dynamics simultaneously measured on opposite sides of the film. Moreover, the separation of timescales for (early) rising and (late) decreasing precession amplitudes provide access to magnetic (Gilbert) and acoustic damping parameters in a single measurement.
Hintergrund: Im Laufsport sind Verletzungen, die durch Überlastungen an den unteren Extremitäten entstehen, weitverbreitet. Dabei spielt auch laufinduzierte Ermüdung eine große Rolle. Eine zunehmende Ermüdung beim Laufen und die daraus folgenden kinematischen Veränderungen des Laufverhaltens können das Bewegungs- und Stützsystem stärker belasten und somit zu einer Überlastung und Instabilität der unteren Extremitäten führen. Allerdings sind die genauen Auswirkungen der Ermüdung auf die kinematischen Veränderungen nicht ausreichend untersucht. Ziel: Daher war das Hauptziel der vorliegenden Arbeit zu untersuchen wie sich die, durch einen 10km Lauf ausgelöste, Ermüdung auf die Variabilität ausgewählter Raum-Zeit-Parameter von Freizeit- und Leistungsläu-fern auswirkt. Methodik: Dafür wurden dreidimensionale Bewegungsdaten von 24 Probanden (aufgeteilt in Freizeitläufer und Leistungsläufer) erfasst. Alle Pro-banden liefen einen 10 km-Lauf auf einem Laufband. Die Variabilität der ausgesuchten Parameter wurde mit Hilfe der Standardabweichung und des Variationskoeffizienten ermittelt. Die statistische Analyse erfolgte durch eine zweifache Varianzanalyse mit Messwiederholung. Ergebnisse: Die Ergebnisse zeigten, dass die laufinduzierte Ermüdung einen Einfluss auf die Variabilität hat. Jedoch sind die Verläufe der Ergebnisse schwer zu interpretieren, da kein klares Muster zu erkennen ist. Ausblick: Zukünftige Arbeiten sollten vor allem unterschiedliche Sichtweisen zur Bewertung der Variabilität in einen kohärenten Rahmen bringen, um besser beurteilen zu können wann und welche Variabilität, je nach Parameter, einen positiven oder negativen Einfluss auf die Stabilität des menschlichen Gangs hat.
Beim Betrieb von Maschinen mit großen Trägheitsmomenten treten bei Asynchronmaschinen mit Käfigläufer als Antriebsmotor teilweise Probleme beim Hochlauf des Aggregats auf. Es werden Maßnahmen zur Verbesserung des Anlaufs erläutert sowie mit Hilfe von Näherungsrechnungen und Simulationen untersucht. Aus den Simulationsergebnissen lassen sich Voraussagen über das Gelingen des Hochlaufs und die Tauglichkeit verschiedener Hilfsmaßnahmen ableiten.
Asynchronmaschinen mit Kaefiglaeufer benoetigen waehrend ihres Hochlaufs das 3- bis 8fache des Bemessungsstroms. Dieser hohe Anlaufstrom geht erst zurueck, wenn der Kippschlupf erreicht ist (bei etwa 90% der Bemessungsdrehzahl). Wenn die Kurzschlussleistung des einspeisenden Netzes zum Zeitpunkt der Motorzuschaltung gering ist, koennen durch Spannungseinbrueche Anlaufprobleme einer Kaefiglaeufermaschine auftreten. Bei der Planung eines solchen Antriebs muessen deshalb genauere Simulationsrechnungen ueber die Zusammenhaenge von Hochlaufzeit, Spannungseinbruch und zulaessigen Grenzwerten durchgefuehrt werden. Ergebnisse derartiger Anlaufsimulationen eines 800-kW- und eines 1,13-MW-Hochspannungsmotors bei Anschaltung an einen 10-MVA- und einen 2-MVA-Generator wurden fuer verschiedene Zuschaltungssituationen in Oszillogrammen festgehalten. Durch genauere mathematische Angaben verdeutlicht werden die Faelle des Motorhochlaufs bei Inselbetrieb mit geringer Kurzschlussleistung sowie die Zuschaltung der Asynchronmotoren auf den Generator vor und nach Anhebung der Netzspannung behandelt. Angaben werden ferner gemacht zur Zuschaltung des 1,13-MW-Motors auf die Parallelschaltung des 10-MVA- und des 2-MVA-Generators. Aus den Simulationsoszillogrammen der Faelle von Hochlauf und Motorzuschaltung sind die zeitabhaengigen Aenderungen von Ankerstrom, Wirkleistungsaufnahme, Blindleistungsaufnahme, Klemmenspannung, Drehzahlabweichung, Antriebsmoment und Lastdrehmoment zu entnehmen.
Die Funkschnittstelle nach dem Bluetooth Standard ist heutzutage nicht mehr aus dem Consumer-Markt wegzudenken. Auch durch die zukünftige Weiterentwicklung des Prinzips von IoT (Internet of Things) wird vor allem die Bluetooth Low Energy Technologie für Unternehmen bei der Entwicklung von Geräten mehr an Bedeutung gewinnen. Um die Studierenden im Bereich der Kommunikationstechnik auf das Thema Bluetooth vorzubereiten, wird der Versuch „Kurzstreckenkommunikation nach dem Bluetooth Standard“ im Telekommunikations-Labor an der Hochschule Offenburg angeboten. Der Versuch wurde im Rahmen dieser Bachelor-Thesis an die heutigen Anforderungen angepasst.
Die nachfolgende Bachelor-Thesis beinhaltet die gesamte Laboranleitung des Versuchs, welche in die drei Teile: Theoretische Grundlagen, vorbereitende Aufgaben und der Versuchsdurchführung aufgeteilt wird. Der Versuchsanleitung folgt ein Teil mit weiteren Anmerkungen für die akademischen Mitarbeiter, welche den Versuch betreuen. Hier wird sichergestellt, dass auch in Zukunft der Versuch problemlos weiter durchgeführt werden kann. Im Anhang befinden sich die Musterlösungen für die vorbereitentenden Aufgaben und der Versuchsdurchführung.
The EREMI project is a 2-year project funded under the ERASMUS+ framework programme and its team has developed and will validate an advanced higher education program, including life-long learning, on the interdisciplinary topic of resource efficiency in manufacturing industries and the overall system optimization of low or not digitized physical infrastructure. All of these will be achieved by applying IoT technologies towards efficient industrial systems, and by utilizing a high-level educated human capital on these economically, politically, and technically crucial and highly relevant topics for the rapidly developing industries and economies of intensively economically and industrially transforming countries - Bulgaria, North Macedonia, and Romania. Efficiency will be attained by utilizing the experience and expertise of the involved German partner organisation.
Die Bachelorarbeit mit dem Titel "Chatbots als Kommunikationsinstrument: Ein Leitfaden für kleine und mittelständische Unternehmen zur Optimierung der Kundenkommunikation durch den Einsatz von Chatbots" zielt darauf ab, praxisorientierte Leitlinien für KMU zu entwickeln, die Chatbots zur Verbesserung ihrer Kundenkommunikation einsetzen möchten. Die Arbeit konzentriert sich auf zwei Hauptaspekte: Erstens, wie KMU Chatbots erfolgreich in ihre Marketingstrategien integrieren können, unter Berücksichtigung technischer und unternehmerischer Bedürfnisse und Ziele. Zweitens, wie der Einsatz von Chatbots die Effektivität der Kundenkommunikation in diesen Unternehmen beeinflusst, mit dem Ziel, Kundenansprache und -bindung zu verbessern sowie Prozesse zu optimieren. Durch theoretische Grundlagen und praxisnahe Empfehlungen bietet die Arbeit einen umfassenden Leitfaden, der konkrete Handlungsempfehlungen für die erfolgreiche Implementierung von Chatbots liefert. Diese sollen KMU dabei unterstützen, einen nachhaltigen Mehrwert für ihre Kundenbeziehungen zu schaffen und ihre Wettbewerbsfähigkeit zu stärken.
Art of Merenya
(2021)
Es ist von großem Nutzen, wenn energieeffiziente Leichtbaufahrzeuge einen effizienten und leichten Antrieb besitzen. Der aktuell verbaute Hatz-Dieselmotor des Schluckspecht S5 erfüllt diese Anforderungen nur teilweise. Aus diesem Grund wird der Motor zukünftig durch einen leichteren und effizienteren ethanolbetriebenen Ottomotor ersetzt. Da der Versuchsmotor keineswegs an die Anforderungen des Shell Ecomarathons angepasst ist und bis auf dessen Hubraum von 125 cm³ kaum Motordaten vorhanden sind, gilt es den Versuchsmotor verbrauchsoptimal zu applizieren. Die vorliegende Abschlussarbeit befasst sich mit den experimentellen Untersuchungen und einigen Optimierungen des ethanolbetriebenen Ottomotors am Motorenprüfstand. Um in Zukunft die Durchführung der Untersuchungen zu gewährleisten und den bestmöglichen Betrieb des Versuchsmotors zu garantieren, ist es elementar alle optimierten Bauteile für den Kraftstoff Ethanol auszulegen. Neben der Überarbeitung des Kraftstoffsystems liegt das Hauptaugenmerk hierbei auf der Optimierung des Kolbens und der Nockenwelle. Durch den optimierten Kolben soll die Verdichtung des Verbrennungsmotors erhöht und durch die optimierte Nockenwelle die Ventilsteuerzeiten perfektioniert werden. Demnach besteht die Aufgabe die Bauteile zu besorgen, die Fertigung zu koordinieren und den Umbau der optimierten Komponenten zu realisieren. Des Weiteren erfolgt die Konstruktion einer Kupplung, welche in Zukunft zwischen Verbrennungsmotor und Elektromotor montiert werden soll. Ein zentrale Tätigkeit ist die Fehlerbeseitigung am Motorenprüfstand, sodass der Versuchsalltag reibungslos abläuft. Die letzte Tätigkeit umfasst die Durchführung der experimentellen Untersuchungen des Verbrennungsmotors sowie das Anlegen von Kennfeldern, welche einen effizienten Motorlauf garantieren. Das Betriebskennfeld hinsichtlich der Last und Drehzahl wird mittels verschiedener Einstellparameter appliziert. Zur Unterstützung dienen dabei die Kalibrierungssoftware EcoCal und die Indizierungssoftware IndiCom.
Bildung für nachhaltige Entwicklung (BNE) hat einen festen Platz im deutschen Bildungssystem gefunden. BNE setzt sich die Ziele, Lernende zu informierten und verantwortungsbewussten Konsumenten zu befähigen sowie sie darauf vorzubereiten und das eigene Verhalten sowie das Verhalten anderer kritisch zu reflektieren. Der Nachhaltigkeitsbegriff von BNE orientiert sich hierbei an den drei Perspektiven, Soziales, Ökonomisches und Ökologisches, und an deren Wechselwirkungen untereinander.
Um Lernenden Nachhaltigkeitsthemen nach der Definition von BNE zu vermitteln, bieten sich Photovoltaik-Systeme (PV), vor allem in Off-Grid-Ausführungen, an, da sie aufgrund ihrer Eigenschaften als erneuerbare Energieerzeuger einen rücksichtsvolleren Umgang mit den vorhandenen Ressourcen fordern, Reflexion des eigenen Verhaltens anregen und sich in verschiedenen Situationen unter den drei Perspektiven der Nachhaltigkeit betrachten lassen.
Für eine Projektarbeit an allgemeinbildenden sowie beruflichen Schulen wurde außerhalb dieser Arbeit ein Off-Grid-PV-System entworfen, anhand dessen Lernende Fragestellungen der elektrischen Energieerzeugung aus Sonneneinstrahlung sowie allgemeine Nachhaltigkeitsthemen erforschen. Das didaktische Konzept zur Begleitung des PV-Systems wurde anhand von den Anforderungen der BNE entwickelt und gliedert sich in die Bereiche einleitende Workshops, Lern- und Arbeitsmaterial, weiterführendes Material sowie einen abschließenden Workshop zur Reflexion des erlernten. Die getroffenen Entscheidungen im Bereich der Technik sowie des Lehr-Lern-Materials werden jeweils didaktisch begründet.
Der beständig wachsende Markt und die Aussicht auf eine Vielzahl an „ausrangierten“ Batteriespeichern aus der Elektro-Mobilität, hat in den letzten Jahren zu einer Vielzahl an Anbietern von Batteriespeichersystemen für Gewerbe und Industrie geführt.
Die Anwendungsmöglichkeiten und daraus resultierende Geschäfts- und Erlösmodelle sind ein Schwerpunkt im vorliegenden Leitfaden. Außerdem beantworten wir praxisrelevante Fragestellungen für einen potentiellen Anwender: Welche relevanten Anbieter gibt es am Markt? Wie unterscheiden sich diese und deren Produkte? Welche zusätzlichen Services werden angeboten? Um nur einige davon zu nennen.
Der Fokus unserer Analyse sind dabei die Anbieter von Komplett-Lösungen. Diese unterscheiden sich oftmals gerade nicht in der verwendeten Batterietechnologie sondern vor allem durch die Leistungselektronik und die (oft proprietäre) Steuerungstechnik. Und die machen aus Anwender- und Systemsicht oft den Unterschied.
Inhalte: Einführung und Hintergrund | Batteriespeicher in Gewerbe- und Industrie – Einleitung, Markt, Förderung | Beschreibung und Bewertung der Anwendungsfälle | Beschreibung und Bewertung der Geschäfts- und Erlösmodelle | Anbieter und Wertschöpfungskette verfügbarer Lösungen | Vergleich Unternehmen und Produkte | Detaillierte Anbieter- bzw. Unternehmensprofile
In cardiac resynchronization therapy (CRT) for heart failure, individualization of the AV delay is essential to improve hemodynamics and to minimize non-responder rate. In patients in sinus rhythm having additional disposition to bradycardia, optimization is necessary for both situations, atrial sensing and pacing. Therefore, echo-optimization is the goldstandard but time consuming. Unfortunately, it depends on the particular CRT systems parameter set if the resulting individually optimal AV delays can be programmed or not. Some CRT systems provide a set of AV delays for DDD operation combined with a set of the pace-sense-compensation to optimize the AV delay in DDD and VDD operation. The pace-sense-compensation (PSC) can be defined by the difference of implant-related interatrial conduction intervals in DDD and VDD operation measured in the esophageal left atrial electrogram. In a cohort of 96 CRT patients we found mean PSC of 59-35ms ranging between 0-143ms. As a consequence, allowing 10ms tolerance, AVD optimization is completely impossible in one of the two modes, VDD or DDD operation, in 34 (35%) or 5 (5%) patients with implants restricting the PSC range to 60ms or 100ms, respectively. Thus, we propose companies to provide CRT systems with programmable pace-sense- compensation between 0ms and 150ms.
Chitin ist nach Cellulose, das am zweit häufigsten vorkommende Biopolymer auf der Erde und erlangt durch die positiven Eigenschaften seiner Oligomere immer mehr an Aufmerksamkeit in der Industrie. Derzeit werden Chitin-Oligomere rein chemisch mittels starker Säurebehandlung gewonnen. Alternativ können Endo- und Exochitinasen für eine umweltfreundlichere Hydrolyse eingesetzt werden. In dieser Arbeit wurden drei fungale Endochitinasen aus den Ursprungsorganismen Trichoderma harzianum (Chit33-TH), Trichoderma asperellum (Chit36-TA) und Myceliophthora thermophila (Chit46-MT) in Pichia pastoris rekombinant exprimiert, mittels Ni-NTA-Affinitätschromatographie und Dialyse aufgereinigt und biochemisch charakterisiert. Dabei zeigten die Chitinasen maximale spezifische Umsatzgeschwindigkeiten von 16 (Chit33-TH), 50 (Chit36-TA) und 98 nkat/mg (Chit46-MT). Die Endochitinasen hatten nach der Deglykosylierung ein molekulares Gewicht von 33 (Chit33-TH), 36 (Chit36-TA) und 46 kDa (Chit46-MT). Die pH-Optima und Temperaturmaxima lagen für alle drei Enzyme bei einem pH-Wert von 4,5 und 50 °C, zudem waren sie bei 45 bis 50 °C für 15 Minuten temperaturstabil. Detergenzien und Kationen wie Cu2+, Mn2+, Co2+ und Zn2+ hatten einen inhibierenden Effekt ab 1 mM. Höhere Ca2+-Konzentrationen ab 10 mM reduzierten die Enzymaktivität um bis zu 30 %. Eine Produktinhibition mit N-Acetylglucosamin konnte nicht festgestellt werden. Bei allen rekombinanten Enzymen konnte mittels DNS-Assay die Freisetzung von reduzierenden Zuckerenden und somit geeignete Eigenschaften kolloidales Chitin zu wasserlösliche ChitinOligomere umzuwandeln, nachgewiesen werden. Insbesondere Chit46-MT erreichte nach 24 h einen Hydrolysegrad bis zu 96 % und bewies, dass eine enzymatische Hydrolyse für die industrielle Chitin-Oligomerproduktion nutzbar ist.
Deafblindness, a form of dual sensory impairment, signifcantly impacts communication, access to information and mobility. Inde- pendent navigation and wayfnding are main challenges faced by individuals living with combined hearing and visual impairments. We developed a haptic wearable that provides sensory substitution and navigational cues for users with deafblindness by conveying vibrotactile signals onto the body. Vibrotactile signals on the waist area convey directional and proximity information collected via a fisheye camera attached to the garment, while semantic informa- tion is provided with a tapping system on the shoulders. A playful scenario called “Keep Your Distance” was designed to test the navigation system: individuals with deafblindness were “secret agents” that needed to follow a “suspect”, but they should keep an opti- mal distance of 1.5 meters from the other person to win the game. Preliminary fndings suggest that individuals with deafblindness enjoyed the experience and were generally able to follow the directional cues.
A Review on Kinetic Energy Harvesting with Focus on 3D Printed Electromagnetic Vibration Harvesters
(2021)
The increasing amount of Internet of Things (IoT) devices and wearables require a reliable energy source. Energy harvesting can power these devices without changing batteries. Three-dimensional printing allows us to manufacture tailored harvesting devices in an easy and fast way. This paper presents the development of hybrid and non-hybrid 3D printed electromagnetic vibration energy harvesters. Various harvesting approaches, their utilised geometry, functional principle, power output and the applied printing processes are shown. The gathered harvesters are analysed, challenges examined and research gaps in the field identified. The advantages and challenges of 3D printing harvesters are discussed. Reported applications and strategies to improve the performance of printed harvesting devices are presented.
In this contribution, we present a novel 3D printed multi-material, electromagnetic vibration harvester. The harvester is based on a cantilever design and utilizes an embedded constantan wire within a matrix of polyethylene terephthalate glycol (PETG). A prototype has been manufactured with a combination of a fused filament fabrication (FFF) printer and a robot with a custom-made tool.
3D printing offers customisation capabilities regarding suspensions for oscillators of vibration energy harvesters. Adjusting printing parameters or geometry allows to influence dynamic properties like resonance frequency or bandwidth of the oscillator. This paper presents simulation results and measurements for a spiral shaped suspension printed with polylactic acid (PLA) and different layer heights. Eigenfrequencies have been simulated and measured and damping ratios have been experimentally determined.
We present a novel approach that utilizes BLE packets sent from generic BLE capable radios to synthesize an FSK-(like) addressable wake-up packet. A wake-up receiver system was developed from off-the-shelf components to detect these packets. It makes use of two differential signal paths separated by passive band-pass filters. After the rectification of each channel a differential amplifier compares the signals and the resulting wake-up signal is evaluated by an AS3933 wake-up receiver IC. Overall, the combination of these techniques contributes to a BLE compatible wake-up system which is more robust than traditional OOK wake-up systems. Thus, increasing wake-up range, while still maintaining a low energy budget. The proof-of-concept setup achieved a sensitivity of -47.8 dBm at a power consumption of 18.5 uW during passive listening. The system has a latency of 31.8 ms with a symbol rate of 1437 Baud.