Refine
Year of publication
Document Type
- Contribution to a Periodical (164)
- Article (reviewed) (157)
- Conference Proceeding (100)
- Working Paper (97)
- Periodical Part (50)
- Report (14)
- Article (unreviewed) (8)
- Book (7)
- Part of a Book (6)
- Doctoral Thesis (5)
- Patent (4)
- Other (1)
Conference Type
- Konferenzartikel (94)
- Konferenz-Abstract (3)
- Sonstiges (2)
- Konferenz-Poster (1)
Has Fulltext
- yes (613) (remove)
Is part of the Bibliography
- yes (613) (remove)
Keywords
- Offenburg / Fachhochschule (12)
- COVID-19 (10)
- Social Media (9)
- E-Learning (8)
- Marketing (8)
- 3D printing (7)
- Angewandte Forschung (7)
- Analyse (5)
- Chromatography (5)
- Export (5)
Institute
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (160)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (91)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (87)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (74)
- Zentrale Einrichtungen (62)
- INES - Institut für nachhaltige Energiesysteme (61)
- Fakultät Wirtschaft (W) (58)
- Fakultät Medien (M) (ab 22.04.2021) (46)
- Rektorat/Verwaltung (26)
- CRT - Campus Research & Transfer (25)
Open Access
- Open Access (600)
- Bronze (95)
- Gold (65)
- Hybrid (39)
- Diamond (23)
- Grün (9)
- Closed (7)
- Closed Access (4)
Den Hauptbestandteil des Operationssystems stellt der Zugriff auf SD-Karten mit dem Dateisystem FAT16 von Microsoft dar. Für die Bedienung wurde ein Kommandozeileninterpreter implementiert. Als Ein- und Ausgabegerät dient ein PC mit einem speziellen Terminalprogramm, welcher über USB mit dem Emulationsboard des SIRIUS Softcores verbunden ist. Das System wird über die Eingabe von Befehlen am Terminal gesteuert.
Der SIRIUS Softcore kann nur vom Flash des Emulationsboards booten. Da das Betriebssystem selbst jedoch auf der SD-Karte gespeichert werden soll, ist ein Basis-Betriebssystem erforderlich, welches im Flash abgelegt ist. Das Basis-Betriebssystem lädt gleich nach dem Start das eigentliche Betriebssystem von der SD-Karte. Falls jedoch keine SD-Karte gesteckt ist, ermöglicht das Basis-Betriebssystem mit einem Kommandozeileninterpreter einige Grundfunktionen.
Der Cache-Speicher für den Softprozessor SIRIUS ist ein 4-fach assoziativer Cache-Speicher, der mit einem DDR-Interface auf einen externen Speicher zugreifen kann. Er verwaltet und beschleunigt Zugriffe vom Prozessor auf diesen Speicher. Der Cache-Speicher arbeitet intern mit 32 Bit und der doppelten Prozessortaktfrequenz und ermöglicht Systeme mit größeren Speicheranforderungen ohne signifikante Performanceverluste. Der Cache-Speicher wurde mit der Hardwarebeschreibungssprache VHDL erstellt und mit dem bestehenden Mikrocontrollersystem verbunden.
Das Gesamtsystem wurde zunächst simuliert und anschließend mit dem Cyclone III FPGA Starter Kit von Altera, welches ein 32 MB DDR-RAM-Modul zur Verfügung stellt, durch Ausführen eines Testprogramms erfolgreich verifiziert. Für den kompletten Cache-Speicher werden inklusive der Pins für den externen Oszillator und des Reset-Tasters 3805 Logik-Zellen, 27 M9K-Blöcke, 44 Pins und eine PLL benötigt.
Für die Implementation in ASIC's wurde ein kompakter Mikroprozessor-Kernel als Standardzellen-Makro entworfen. Durch konsequenten Einsatz von Hochsprachen und CAE-Werkzeugen (VHDL, Synthese) konnte ein vollständiges Design in nur vier Monaten durchgeführt werden. Der Prozessor wird in einem Testchip erprobt.
Die Virtual Reality (VR) ist eine spannende technische Lösung, um virtuelle Welten zu erschaffen. Die dabei simulierten Immersionen faszinieren die Menschen im privaten Leben, in der Forschung und in der Wirtschaft gleichermaßen. Im monatlichen Zyklus präsentieren namhafte Hersteller neue VR‐Geräte und Softwarelösungen, um die virtuelle Welt noch flüssiger und noch hochauflösender darzustellen. Die Einsatzgebiete hierbei zeigen sich unendlich vielseitig und verteilen sich unter anderem auf den privaten Medienkonsum, die innovative Gaming‐Branche und auf unternehmerische Anwendungsmöglichkeiten. Virtuelle Rundgänge durch Hallen und Betriebe schaffen dem Verkäufer und dem Kunden die Möglichkeit, Produkte schon vor ihrer Fertigstellung gemeinsam als visuelles Objekt im Raum zu betrachten. Die Gestaltung virtueller Erlebnistouren oder Rundgänge durch das geplante Eigenheim sind schon seit ein paar Jahren fester Bestandteil in der Marketingkommunikation.
Vertriebspolitik hat in den letzten Jahren, verstärkt etwa durch Trends zur Optimierung logistischer Ketten, aber auch zum Online-Handel, als Marketing-Instrument enorm an Bedeutung gewonnen. Gleichzeitig und fast in gleichem Maße wuchs aber auch die Anzahl diesbezüglicher rechtlicher Regulierungen zu den vertrieblichen Aktivitäten von Unternehmen kontinuierlich an. Die nachstehende Übersicht zeigt beispielhaft die Vielfalt an zu beachtenden Regelungen auf. Um eine effizient begründete und so durchaus zwingend notwendige Reduktion der Komplexität derart umfassender Regelwerke zu erreichen, die davon betroffenen Funktions- und Entscheidungsträger eines Unternehmens also „den Wald vor lauter Bäumen“ noch erkennen zu lassen, vor allem aber um diese wirkungsvoll zu unterstützen, lehnt sich das vorliegende Arbeitspapier bei der Vor- und Darstellung der betreffenden Rechtsnormen an die, in der Betriebswirtschaftslehre, speziell im Marketing, üblichen Strukturen der vertriebspolitischen Aktivitäten eines Unternehmens an. Dementsprechend wird der Rechtsrahmen der Vertriebspolitik nach Rechtsnormen, die zum einen die akquisitorische, zum anderen die logistische Distribution betreffen, gegliedert. Weiterhin wird bei der akquisitorischen Distribution unterschieden in direkten und indirekten Vertrieb mit einer weiteren Unterteilung des indirekten Vertriebes nach Absatzmittlern und Absatzhelfern. Ein derartiger Aufbau vermag die Behandlung der zumeist komplizierten juristischen Sachverhalte zu einem durchaus nicht nur praxisrelevanten, sondern auch praxisgeeigneten Forschungsbeitrag werden zu lassen.
Ziel des vorliegenden Leitfadens für den Mittelstand ist es, zu einer Lösung der im Spannungsfeld zwischen Marketing und Recht zu bewältigenden Aufgaben, die von vielen heute als die wichtigsten der Unternehmensführung überhaupt angesehen werden, beizutragen. In diesem Sinne liefert der Leitfaden Ihnen einen umfassenden Überblick über den, das Marketing beeinflussenden Rechtsrahmen und zeigt gleichzeitig Gestaltungsoptionen eines präaktiven Handelns auf. Der Leitfaden lehnt sich, dieses Ziel unterstützend, dem klassischen Kanon der Marketinginstrumente an.
Ziel dieses Ratgebers ist es, die für Unternehmensgründer relevanten juristischen Aspekte aufzuzeigen und diese hierfür zu sensibilisieren. Während Ratgeber zur Ideengewinnung, zur Vermarktung oder auch zu Finanzierungsfragen relativ häufig zu finden sind, werden die rechtlichen Rahmenbedingungen kaum beleuchtet. Dabei weisen die Komponenten eines Start-up-Marketing unterschiedliche Schwerpunkte und Vertiefungsgrade zum traditionellen Marketingauf. Dieses wird im vorliegenden Ratgeber auch im Hinblick auf die rechtlichen Rahmenbedingungen berücksichtigt.
Zu Beginn steht die Innovation oder die Geschäftsidee im Mittelpunkt. Diese sowie eine damit verbundene Marke gilt es zu schützen. Weitere zentrale Anfangsüberlegungen betreffen die zu wählende Rechtsform. Wichtige Aspekte sind zudem aus rechtlicher Sicht die Verträge mit den Investoren und diejenigen Rechtsfragen, die mit dem Internet verbunden sind, vor allem der Onlinevertrieb oder die Social-Media-Nutzung. Bei der Vermarktung seiner Leistungen muss ein Start-up-Verantwortlicher rechtliche Fragen möglichst proaktiv berücksichtigen sowie darauf achten, dass sein Verhalten im Wettbewerb nicht durch unlauteres Handeln geprägt wird.
Dieser Ratgeber orientiert sich bei der Vorstellung der rechtlichen Rahmenbedingungen am Ablauf des Gründungsprozesses eines Start-ups:
➢ Anmeldung,
➢ Schutz der Geschäftsidee,
➢ Wahl der Rechtsform und
➢ Marketingaktivitäten.
Die Digitalisierung der Gesellschaft betrifft nicht nur einzelne Lebensbereiche, sondern beeinflusst und verändert enorm die Arbeitswelt. In diesem Sinne wird oft im Rahmen des Zukunftsprojekts Industrie 4.0 von Arbeiten 4.0, Arbeitswelt 4.0 und Arbeitsrecht 4.0 berichtet. Komplexe Produktionsprozesse lassen sich durch die Vernetzung von Systemen zu unterschiedlichen Zeiten und an nahezu jedem Ort steuern. Diese neuen Freiheiten können wiederum von den Arbeitnehmern positiv genutzt werden, um die persönliche Arbeitsgestaltung weiter zu individualisieren. Somit können beispielsweise die Arbeitszeiten und der Arbeitsort an die eigenen Bedürfnisse angepasst werden. Außerdem können diese sich neu ergebenden Möglichkeiten die Beschäftigten in ihrer Arbeitstätigkeit entlasten. Durch die Einführung neuer Technologien ergeben sich somit neue Chancen, aber auch Herausforderungen für das Arbeitsrecht. Infolgedessen sind diverse Handlungsfelder beziehungsweise Problemfelder betroffen, die es in diesem neuen Arbeitspapier darzustellen gilt. Es bezieht sich dabei speziell auf die Arbeitszeit, den Arbeitsort, die Arbeitnehmerqualifikation und die Datensicherheit. In diesem Zusammenhang werden die derzeit bestehenden Gesetze und Richtlinien aufgezeigt, die im Rahmen der Industrie 4.0 eine Rolle spielen. Auch die Herausforderungen, die durch die Interaktion der Digitalisierung in der Arbeitswelt aufkommen, gilt es, in diesem Arbeitspapier hervorzuheben.
Die Unternehmenslandschaft, nicht nur in Deutschland, sondern weltweit, wird aktuell gerade in all ihren Bereichen vor allem von der stetig wachsenden Welle der Digitalisierung nachhaltig geprägt. Die ganzen Auswirkungen davon in der Zukunft lassen sich im Augenblick oft noch nicht einmal ansatzweise erahnen. Das hier zu beobachtende Collingridge-Dilemma besteht darin, dass Wirkungen nicht leicht prognostiziert werden können, solange die betreffenden Technologien noch nicht ausreichend entwickelt und in Folge entsprechend weit verbreitet sind. Deren Gestalten beziehungsweise gewünschtes Ändern und Anpassen werden jedoch umso schwieriger, je intensiver die Technologien bereits verwurzelt sind. Die Digitalisierung stellt dabei nur einen, wenn auch wohl gravierendsten Aspekt derartiger Veränderungserscheinungen beziehungsweise -herausforderungen dar. Der Wandel des wirtschaftlichen und politischen Umfeldes auf globaler Ebene ist unumstritten. Zugleich ist eine zunehmende Komplexität festzustellen, die es erschwert, im Sinne einer verlässlichen Planung heute solide fundierte Entscheidungen für die zukünftige Entwicklung zu treffen.
Extended Reality (XR) durchläuft aktuell einen rasanten Entwicklungsprozess. Die Einsatzmöglichkeiten für die Wirtschaft sind vielfältig und die Bedeutung der neuartigen Technologie steigt kontinuierlich. Insbesondere der rapide Preisverfall der benötigten Hardware führt zu einer zunehmenden Markdurchdringung, wodurch sich XR-Systeme auf dem Massenmarkt etabliert haben.
Die Veröffentlichung richtet sich an Unternehmer, die sich einen Überblick über XR verschaffen möchten und abwägen, ob die Technologie in ihre Unternehmensprozesse eingebunden werden soll. Um die Entscheidung zu erleichtern, gibt die Publikation Auskunft über zentrale Aspekte wie Entwicklungsstand, Projektablauf und Einsatzmöglichkeiten. Aufgrund des enormen Potenzials der Technologien empfehlen die Autoren, dass Unternehmen frühzeitig Einsatzmöglichkeiten dieser Technologien evaluieren. Die Planung und Umsetzung setzen allerdings immer ein durchdachtes und systematisches Vorgehen voraus.
Auf Grund der hohen Bedeutung des Internets als Informations-, Kommunikations- und Absatzkanal werden Online-Marketing Maßnahmen immer wichtiger. Dies gilt auch für kleine und mittelständische Unternehmen (KMU). Vielfach haben diese allerdings Schwierigkeiten mit der Nutzung von Online-Marketing Maßnahmen, unter anderem fehlt es häufig am nötigen Know-How. Im Mittelpunkt der Studie stehen Online-Marketing Maßnahmen und deren Nutzung bei kleinen und mittelständischen Unternehmen in der Region Ortenau. Hierzu wurde im Dezember 2015 eine Online-Befragung mit 2.138 Unternehmen durchgeführt. Daneben wurden 2.138 Webseiten im Hinblick auf Suchmaschinenoptimierungsmaßnahmen mit dem Google Online-Tool PageSpeed Insights analysiert. In der Studie werden zunächst die untersuchten Online-Marketing Maßnahmen vorstellt. Im Mittelpunkt dieses Ergebnisberichtes stehen die Ergebnisse der Online-Befragung zur aktuellen Nutzung von Online-Marketing Maßnahmen in der Region Ortenau. Darüber hinaus werden die Resultate einer Analyse zur Suchmaschinenoptimierung präsentiert. Durch die Verknüpfung der Ergebnisse aus der Online-Befragung sowie der SEO-Analyse werden abschließend Handlungsempfehlungen vorgestellt, wie kleine und mittelständische Unternehmen von Online-Marketing Maßnahmen profitieren können.
Im Rahmen der weiter voranschreitenden Globalisierung des internationalen Waren- und Handelsverkehrs wächst auch der weltweit virtuelle Zahlungsverkehr. Die Entwicklung eines derartigen Waren- und Zahlungsverkehrs wurde durch den Stand der jeweils vorliegenden Möglichkeiten des Zahlungsverkehrs fundiert, oftmals auch gefördert. Dabei hat gleichzeitig das interregional und international tätige Handelsmanagement selbst nützliche Formen eines Zahlungsverkehrs geschaffen und initiiert. Dieses gilt vor allem auch für das 19. Jahrhundert. Der Beitrag1 verfolgt insbesondere das Ziel, die Entwicklung, Organisation und Technik des vor allem von privaten Bankhäusern getragenen interregionalen und internationalen Zahlungsverkehrs im 19. Jahrhundert zu analysieren.
Vorgestellt wird ein Konzept zur biologischen Methanisierung von Wasserstoff direkt in Biogasreaktoren, mit dem durch Membranbegasung der Methangehalt des Biogases auf > 96 % erhöht werden kann. Essentiell zum Erreichen solch hoher Methanwerte sind die Einhaltung eines optimalen pH-Bereichs und die Vermeidung von H2-Akkumulation. Im Falle einer Limitierung der Methanbildungsrate durch den eigentlichen anaeroben Abbauprozess der Biomasse ist auch eine externe Zufuhr von CO2 zur weiteren Methanbildung denkbar. Das Verfahren soll weiter optimiert und in einem von der Deutschen Bundesstiftung Umwelt geförderten Projekt in der Biogasanlage einer regionalen Käserei in der Praxis getestet werden. Die hier angestrebte Kombination aus dezentraler Abfallverwertung und Eigenenergieerzeugung eines lebensmittelverarbeitenden Betriebs unter Einbindung in ein intelligentes Erneuerbare Energien - Konzept soll einen zusätzlichen Mehrwert liefern.
Die optimale Zusammensetzung und Aktivität der Mikroorganismengemeinschaft ist für den stabilen und effizienten Betrieb einer Biogasanlage essentiell. Moderne kultivierungsunabhängige Nachweismethoden können erstmals die Basis für eine rationale mikroorganismenfokussierte Verfahrensoptimierung liefern. Als erster Schritt für den Aufbau eines aussagekräftigen Monitoringsystems für die Biogasmikrobiologie wurde ein nucleinsäurebasiertes Verfahren (TaqMan Real-time PCR) zum Nachweis der methanbildenden Mikroorganismen (Archaeen) sowie von vier Untergruppen etabliert und auf Proben aus zwei unterschiedlich betriebenen Biogasanlagen in Neuried und Oberried angewandt. Bei der Anlage in Oberried in der Nähe von Freiburg, betrieben von örtlichen Landwirten (Substrat: Gülle, Grassilage, Maissilage, Mist, Anlage mit Güllevorgrube, Fermenter und Gärrestlager) konnten insgesamt höhere absolute Konzentrationen an Archaeen nachgewiesen werden als in der Anlage in Neuried in der Nähe von Offenburg, betrieben durch die Fa. badenova AG & Co. KG, Freiburg (thermophil betrieben, Substrat: Maissilage, Anlage mit Hauptfermenter, Nachfermenter und Gärrestlager). Auch hinsichtlich der vier untersuchten Untergruppen zeigten sich deutliche Unterschiede, die auf die unterschiedlichen an der Methanbildung beteiligten Abläufe hinweisen.
Digital, virtual environments and the metaverse are rapidly taking shape and will generate disruptive changes in the areas of ethics, privacy, safety, and how the relationships between human beings will be developed. To uncover some of some of the implications that will impact those areas, this study investigates the perceptions of 101 younger people from the generations Y and Z. We present a first exploratory analysis of the findings, focusing on knowledge and self-perception. Results show that these young generations are seriously doubting their knowledge on the metaverse and virtual worlds – regarding both the definition and the usage. It is interesting to see only a medium confidence level, considering that the participants are young and from an academic environment, which should increase their interest in and the affinity towards virtual worlds. Males from both generations perceive themselves as significantly more knowledgeable than females. Regarding a fitting definition, almost 40% agreed on the metaverse as a “universal and immersive virtual world that is made accessible using virtual reality and augmented reality technologies”. Regarding the topic in general, several participants (almost 40%) considered themselves sceptics or “just” users (38%). Interestingly, generation Y participants were more likely than the younger generation Z participants to identify themselves as early adopters or innovators. In result, the considerable amount of “mixed feelings” regarding digital, virtual environments and the metaverse shows that in-depth studies on the perception of the metaverse as well as its ethical and integrity implications are required to create more accessible, inclusive, safe, and inclusive digital, virtual environments.
Angepasste Hybridantriebe in mobilen Arbeitsmaschinen (off-highway Anwendungen) versprechen wegen der typischerweise auftretenden Lastzyklen mit ausgeprägten, häufigen und schnellen Laständerungen folgende Vorteile: geringerer Kraftstoffverbrauch, Einsatz eines Dieselmotors kleinerer Leistung, dadurch Erfüllung strikter werdender Emissionsvorschriften (TIER 4, EURO 5) ohne oder mit reduzierter Abgasnachbehandlung, Lärmreduktion, weitere Einsparpotenziale durch Elektrifizierung der Fahrzeugfunktionen möglich (Erhöhung des Hybridisierungsgrads), höhere Produktivität durch höhere Antriebsdynamik.
Auxiliary power units (APUs) are used in mobile applications to supply electrical power in the range of 3 to 10 kW. The state of the art generators are driven by a diesel engine at constant speed. They have a low efficiency (high fuel consumption) as they operate mostly in partial load conditions. A higher efficiency for partial loads is feasible by adjusting the speed of the diesel engine to its optimum efficiency. A frequency converter provides a constant electric frequency at variable speed of the generator. The resulting higher investments for such a variable speed generator (VSG) need a proof of economics, which is demonstrated by this investigation.
Hybrid drives for automotive application are extensively discussed. In contrast, the company HEINZMANN, the University of Karlsruhe and the University of Applied Sciences Offenburg concentrate on hybrid drives for industrial, offroad purposes in a joint project. These applications promise a much higher fuel saving potential, particularly if highly frequent load cycles are present. Hybrid drive systems offer additional advantages including reduced exhaust aftertreatment requirements due to engine downsizing, better engine dynamics, emissions and noise reduction.
The significant market growth of stationary electrical energy storage systems both for private and commercial applications has raised the question of battery lifetime under practical operation conditions. Here, we present a study of two 8 kWh lithium-ion battery (LIB) systems, each equipped with 14 lithium iron phosphate/graphite (LFP) single cells in different cell configurations. One system was based on a standard configuration with cells connected in series, including a cell-balancing system and a 48 V inverter. The other system featured a novel configuration of two stacks with a parallel connection of seven cells each, no cell-balancing system, and a 4 V inverter. The two systems were operated as part of a microgrid both in continuous cycling mode between 30% and 100% state of charge, and in solar-storage mode with day–night cycling. The aging characteristics in terms of capacity loss and internal resistance change in the cells were determined by disassembling the systems for regular checkups and characterizing the individual cells under well-defined laboratory conditions. As a main result, the two systems showed cell-averaged capacity losses of 18.6% and 21.4% for the serial and parallel configurations, respectively, after 2.5 years of operation with 810 (serial operation) and 881 (parallel operation) cumulated equivalent full cycles. This is significantly higher than the aging of a reference single cell cycled under laboratory conditions at 20 °C, which showed a capacity loss of only 10% after 1000 continuous full cycles.
This article presents a comparative experimental study of the electrical, structural and chemical properties of large‐format, 180 Ah prismatic lithium iron phosphate (LFP)/graphite lithium‐ion battery cells from two different manufacturers. These cells are particularly used in the field of stationary energy storage such as home‐storage systems. The investigations include (1) cell‐to‐cell performance assessment, for which a total of 28 cells was tested from each manufacturer, (2) electrical charge/discharge characteristics at different currents and ambient temperatures, (3) internal cell geometries, components, and weight analysis after cell opening, (4) microstructural analysis of the electrodes via light microscopy and scanning electron microscopy, (5) chemical analysis of the electrode materials using energy‐dispersive X‐ray spectroscopy, and (6) mathematical analysis of the electrode balances. The combined results give a detailed and comparative insight into the cell characteristics, providing essential information needed for system integration. The study also provides complete and self‐consistent parameter sets for the use in cells models needed for performance prediction or state diagnosis.
Im Rahmen eines von der Deutschen Forschungsgemeinschaft geförderten Projekts des Instituts für Rechtsmedizin der Universität Freiburg und des Freiburger Materialforschungszentrums entwickelt die Robotikgruppe der Hochschule Offenburg ein robotergestütztes mobiles Messsystem zur spektroskopischen Vermessung von Leichenflecken. Ziel des Gesamtprojekts ist die Charakterisierung von intravitalen und postmortalen Hautveränderungen auf der Basis reflektionsspektrometrischer Messungen an menschlicher Haut durch ein physikalisches Hautmodell. Projektleiter ist Prof. Dr. Michael Bohnert, Institut für Rechtsmedizin Freiburg, der den grundlegenden Anstoß zum Einsatz spektroskopisch aufgelöster Messungen der Färbung von Leichenflecken gab [1]. In Zusammenarbeit mit dem Freiburger Materialforschungszentrum wurde dazu ein Modell für das optische Verhalten der Haut entwickelt [2]. Im Anschluss wurde insbesondere die Reoxygenierung der Leichenflecken bei gekühlter Lagerung untersucht [3]. Der Dokumentation der Messreihen liegt ein elektronisches Laborbuch zugrunde, das von der Servicegruppe Wissenschaftliche Informationsverarbeitung des Materialforschungszentrums entwickelt wurde [4]. Als problematisch erwies es sich, dass sich eine Messreihe über 50 bis 60 Stunden erstreckt und in der Regel nur zweimal täglich Handmessungen durchgeführt werden konnten, die zudem bei Raumtemperatur erfolgen mussten.
Die spektroskopische Beobachtung von postmortalen Hautveränderungen und insbesondere von Totenflecken ermöglicht potenziell eine genauere Bestimmung des Todeszeitpunkts oder der Todesursache (z. B. im Fall von CO-Vergiftungen). Für die grundlegende Charakterisierung dieser Veränderungen sind Langzeitbeobachtungen von Stunden oder gar Tagen wünschenswert.
In Deutschland wird aktuell ein Gesetzesentwurf äußerst kontrovers diskutiert, in dem es um Zeitpunkt und vor allem Art einer verbindlichen Einführung von Smart Meter geht. Da viele Nutzer wohl noch eher skeptisch sind, stellt sich für die betroffenen Energieversorgungsunternehmen die Frage, welche Differenzierungsansätze sich hier im Wettbewerb, etwa auch über die Leistungskombinationen, ableiten lassen? Ausgangspunkt des vorliegenden Arbeitspapiers ist dabei eine unzureichende Auseinandersetzung der Energieversorgungsunternehmen mit einem ganzheitlichen Marketingkonzept, das sich zum einen am Kundennutzen orientiert und sich zum anderen gleichzeitig in das Leistungssystem des jeweiligen Unternehmens integrieren lässt. Dieses soll anhand der Leistungspolitik, und hier im Besonderen anhand von Mehrwertleistungen im Kontext von Smart Meter, untersucht werden.
Treadmills are essential to the study of human and animal locomotion as well as for applied diagnostics in both sports and medicine. The quantification of relevant biomechanical and physiological variables requires a precise regulation of treadmill belt velocity (TBV). Here, we present a novel method for time-efficient tracking of TBV using standard 3D motion capture technology. Further, we analyzed TBV fluctuations of four different treadmills as seven participants walked and ran at target speeds ranging from 1.0 to 4.5 m/s. Using the novel method, we show that TBV regulation differs between treadmill types, and that certain features of TBV regulation are affected by the subjects’ body mass and their locomotion speed. With higher body mass, the TBV reductions in the braking phase of stance became higher, even though this relationship differed between locomotion speeds and treadmill type (significant body mass × speed × treadmill type interaction). Average belt speeds varied between about 98 and 103% of the target speed. For three of the four treadmills, TBV reduction during the stance phase of running was more intense (> 5% target speed) and occurred earlier (before 50% of stance phase) unlike the typical overground center of mass velocity patterns reported in the literature. Overall, the results of this study emphasize the importance of monitoring TBV during locomotor research and applied diagnostics. We provide a novel method that is freely accessible on Matlab’s file exchange server (“getBeltVelocity.m”) allowing TBV tracking to become standard practice in locomotion research.
Background: Running overuse injuries (ROIs) occur within a complex, partly injury-specific interplay between training loads and extrinsic and intrinsic risk factors. Biomechanical risk factors (BRFs) are related to the individual running style. While BRFs have been reviewed regarding general ROI risk, no systematic review has addressed BRFs for specific ROIs using a standardized methodology.
Objective: To identify and evaluate the evidence for the most relevant BRFs for ROIs determined during running and to
suggest future research directions.
Design: Systematic review considering prospective and retrospective studies. (PROSPERO_ID: 236,832).
Data Sources: PubMed. Connected Papers. The search was performed in February 2021.
Eligibility Criteria: English language. Studies on participants whose primary sport is running addressing the risk for the seven most common ROIs and at least one kinematic, kinetic (including pressure measurements), or electromyographic BRF. A BRF needed to be identified in at least one prospective or two independent retrospective studies. BRFs needed to be determined during running.
Results: Sixty-six articles fulfilled our eligibility criteria. Levels of evidence for specific ROIs ranged from conflicting to moderate evidence. Running populations and methods applied varied considerably between studies. While some BRFs appeared for several ROIs, most BRFs were specific for a particular ROI. Most BRFs derived from lower-extremity joint kinematics and kinetics were located in the frontal and transverse planes of motion. Further, plantar pressure, vertical ground reaction force loading rate and free moment-related parameters were identified as kinetic BRFs.
Conclusion: This study offers a comprehensive overview of BRFs for the most common ROIs, which might serve as a starting point to develop ROI-specific risk profiles of individual runners. We identified limited evidence for most ROI-specific risk factors, highlighting the need for performing further high-quality studies in the future. However, consensus on data collection standards (including the quantification of workload and stress tolerance variables and the reporting of injuries) is warranted.
Activities for rehabilitation and prevention are often lengthy and associated with pain and frustration. Their playful enrichment (hereafter: gamification) can counteract this, resulting in so-called “exergames”. However, in contrast to games designed solely for entertainment, the increased motivation and immersion in gamified training can lead to a reduced perception of pain and thus to health deterioration. Therefore, it is necessary to monitor activities continuously. However, only an AI-based system able to generate autonomous interventions could vacate the therapists’ costly time and allow better training at home. An automated adjustment of the movement training’s difficulty as well as individualized goal setting and control are essential to achieve such autonomy. This article’s contribution is two-fold: (1) We portray the potentials of gamification in the health area. (2) We present a framework for smart rehabilitation and prevention training allowing autonomous, dynamic, and gamified interactions.
Background:
Ankle braces aim to reduce lateral ankle sprains. Next to protection, factors influencing user compliance, such as sports performance, motion restriction, and users’ perceptions, are relevant for user compliance and thus injury prevention. Novel adaptive protection systems claim to change their mechanical behavior based on the intensity of motion (eg, the inversion velocity), unlike traditional passive concepts of ankle bracing.
Purpose:
To compare the performance of a novel adaptive brace with 2 passive ankle braces while considering protection, sports performance, freedom of motion, and subjective perception.
Study Design:
Controlled laboratory study.
Methods:
The authors analyzed 1 adaptive and 2 passive (one lace-up and one rigid brace) ankle braces, worn in a low-cut, indoor sports shoe, which was also the no-brace reference condition. We performed material testing using an artificial ankle joint system at high and low inversion velocities. Further, 20 male, young, healthy team sports athletes were analyzed using 3-dimensional motion analysis in sports-related movements to address protection, sports performance, and active range of motion dimensions. Participants rated subjective comfort, stability, and restriction experienced when using the products.
Results:
Subjective stability rating was not different between the adaptive and passive systems. The rigid brace was superior in restricting peak inversion during the biomechanical testing compared with the passive braces. However, in the material test, the adaptive brace increased its stiffness by approximately 400% during the fast compared with the slow inversion velocities, demonstrating its adaptive behavior and similar stiffness values to passive braces. We identified minor differences in sports performance tasks. The adaptive brace improved active ankle range of motion and subjective comfort and restriction ratings.
Conclusion:
The adaptive brace offered similar protective effects in high-velocity inversion situations to those of the passive braces while improving range of motion, comfort, and restriction rating during noninjurious motions.
Clinical Relevance:
Protection systems are only effective when used. Compared with traditional passive ankle brace technologies, the novel adaptive brace might increase user compliance by improving comfort and freedom of movement while offering similar protection in injurious situations.
Background: Many countries have restricted public life in order to contain the spread of the novel coronavirus (SARS-CoV2). As a side effect of related measures, physical activity (PA) levels may have decreased.
Objective: We aimed (1) to quantify changes in PA and (2) to identify variables potentially predicting PA reductions.
Methods: A systematic review with random-effects multilevel meta-analysis was performed, pooling the standardized mean differences in PA measures before and during public life restrictions.
Results: A total of 173 trials with moderate methodological quality (modified Downs and Black checklist) were identified. Compared to pre-pandemic, total PA (SMD − 0.65, 95% CI − 1.10 to − 0.21) and walking (SMD − 0.52, 95% CI − 0.29 to − 0.76) decreased while sedentary behavior increased (SMD 0.91, 95% CI: 0.17 to 1.65). Reductions in PA affected all intensities (light: SMD − 0.35, 95% CI − 0.09 to − 0.61, p = .013; moderate: SMD − 0.33, 95% CI − 0.02 to − 0.6; vigorous: SMD − 0.33, − 0.08 to − 0.58, 95% CI − 0.08 to − 0.58) to a similar degree. Moderator analyses revealed no influence of variables such as sex, age, body mass index, or health status. However, the only continent without a PA reduction was Australia and cross-sectional trials yielded higher effect sizes (p < .05).
Conclusion: Public life restrictions associated with the COVID-19 pandemic resulted in moderate reductions in PA levels and large increases in sedentary behavior. Health professionals and policy makers should therefore join forces to develop strategies counteracting the adverse effects of inactivity.
Governments have restricted public life during the COVID-19 pandemic, inter alia closing sports facilities and gyms. As regular exercise is essential for health, this study examined the effect of pandemic-related confinements on physical activity (PA) levels. A multinational survey was performed in 14 countries. Times spent in moderate-to-vigorous physical activity (MVPA) as well as in vigorous physical activity only (VPA) were assessed using the Nordic Physical Activity Questionnaire (short form). Data were obtained for leisure and occupational PA pre- and during restrictions. Compliance with PA guidelines was calculated based on the recommendations of the World Health Organization (WHO). In total, n = 13,503 respondents (39 ± 15 years, 59% females) were surveyed. Compared to pre-restrictions, overall self-reported PA declined by 41% (MVPA) and 42.2% (VPA). Reductions were higher for occupational vs. leisure time, young and old vs. middle-aged persons, previously more active vs. less active individuals, but similar between men and women. Compared to pre-pandemic, compliance with WHO guidelines decreased from 80.9% (95% CI: 80.3–81.7) to 62.5% (95% CI: 61.6–63.3). Results suggest PA levels have substantially decreased globally during the COVID-19 pandemic. Key stakeholders should consider strategies to mitigate loss in PA in order to preserve health during the pandemic.
Das Ziel dieses Projekts ist die Entwicklung und Charakterisierung einer mikrobiellen Brennstoffzelle (MBZ). Die MBZ unterscheidet sich von einer herkömmlichen Brennstoffzelle darin, dass die an der Anode erzeugten Elektronen nicht vom molekularen Wasserstoff, sondern direkt von der im Anodenkompartiment wachsenden Biomasse aus organischen Verbindungen stammen. Die Funktionsweise einer solchen Zelle ist in Abbildung 3.4-1 dargestellt. Im Gegensatz zur herkömmlichen Brennstoffzelle können in einer MBZ auch Abwasserteilströme z. B. aus der Lebensmittelindustrie als Substrat eingesetzt werden. Der große Vorteil der MBZ besteht somit darin, dass Abwässer biologisch abgebaut und gleichzeitig elektrischer Strom erzeugt werden kann.
Die angestrebten Klimaschutzziele erfordern, dass Erneuerbare Energien längerfristig zur Hauptenergiequelle der Energieversorgung werden. Um dieses ehrgeizige Ziel zu erreichen, ist es angebracht konventionelle und erneuerbare Energie oder noch besser nachhaltige Einzelprozesse intelligent miteinander zu verknüpfen.
Das Projekt EBIPREP wird von einer interdisziplinären Forschergruppe bestehend aus Chemikern, Prozessingenieuren und Bioprozessingenieuren sowie Physikern, die auf Sensoren und Prozesssteuerung spezialisiert sind durchgeführt. Das Ziel ist es, neue Lösungen für die Nutzungswege von Holzhackschnitzeln und den bei der mechanischen Trocknung anfallenden Holzpresssaft zu entwickeln. Neben der Hackschnitzelvergasung und der katalytischen Reinigung des Holzgases steht die Nutzung des Holzpresssafts in Biogasanlagen und bei der biotechnologischen Wertstofferzeugung, z.B. bei der Enzymherstellung, im Vordergrund.
Was wir tun?
Das EBIPREP-Projekt wird von einer interdisziplinären Forschungsgruppe durchgeführt, die sich aus Chemikern, Prozessingenieuren, Bioprozessingenieuren und Physikern zusammensetzt. Ziel ist es, neue Lösungen für den Einsatz von Hackschnitzeln und Holzpresssaft zu entwickeln, die durch ein innovatives mechanisches Trocknungsverfahren gewonnen werden. Neben der Holzvergasung und katalytischen Reinigung des Holzgases ist der Einsatz von Holzpresssaft in Biogasanlagen und in biotechnologischen Produktionsprozessen von Wertstoffen vorgesehen. Holzhackschnitzel werden thermisch vergast. Es werden Online-Sensoren entwickelt, um die relevanten Parameter der stabilisierten und optimierten Einzelprozesse auszuwerten. Die Verknüpfung von thermischen und biotechnologischer Konversionsprozessen könnte dazu beitragen, die Dimension von Biogasreaktoren erheblich zu reduzieren. Diese Tatsache wird folglich zu einer spürbaren Kostensenkung führen.
Ziele des EBIPREP-Projekts
• die Vorteile der thermischen und biologischen Umwandlung von Biomasse zu kombinieren;
• Entwicklung eines Verfahrens zur Reduzierung von Schadstoffemissionen mit innovativen Sensoren und katalytische Behandlung von Synthesegasen;
• nachhaltige Produktion biotechnologischer wertvoller Produkte
• wirtschaftliche und ökologische Analyse des Gesamtprozesses im Vergleich zu den Einzelprozessen
• Einsatz von Prozessabwässern zur Erzeugung regenerativer Energie oder biotechnologischer Wertstoffe
• Erwerb neuer Kenntnisse auf dem Gebiet der Rückgewinnungstechnik von Rückständen
• und Energieerzeugung;
• Erweiterung neuer Anwendungsfelder für innovative Sensoren und Keramik
• Schäume für Katalysatoren;
• Senkung der Kosten für die Biogasproduktion
Im geplanten Übersichtsvortrag werden die vernetzten Strukturen des Projekts EBIPREP und deren zentralen Ergebnisse vorgestellt.
In contrast to a conventional fuel cell the electrons in a microbial fuel cell (MFC) originate from the metabolic conversion of organic substrates by special bacteria instead of using molecular hydrogen. Recent research in our group has shown that the maximum electrical power density in a MFC correlates with the biomass concentration in batch MFC experiments. In continuous MFC systems additionally the dilution rate D could have an effect on the specific power density. Therefore two steady state conditions are adjusted and the resulting specific power densities, and the biomass and substrate concentrations were measured. These results were implemented in a mathematical description of the continuous MFC-process and the visualization of the model is presented.
Die biologische Verwertung von cellulose-/ hemicellulose- und lignocellulosereichen organischen Substraten zur Erzeugung von Energieträgern gewinnt zunehmend an Bedeutung. Im Gegensatz zu Biokraftstoffen der ersten Generation, bei denen nur ein kleiner Teil des pflanzlichen Materials eingesetzt worden ist (Öl, Zucker, Stärke), wird bei Biokraftstoffen der zweiten Generation fast die vollständige Pflanze einschließlich der schwer zugänglichen Cellulose verwendet. In Biogasanlagen führt diese Zielstellung jedoch häufig zu Problemen. Lignocellulose-reiches Material ist für viele Mikroorganismen schwer oder gar nicht abbaubar. Um die schwer abbaubaren Pflanzenteile wie Cellulose, Hemicellulose oder Lignin den Mikroorganismen in einer Biogasanlage besser zugänglich zu machen, können Biogassubstrate vorbehandelt werden.
Hinsichtlich des Informationsaustauschs ist die Bewerbungssituation oft durch eine Asymmetrie gekennzeichnet. Arbeitgeber erwarten umfassende und detaillierte Informationen, liefern aber häufig ihrerseits, insbesondere in der Anfangsphase des Auswahlprozesses, nur wenige Informationen. Eine kleine Feldstudie in einem deutschen Unternehmen ergab, dass sich von 34 Bewerbern über die auszuübende Tätigkeit nur vier gut informiert, aber vierzehn nur mäßig und neun schlecht informiert fühlten sowie sieben sich in dieser Hinsicht unbestimmt äußerten. Eine telefonische Befragung von 100 ehemaligen Mitarbeitern und von 50 aktiven Mitarbeitern eines großen Informatik-Unternehmens ergab, dass unrealistische Tätigkeitsschilderungen eine bedeutsame Frühfluktuationsursache sind. Die Frage, ob die Tätigkeit in der Bewerbungsphase realistisch geschildert worden sei, wurde nur von 35,9 % der aktiven Mitarbeiter und nur von 7,1 % der ehemaligen Mitarbeiter bejaht.
Eine Feldforschung in der Art, dass Entscheidungsträger und Bewerber ohne ihre Kenntnis beobachtet und die Beobachtungsergebnisse ausgewertet wurden, existiert nicht. Hier gibt es neben praktischen Schwierigkeiten auch rechtliche und moralisch-ethische Forschungsgrenzen. Ethische Bedenken bestehen ebenso gegen eine experimentell unterschiedliche Behandlung realer Bewerber. Auch eine begleitende Feldforschung zu realen Auswahlverfahren in der Praxis, zum Beispiel durch den intensiven Einbezug von Forschern, durch offensichtliche Tonbandaufnahmen oder Videoaufnahmen von Live- Gesprächen oder durch die stumme oder teilnehmende Beobachtung der Akteure durch Forscher kommt, außer bei Campusinterviews, nicht oft vor.
Das situative Interview (SI) ist eine Form des strukturierten Interviews. Es wird nach der Zielsetzungstheorie von der Annahme ausgegangen, dass ein enger Zusammenhang zwischen geäußerten Verhaltensabsichten und dem späteren realen Verhalten besteht. Bewerber werden gefragt, wie sie in bestimmten Situationen handeln würden: „Was würden Sie tun, wenn ...?“ Man kann von einer mentalen Arbeitsprobe sprechen. Die Antworten der Bewerber werden mit vorher entwickelten Antwortalternativen verglichen und so bewertet.
Praxisorientierung und angewandte Wissenschaften sind an unseren Hochschulen erprobte Denkweisen, traditionsreich gewachsen aus Technik und Wirtschaft. Mit der interdisziplinären Medienfakultät M+I kommt der gestalterische Blick dazu auf Grafik, Bewegtbild, Sound, Multimedia und Interaktivität. Im Master-Studium ergänzen sich intermediales Gestalten und Reflexion mit audiovisueller Komposition als Performance. Solche experimentell-künstlerischen Projekte verbinden sich durch Hochschul- und Mediendidaktik mit forschendem Lernen, als integrierende Methode, die noch wachsen soll. Ein wichtiger Impuls dafür könnte Practice-Based Research sein. Das ist eine Forschung in Kunst und Gestaltung, aber auch in Medizin und Sozialwissenschaft, die sich in den letzten drei Jahrzehnten im Angelsächsischen von Nordamerika über England bis nach Australasia intenstiv entwickelt hat.
M+I = Mediologie + Interdisziplinarität – Skizzen angewandter und anwendbarer Medienwissenschaft
(2011)
Im Handlungsfeld Medien + Informationswesen (M+I) der Hochschule Offenburg steht die didaktische Produktion in der Lehre und für professionelle Tätigkeiten im Zentrum. In Laboren, Studios, Projekten, Abschluss- und Forschungsarbeiten werden mediale Lösungen für die Praxis erarbeitet und auch neue Formate entworfen. Die Fachwissenschaften umgeben solche Workflows als paralleles Bezugssystem. Darin ist die Zusammenarbeit zwischen Gestaltungslehrern und Informatikern, von Medientechnik und Medienmanagement ein gut entwickelter Prozess für Medien in der Bildung (oder „Bildung im Neuen Medium“) [1]. Die Herstellung selbst aber ist nicht immer primär theoriegeleitet, sondern mehr konzentriert auf Ideen, Akteure, Werkzeuge, Abläufe und Strukturen. Lehr-Lern-Konzepte, theoretische Reflexion und forschendes Lernen treffen so zwar zusammen und an Übergängen wachsen theoriefähige Gestalten, noch ohne sich intermedial zu vollenden [2]. Aus dem Blickwinkel der Ilmenauer Angewandten Medienwissenschaft lässt sich ein Workflowkonzept übertragen zwischen praktischem Handeln und wissenschaftlichen Einzelfächern. Auch durch Mediologie, eine schlanke „Medientheorie der Kulturwissenschaften“ gerät solches Übertragen und Vermitteln bewusster von der technologischen und materialen Basis der Medien her in die Diskussion. Als Mediation verbindet sie Inhalt, Organisation und Ästhetik, so der technikversierte Medienphilosoph Frank Hartmann [3].
Bioakustik, ein interdisziplinäres Gebiet der Biologie zwischen Klang und Umwelt, erfährt durch die Kunstkopf-Hörbilder des Naturforschers und Tonmeisters Walter Tilgner eine plastische, wissenschaftliche Erweiterung. Mit dem binauralen Kunstkopfverfahren zeichnet er nicht nur einzelne tier- und vogelkundliche Laute auf, sondern die gesamte Umgebung und ihr typisches Klangbild. Während die Tierstimmenanalyse etwa der Ornithologie einzelne Formen des Vogelgesangs untersucht, geht es ihm und Hörkünstlern wie Gordon Hempton, dem ‚Soundtracker‘, um das Wechselspiel zwischen den Arten in Zeit und Raum. Auch die pädagogische Seite spielt eine Rolle, um den Rezipienten Naturklang als wertvolle Ressource nahezubringen. 1985 hat der Pionier Tilgner die ersten Naturlandschaften vollständig digital aufgenommen und bei WERGO mit dem Label ‚Natural Sound‘ als CD publiziert. Für den Komponisten und Wissenschaftler Dr. Bernie Krause aus Kalifornien repräsentieren solche Aufnahmen ökologische Nischen in der Landschaft, von typischen Klangverläufen geprägt. In seinem eigenen Vergleich dichter Naturräume in Südamerika, Afrika und Asien werden sie unverwechselbar als akustischer Fingerabdruck nachweisbar. Der Künstler- Forscher hat mit der Spektralanalyse so nicht nur seine ‚Nischen-Hypothese‘ entwickelt und empirisch bestätigt, sondern auch den Begriff der Biophonie geprägt: Naturklänge entfalten sich wie in einem musikalischen Stück, sie sind der Komposition einer (Bio-)Symphonie vergleichbar. Die Stimmen der Spezies bilden arin den ‚materialen Klang‘ (den Ausdruck verdanken wir dem Komponisten Johannes Wallmann in Berlin). Darauf wirken die zeitlichen Prozesse und räumlichen Faktoren der Umwelt, als ‚Geophony‘ aus Klima und Flora, durch Sonne, Wind, Erde und Wasser. Schließlich verändert auch der Mensch die Naturlandschaft durch technische Geräte, wie in der Tonaufnahme, und durch extensives Wirtschaften hin zur ‚Anthrophony‘. Der Klang der Natur ist also menschgemacht, und die Aufnahmen bedeuten nicht nur wertvollen Rohstoff für die Medien. Bioakustik und Biophonie fordern den Dialog von und über Natur und Kultur immer wieder neu heraus, wie hier im Spektrogramm einer Waldcollage, mit einer starken Motorsäge als Mittelpunkt [2].
Intermediales Gestalten bildet in der Fakultät M+I ein dichtes Produktionsnetz. Es umfasst ein großes Spektrum von Schrift, Bild und Fotografie zu zeitbasierten Formen, audiovisueller Komposition und Medienkunst. Experimentelles Screen- und Webdesign tragen mit interaktiven Momenten dazu bei, als Werkstattberichte und DVD-Arrangements. Dazwischen entfalten sich Sound und Design als eigene Klangsprache – Klanguage‘ – wie auch quer-synergetisch zu allen Medien und deren Bezugsdisziplinen. Zwar ist der Acoustic Turn der Kulturwissenschaft im Vergleich zu Texten und Bildern noch recht verhalten. [1] Aber Interdisziplinarität und wieder neu zu entdeckende (Poly-)Ästhetik [2] verbinden die unterschiedlichen Medien über ihre parallelen Workflows und Produktionsstrukturen wie auch in wissenschaftlichen Diskursen zur Konzeption und Produktion. [3] Doch auch der theoretische Ausdruck Intermedialität ist ein reicher Schirmbegriff zwischen Gattungen und Genres. [4] Das zeigt sich als Längsschnitt, in dem Medien historisch aus- und miteinander entstehen und vergehen. Andererseits verfügen wir heute über einen frei konfigurierbaren Querschnitt an neuen Formaten, etwa von der noch wenig erprobten Akustischen Fotografie zur visuellen Virtualität und Simulation. Modelle wachsen aus Arbeitsprojekten und auch in der teilnehmenden, teilseienden Doppelrolle von Praxisforschern. Gestalter sind Beobachter und Akteure zugleich, wie bei Ihnkens Studio als ‚Labor der Emotionen‘ [5]. Intermediales Gestalten ist also immer ein doppelter Prozess: in den Medien selbst als Transfer der Gestaltungskraft von einer Schicht zur anderen und als Mitte zwischen Produktions- und Wissenskultur.
Implementierung von Softcore-Prozessoren und/oder weiteren IPs (Intellectual Property) in FPGAs
(2018)
Die zunehmende Integration von kompletten Systemen auf einem Chip (System-on-Chip, SoC) erfordert auch immer die Integration einer Recheneinheit bzw. eines Prozessorkerns. Möchte man insbesondere Low-Power-SoC-Systeme entwickeln, z.B. drahtlose Sensor-SoC-Systeme für Anwendungen im Rahmen von Industrie 4.0, ist die Implementierung eines solchen Prozessorkerns mit hohen Herausforderungen verbunden. Prinzipiell können hierfür verschiedene Ansätze verfolgt werden, nämlich die Implementierung einer Hardcore Prozessor-IP (IP = Intellectual Property) oder einer Softcore-Prozessor-IP. Im vorliegenden Beitrag wird zunächst auf den derzeitigen Stand der Technik verfügbarer Hardcore- oder Softcore-Prozessoren unter den Randbedingungen der Low-Power-Anforderungen und der weiten Verbreitung des Cores in industriellen Anwendungen eingegangen. Schließlich werden die Ergebnisse der Implementierung und Evaluierung eines derzeit frei verfügbaren 16-bit MSP430-kompatiblen Softcore Prozessors auf einem Altera-Cyclon-FPGA vorgestellt. Aus den Ergebnissen wird ein entsprechendes Fazit für die Implementierung von Low-Power-SoC-Systeme gegeben.
Disruptive innovations can solve major global challenges. However, the system in Germany does not sufficiently favor the development of such innovations. The disruptive output of leading nations like the United States puts increasing pressure on Germany’s innovation leadership. The German innovation agency SPRIND was founded in 2019 and is a suitable instrument to promote disruptive innovations. The SPRIND itself cites the American innovation agency DARPA, which has been promoting disruptive innovations since 1958, a role model. Therefore, the aim of this paper is to conduct a comparative analysis of DARPA and SPRIND. To answer the research question, secondary sources were used. In addition, two expert interviews were conducted with employees of SPRIND. The result of this paper is a systematic comparison that identifies the key differences and similarities between the two agencies. SPRIND is based on DARPA in key success factors, such as the person-centered approach, funding instruments or risk management. However, compared to DARPA, SPRIND has a major disadvantage; namely several administrative hurdles which inhibit agile action.
Established robot manufacturers have developed methods to determine and optimize the accuracy of their robots. These methods vary from robot manufacturers to their competitors. Due to the lack of published data, a comparison of robot performance is difficult. The aim of this article is to find methods to evaluate important characteristics of a robot with an accurate and cost-effective setup. A laser triangulation sensor and geometric referenced spheres were used as a base to compare the robot performance.
Novel approaches for the design of assistive technology controls propose the usage of eye tracking devices such as for smart wheelchairs and robotic arms. The advantages of artificial feedback, especially vibrotactile feedback, as opposed to their use in prostheses, have not been sufficiently explored. Vibrotactile feedback reduces the cognitive load on the visual and auditory channel. It provides tactile sensation, resulting in better use of assistive technologies. In this study the impact of vibration on the precision and accuracy of a head-worn eye tracking device is investigated. The presented system is suitable for further research in the field of artificial feedback. Vibration was perceivable for all participants, yet it does not produce any significant deviations in precision and accuracy.
Immunosorbent turnip vein clearing virus (TVCV) particles displaying the IgG-binding domains D and E of Staphylococcus aureus protein A (PA) on every coat protein (CP) subunit (TVCVPA) were purified from plants via optimized and new protocols. The latter used polyethylene glycol (PEG) raw precipitates, from which virions were selectively re-solubilized in reverse PEG concentration gradients. This procedure improved the integrity of both TVCVPA and the wild-type subgroup 3 tobamovirus. TVCVPA could be loaded with more than 500 IgGs per virion, which mediated the immunocapture of fluorescent dyes, GFP, and active enzymes. Bi-enzyme ensembles of cooperating glucose oxidase and horseradish peroxidase were tethered together on the TVCVPA carriers via a single antibody type, with one enzyme conjugated chemically to its Fc region, and the other one bound as a target, yielding synthetic multi-enzyme complexes. In microtiter plates, the TVCVPA-displayed sugar-sensing system possessed a considerably increased reusability upon repeated testing, compared to the IgG-bound enzyme pair in the absence of the virus. A high coverage of the viral adapters was also achieved on Ta2O5 sensor chip surfaces coated with a polyelectrolyte interlayer, as a prerequisite for durable TVCVPA-assisted electrochemical biosensing via modularly IgG-assembled sensor enzymes.
Emerging applications in soft robotics, wearables, smart consumer products or IoT-devices benefit from soft materials, flexible substrates in conjunction with electronic functionality. Due to high production costs and conformity restrictions, rigid silicon technologies do not meet application requirements in these new domains. However, whenever signal processing becomes too comprehensive, silicon technology must be used for the high-performance computing unit. At the same time, designing everything in flexible or printed electronics using conventional digital logic is not feasible yet due to the limitations of printed technologies in terms of performance, power and integration density. We propose to rather use the strengths of neuromorphic computing architectures consisting in their homogeneous topologies, few building blocks and analog signal processing to be mapped to an inkjet-printed hardware architecture. It has remained a challenge to demonstrate non-linear elements besides weighted aggregation. We demonstrate in this work printed hardware building blocks such as inverter-based comprehensive weight representation and resistive crossbars as well as printed transistor-based activation functions. In addition, we present a learning algorithm developed to train the proposed printed NCS architecture based on specific requirements and constraints of the technology.
Introduction: The use of scaffolds in tissue engineering is becoming increasingly important as solutions need to be found to preserve human tissues such as bone or cartilage. Various factors, including cells, biomaterials, cell and tissue culture conditions, play a crucial role in tissue engineering. The in vivo environment of the cells exerts complex stimuli on the cells, thereby directly influencing cell behavior, including proliferation and differentiation. Therefore, to create suitable replacement or regeneration procedures for human tissues, the conditions of the cells’ natural environment should be well mimicked. Therefore, current research is trying to develop 3-dimensional scaffolds (scaffolds) that can elicit appropriate cellular responses and thus help the body regenerate or replace tissues. In this work, scaffolds were printed from the biomaterial polycaprolactone (PCL) on a 3D bioplotter. Biocompatibility testing was used to determine whether the printed scaffolds were suitable for use in tissue engineering.
Material and Methods: An Envisiontec 3D bioplotter was used to fabricate the scaffolds. For better cell-scaffold interaction, the printed polycaprolactone scaffolds were coated with type-I collagen. Three different cell types were then cultured on the scaffolds and various tests were used to investigate the biocompatibility of the scaffolds.
Results: Reproducible scaffolds could be printed from polycaprolactone. In addition, a coating process with collagen was developed, which significantly improved the cell-scaffold interaction. Biocompatibility tests showed that the PCL-collagen scaffolds are suitable for use with cells. The cells adhered to the surface of the scaffolds and as a result extensive cell growth was observed on the scaffolds. The inner part of the scaffolds, however, remained largely uninhabited. In the cytotoxicity studies, it was found that toxicity below 20% was present in some experimental runs. The determination of the compressive strength by means of the universal testing machine Z005 by ZWICK according to DIN EN ISO 604 of the scaffolds resulted in a value of 68.49 ± 0.47 MPa.
iSign - internet based simulation of guided wave propagation - ist eine Lernumgebung für Online-Laborversuche. Die Client-Serverarchitektur nutzt server-seitig das Tool F3D, das elektromagnetische Felder in 3D-Strukturen berechnet. Ein Apache-Webserver (unter Linux) bedient den Theorie-/Aufgaben-Teil und die Lernsystemadministration. Ein HPUX Simulationsserver steuert und kontrolliert den mehrstufigen Simulationsvorgang. Eine MySQL-Datenbank erlaubt dynmaische Webseiten-Generierung und Simulations-, Projekt- und Userdatenhaltung. Java-Applets, JavaServer Pages und JavaBeans erzeugen die interaktive Client-Oberfläche zur Eingabe, Ergebnisdarstellung und für Online-Virtual Reality. Die einheitlich gestaltete Benutzeroberfläche verbirgt die Systemkomplexität.
Strings
(2020)
This article presents the currently ongoing development of an audiovisual performance work with the title Strings. This work provides an improvisation setting for a violinist, two laptop performers, and two generative systems. At the core of Strings lies an approach that establishes a strong correlation among all participants by means of a shared physical principle. The physical principle is that of a vibrating string. The article discusses how this principle is used in both natural and simulated forms as main interaction layer between all performers and as natural or generative principle for creating audio and video.
Allgemeine Geschäftsbedingungen als Instrument der Vereinfachung betrieblicher Vertragsgestaltung
(2018)
Im Wirtschaftsleben spielen heute AGB eine bedeutende Rolle. Diese sind nach § 305 Abs. 1 BGB alle, für eine Vielzahl von Verträgen vorformulierten Vertragsbedingungen, die eine Vertragspartei (Verwender) der anderen Vertragspartei bei Abschluss eines Vertrags stellt. Vertragsbedingungen sind dabei die Regelungen, die Bestandteil des Vertrages werden sollen.1 Gleichgültig ist, ob die Bestimmungen einen äußerlich gesonderten Bestandteil des Vertrags bilden oder in die Vertragsurkunde selbst aufgenommen werden, welchen Umfang sie aufweisen, in welcher Schriftart sie verfasst sind und welche Form der Vertrag hat (vgl. § 305 Abs. 1 S. 2 BGB). Durch AGB wird grundsätzlich ein Rationalisierungseffekt erreicht. Bei Abschluss von Massenverträgen stellen diese eine Vereinfachung der Vertragsabwicklung dar. Stetig gleichbleibende Vertragsregelungen können einmalig formuliert und ständig wiederverwendet werden. Des Weiteren verfolgen AGB den Zweck, das Risiko ihres Verwenders zu begrenzen. AGB stellen ebenso Regelungen des Rechtsverhältnisses zwischen den Vertragsparteien dar. Neben den Vorteilen, können sich aber auch nachteilige Aspekte für den Verwender ergeben. Durch die Vorformulierung von AGB kann die Gefahr bestehen, dass der AGB-Verwender die Regelungen ausschließlich zu seinen Gunsten und damit zum Nachteil der anderen Vertragspartei gestaltet. In einer Drucksituation kann die Gegenseite des Vertrages so gezwungen sein, sich mit den AGB als einverstanden zu erklären. Als Beispiel kann der AGB-Verwender eine Monopolstellung innehaben oder die andere Vertragspartei benötigt die Vertragsleistung dringend.
Die Führungsaufgaben eines Forstbetriebes sind diversifizierter und anspruchsvoller geworden. Aufgaben und Ansprüche ändern sich. Aus den Forstverwaltungen werden moderne Unternehmen. Deutlich wurde dies an den klimatisch und wirtschaftlich bedingten Turbulenzen, denen die Forstwirtschaft in den letzten drei Jahrzehnten unterworfen war. Krisen und technische Dynamiken haben die forstwirtschaftlichen Märkte beeinflusst. Auch die gesellschaftlichen Ansprüche an die Forstwirtschaft sind durch Freizeitanspruch und Wertewandel im Sinne der Schutz- und Erholungsfunktionen des Waldes gewachsen. Ökonomische, soziale und ökologische Verpflichtungen führen zu einem Geflecht von Handlungsrestriktionen, das von der Führung eines Forstbetriebes daher ein komplexes Management erfordert, um den divergierenden Aufgaben und Ansprüchen gerecht zu werden.
In der Forstwirtschaft wirken vielfältige Einflüsse unterschiedlich intensiv von außen insbesondere auf die staatlichen Forstbetriebe. Für sie ist inzwischen ein langwieriger Dauerreformprozess zu konstatieren. Zahlreiche, neue gesetzliche Regelungen haben die Rahmenbedingungen für das Management in den Forstverwaltungen grundlegend verändert. Neben den Shareholdern und den „klassischen“ Stakeholdern (Kunden, Verbände, Gewerkschaften, Lieferanten, Mitarbeiter etc.) sind als weitere Anspruchsgruppen im Forst vor allem Parteien, Jäger und Umweltschutzgruppen zu nennen. Restringierende Wirkung haben vor allem die Entscheidungen der Länderparlamente, die Normen aus Brüssel und konkretisierte Normen aus Berlin in Gesetzestexte (oftmals mit Flächen- bzw. Ortsbezug) umformulieren. Im Rahmen des vorliegenden Arbeitspapiers wird betrachtet, wie und in welchen Bereichen unterschiedliche Restriktionen das Management und die Führung in den Forstbetrieben bei der Umsetzung ihrer Ziele und Zielvorgaben einschränken und somit das Führungsverhalten beeinflussen.
Als Fortsetzung des FHOP-Projektes wurde an der Fachhochschule Offenburg auf Basis des bestehenden Mikroprozessorkerns im Rahmen einer Diplomarbeit ein Mikrocontroller in ES2-0.7 μm-Technologie entworfen. Der Controller wurde modular aufgebaut mit den Komponenten: FHOP-Mikroprozessor, Buscontroller, Waitstate-Chipselect-Einheit, 16x16 Bit Multiplizierer, 2KB ROM, 256 Byte RAM, Watchdog, PIO mit 16 konfigurierbaren Ports, SIO, 2 Timer und ein Interruptcontroller für 8 Interrputquellen.
Der Chip benötigt bei einer Komplexität von ca. 65400 Transistoren eine Siliziumfläche von etwa 27 mm². Er wurde im September 1996 zur Fertigung gegeben und mittlerweile erfolgreich getestet. Das interne ROM des Mikrocontrollers enthält das BIOS sowie ein Testprogramm. Zur Erstellung der Software steht eine komplette Entwicklungsumgebung zur Verfügung. Sämtliche Komponenten stehen im FHOP-Design-Kit in Kürze zur Verfügung.
RFID- Frontend ISO 15693
(2008)
Spätestens nach den erfolgreichen Wahlkämpfen 2008 und 2012 in den USA des zweimaligen US-Präsidenten Barack Obama, ist Social Media als Schlüsselmedium für die politische Kommunikation angekommen. Nach der Wahl von Donald Trump als 45. Präsidenten der Vereinigten Staaten ist zudem deutlich geworden: Social Media erreicht in der Politik eine nie dagewesene Dimension und hat insbesondere im Wahlkampf eine sehr wichtige Bedeutung. Im vorliegenden Arbeitspapier sollen die folgenden Aspekte näher beleuchtet werden: Welche Auswirkungen haben Social Media auf die Politik und wie können sie in der politischen Kommunikation eingesetzt werden? Wie können mit Social Media Wähler gewonnen werden? Welche Möglichkeiten bieten Social Media für die Bürger, um sich in der politisch zu beteiligen? Welche Risiken können durch Social Media in der Politik entstehen?
Predictive control has great potential in the home energy management domain. However, such controls need reliable predictions of the system dynamics as well as energy consumption and generation, and the actual implementation in the real system is associated with many challenges. This paper presents the implementation of predictive controls for a heat pump with thermal storage in a real single-family house with a photovoltaic rooftop system. The predictive controls make use of a novel cloud camera-based short-term solar energy prediction and an intraday prediction system that includes additional data sources. In addition, machine learning methods were used to model the dynamics of the heating system and predict loads using extensive measured data. The results of the real and simulated operation will be presented.
Die Globalisierung, der technische Fortschritt, sowie die politischen Entwicklungen weltweit führen dazu, dass heute kaum ein Unternehmen existiert, das nicht internationale Geschäftsbeziehungen mit ausländischen Unternehmen aufrecht erhält, unabhängig davon, ob als Exporteur oder Importeur. Grenzüberschreitend tätige Unternehmen sehen sich dabei fremden Rechtsordnungen gegenüberstehend. Dies kann Konflikte mit sich bringen und den Handelsverkehr beeinträchtigen. Dabei stellen neben unterschiedlichen Rechtssystemen auch die kulturellen Differenzen und die räumliche Distanz der beteiligten Länder Hindernisse dar. Zumindest auf dem Gebiet der Gesetzgebung gab es Bemühungen nach Vereinheitlichung. So kam das Übereinkommen der Vereinten Nationen über Verträge über den internationalen Warenkauf, kurz UN-Kaufrecht, das den internationalen Warenhandel vereinfachen soll, zustande. Dieses Regelwerk, sowie die Analyse möglicher Vorteile für den deutschen Exporteur sind Thema dieses Arbeitspapieres. Dabei soll die Analyse nicht nur auf der Literaturrecherche beruhen, sondern sich auch damit auseinandersetzen, wie die Handhabung des UN-Kaufrechts in der Praxis durch Unternehmen erfolgt.
During the coronavirus crisis, labs had to be offered in digital form in mechanical engineering at short notice. For this purpose, digital twins of more complex test benches in the field of fluid energy machines were used in the mechanical engineering course, with which the students were able to interact remotely to obtain measurement data. The concept of the respective lab was revised with regard to its implementation as a remote laboratory. Fortunately, real-world labs were able to be fully replaced by remote labs. Student perceptions of remote labs were mostly positive. This paper explains the concept and design of the digital twins and the lab as well as the layout, procedure, and finally the results of the accompanying evaluation. However, the implementation of the digital twins to date does not yet include features which address the tactile experience of working in real-world labs.
During the coronavirus crisis, labs had to be offered in digital form in mechanical engineering at short notice. For this purpose, digital twins of more complex test benches in the field of fluid energy machines were used in the mechanical engineering course, with which the students were able to interact remotely to obtain measurement data. The concept of the respective lab was revised with regard to its implementation as a remote laboratory. Fortunately, real-world labs were able to be fully replaced by remote labs. Student perceptions of remote labs were mostly positive. This paper explains the concept and design of the digital twins and the lab as well as the layout, procedure, and finally the results of the accompanying evaluation. However, the implementation of the digital twins to date does not yet include features that address the tactile experience of working in real-world labs.
Titanium and stainless steel are commonly known as osteosynthesis materials with high strength and good biocompatibility. However, they have the big disadvantage that a second operation for hardware removal is necessary. Although resorbable systems made of polymers or magnesium are increasingly used, they show some severe adverse foreign body reactions or unsatisfying degradation behavior. Therefore, we started to investigate molybdenum as a potential new biodegradable material for osteosynthesis in craniomaxillofacial surgery. To characterize molybdenum as a biocompatible material, we performed in vitro assays in accordance with ISO Norm 10993-5. In four different experimental setups, we showed that pure molybdenum and molybdenum rhenium alloys do not lead to cytotoxicity in human and mouse fibroblasts. We also examined the degradation behavior of molybdenum by carrying out long-term immersion tests (up to 6 months) with molybdenum sheet metal. We showed that molybdenum has sufficient mechanical stability over at least 6 months for implants on the one hand and is subject to very uniform degradation on the other. The results of our experiments are very promising for the development of new resorbable osteosynthesis materials for craniomaxillofacial surgery based on molybdenum.
In the railway technical centers, scheduling the maintenance activities is a very complex task, it consists in ordering, in the time, all the maintenance operations on the workstations, while respecting the number of resources, precedence constraints, and the workstations' availabilities. Currently, this process is not completely automatic. For improving this situation, this paper presents a mathematical model for the maintenance activities scheduling in the case of railway remanufacturing systems. The studied problem is modeled as a flexible job-shop, with the possibility for a job to be executed several times on a stage. MILP formulation is implemented with the Makespan as an objective, representing the time for remanufacturing the train. The aim is to create a generic model for optimizing the planning of the maintenance activities and improving the performance of the railway technical centers. At last, numerical results are presented, discussing the impact of the instances size on the computing time to solve the described problem.
Making innovation, trade, investment and environment policy goals mutually supportive creates challenges for internationally‐oriented firms, financial institutions, governments and other stakeholders. Will the Ukraine war derail the green energy transition? How can governments and the financial system work together to broaden, deepen, and accelerate the global transition to net‐zero? What are innovation, trade and investment opportunities for green growth? How to refocus government financing instruments to support countries and trade partners meet their climate targets in times of crisis? The IfTI Global Symposium 2022 hosted by the Institute of Trade and Innovation (IfTI) at Offenburg University discussed challenges to trade in a new global order, as well as opportunities and threats of the green transition. This Special Section brings together practitioner commentaries of key symposium speakers.
Informatik-Veranstaltungen in der Fakultät Medien und Informationswesen (abgekürzt MI) vermitteln meist komplexe Inhalte, die anschließend in begleitenden Laborveranstaltungen praktisch und an konkreten Beispielen vertieft werden. Allerdings benötigen die Studierenden für ein lehrreiches Labor und die selbstständige Erarbeitung korrekter Lösungen einige Grundkenntnisse, die aus der jeweiligen Theorieveranstaltung mitgebracht werden müssen. Um den Studierenden weiterhin die Möglichkeit zu geben, den Stoff der Lehrveranstaltungen raum- und zeitunabhängig nachzuarbeiten und auch didaktisch aufbereitete Übungen virtuelldurchzuführen, haben wir zu den Veranstaltungen Software Engineering, Computernetze und Datenbanken webbasierte E-Learning-Materialien konzipiert und erstellt (http://mi-learning.mi.fh-offenburg. de). Diese Materialien erlauben den Lernenden, selbstbestimmt, im eigenen Lernrhythmus und über unterschiedliche Medien einen Zugang zu der Thematik zu finden. Derartige hybride Lernarrangements (Blended Learning) kombinieren die Vorteile unterschiedlicher didaktischer Methoden und der Medien.
Featherweight Generic Go (FGG) is a minimal core calculus modeling the essential features of the programming language Go. It includes support for overloaded methods, interface types, structural subtyping, and generics. The most straightforward semantic description of the dynamic behavior of FGG programs is to resolve method calls based on runtime type information of the receiver. This article shows a different approach by defining a type-directed translation from FGG− to an untyped lambda-calculus. FGG− includes all features of FGG but type assertions. The translation of an FGG− program provides evidence for the availability of methods as additional dictionary parameters, similar to the dictionary-passing approach known from Haskell type classes. Then, method calls can be resolved by a simple lookup of the method definition in the dictionary. Every program in the image of the translation has the same dynamic semantics as its source FGG− program. The proof of this result is based on a syntactic, step-indexed logical relation. The step index ensures a well-founded definition of the relation in the presence of recursive interface types and recursive methods. Although being non-deterministic, the translation is coherent.
Purpose
This work presents a new monocular peer-to-peer tracking concept overcoming the distinction between tracking tools and tracked tools for optical navigation systems. A marker model concept based on marker triplets combined with a fast and robust algorithm for assigning image feature points to the corresponding markers of the tracker is introduced. Also included is a new and fast algorithm for pose estimation.
Methods
A peer-to-peer tracker consists of seven markers, which can be tracked by other peers, and one camera which is used to track the position and orientation of other peers. The special marker layout enables a fast and robust algorithm for assigning image feature points to the correct markers. The iterative pose estimation algorithm is based on point-to-line matching with Lagrange–Newton optimization and does not rely on initial guesses. Uniformly distributed quaternions in 4D (the vertices of a hexacosichora) are used as starting points and always provide the global minimum.
Results
Experiments have shown that the marker assignment algorithm robustly assigns image feature points to the correct markers even under challenging conditions. The pose estimation algorithm works fast, robustly and always finds the correct pose of the trackers. Image processing, marker assignment, and pose estimation for two trackers are handled in less than 18 ms on an Intel i7-6700 desktop computer at 3.4 GHz.
Conclusion
The new peer-to-peer tracking concept is a valuable approach to a decentralized navigation system that offers more freedom in the operating room while providing accurate, fast, and robust results.
An der Fachhochschule Offenburg wird der Design-Kit FHO_MTC_CMOS_035_v1.0 erstellt. Mit Hilfe dieses Kits lassen sich Designs in der AMI O.35 Mikrometer Technologie entwerfen. Alle durchgeführten Arbeiten werden durch den Entwurf eines Lottozahlengenerator-Chips verifiziert, der gefertigt wird. Damit sind alle wesentlichen Schritte bekannt, die für die Aufbereitung eines Design-Kits für beliebige Technologien für die Mentor-Tools erforderlich sind. Der Design-Kit wird für alle MPC-Mitglieder freigegen, die eine NDA für AMI bei Europractice unterzeichnet haben.
Gas Analysis and Optimization of Debinding and Sintering Processes for Metallic Binder-Based AM*
(2022)
Binder-based additive manufacturing processes for metallic
AM components in a wide range of applications usually use
organic binders and process-related additives that must be
thermally removed before sintering. Debinding processes are
typically parameterized empirically and thus far from the optimum.
Since debinding based on thermal decomposition processes
of organic components and the subsequent thermochemical
reactions between process atmosphere and metal
powder materials make uncomplicated parameterization difficult,
in-situ instrumentation was introduced at Fraunhofer
IFAM. This measurement method relies on infrared spectroscopy
and mass spectrometry in various furnace concepts to
understand the gas processes of decomposition of organic
components and the subsequent thermochemical reactions
between the carrier gas atmosphere and the metal part, as well
as their kinetics. This method enables an efficient optimization
of the temperature-time profiles and the required atmosphere
composition to realize dense AM components with low contamination.
In the paper, the optimization strategy is presented,
and the achievable properties are illustrated using a fused
filament fabrication (FFF) component example made of 316L
stainless steel.
In recent years, both the Internet of Things (IoT) and blockchain technologies have been highly influential and revolutionary. IoT enables companies to embrace Industry 4.0, the Fourth Industrial Revolution, which benefits from communication and connectivity to reduce cost and to increase productivity through sensor-based autonomy. These automated systems can be further refined with smart contracts that are executed within a blockchain, thereby increasing transparency through continuous and indisputable logging. Ideally, the level of security for these IoT devices shall be very high, as they are specifically designed for this autonomous and networked environment. This paper discusses a use case of a company with legacy devices that wants to benefit from the features and functionality of blockchain technology. In particular, the implications of retrofit solutions are analyzed. The use of the BISS:4.0 platform is proposed as the underlying infrastructure. BISS:4.0 is
intended to integrate the blockchain technologies into existing enterprise environments. Furthermore, a security analysis of IoT and blockchain present attacks and countermeasures are presented that are identified and applied to the mentioned use case.
Die mit dem Stichtag 25. Mai 2018 in Kraft getretene Datenschutz-Grundverordnung (DS-GVO) hat zu einem enormen Anstieg der Aufmerksamkeit auf diesem Gebiet, sowohl bei den betroffenen Personen als auch bei den datenverarbeitenden Unternehmen geführt. Gemäß einer Aussage des Landesbeauftragten für den Datenschutz und die Informationsfreiheit Baden-Württemberg, Stefan Brink, konnte die Quote der aktiven Umsetzung der datenschutzrechtlichen Vorschriften in den Betrieben von bisher einem Drittel auf zwei Drittel mit positivem Trend angehoben werden. Seitdem die DSGVO Gültigkeit erlangt hat, werden Umfragen zur praktischen Umsetzung der DS-GVO durchgeführt. Kaum ein Ergebnis einer dieser Umfragen besagt, dass die Umsetzung bei allen Betrieben nahezu abgeschlossen wäre. Der Digitalverband Bitkom hat eine repräsentative Befragung unter 500 Unternehmen in ganz Deutschland durchgeführt. Fast eineinhalb Jahre nach dem Geltungsbeginn der DS-GVO hatten zwar zwei Drittel der Befragten die DS-GVO größtenteils umgesetzt, bei lediglich 25 Prozent war die Umsetzung bereits zum Zeitpunkt der Umfrage vollständig abgeschlossen. Auch daran lässt sich erkennen, dass sich in den ersten zwei Jahren einige Herausforderungen in der betrieblichen Praxis ergeben haben. Zum einen kennen die betroffenen Personen ihre Rechte besser als zuvor und zum anderen haben hohe Bußgelder bei Nichteinhaltung der gesetzlichen Vorschriften eine abschreckende Wirkung. Bisher sind diese zwar meist von erheblichen Bußgeldern und einer Abmahnwelle verschont geblieben, dennoch ist ein konsequentes Vorgehen der Aufsichtsbehörden zu beobachten. An der Verdreifachung des Arbeitsvolumens und der Aufstockung der Datenschutzbereiche sowohl bei den Behörden als auch in den Unternehmen lässt sich die gestiegene Bedeutung dieses Bereichs deutlich erkennen. Die Verarbeitung von personenbezogenen Daten stellt für viele Unternehmen einen äußerst hohen wirtschaftlichen Wert dar. Sie spielen eine derart große Rolle, dass sie bereits als „Währung der Zukunft“ bezeichnet werden. Gerade in Zeiten von Big Data und vielen neuen technischen Möglichkeiten im Bereich der Verarbeitung personenbezogener Daten sollen durch die DS-GVO Verbraucherrechte und die Privatsphäre geschützt werden. Die rechtlichen Anforderungen stellen die Unternehmen vor komplexe Aufgaben. Dadurch entsteht eine neue Art der Zusammenarbeit zwischen den Unternehmen, ihren Kunden, Lieferanten und sämtlichen externen Geschäftspartnern.
Die Nachrichtenübermittlung im professionellen Mobilfunk hat sich vom Analog- hin zum Digitalfunk entwickelt und dadurch die gesamte Arbeitsweise der Branche verändert. Wurde diese früher vom Handwerk geprägt, so geht es nun hauptsächlich noch um Programmierung und Beratung. Für die Unternehmen des professionellen Mobilfunks ergeben sich durch die vielen Veränderungen neue Risiken, welche Haftungsansprüche auslösen können. Dieses Arbeitspapier konzentriert sich auf Unternehmen des professionellen Mobilfunkhandels und speziell auf die hier weit verbreitete Gesellschaft mit beschränkter Haftung. Im Zuge der Digitalisierung und der damit einhergehenden weitreichenden Veränderungen in der Branche des professionellen Mobilfunkhandels hat der Geschäftsführer Entscheidungen zu treffen, welche mit Risiko behaftet sind und sogar den Fortbestand der Gesellschaft gefährden können. Um nicht gegen seine Rechte und Pflichten als Geschäftsführer zu verstoßen und einer persönlichen Haftung aus dem Weg zu gehen, sollen die auftretenden Risiken benannt und Wege aufgezeigt werden, diese zu minimieren bzw. ganz zu vermeiden. Geschäftsführer sind sich oftmals ihren persönlichen Haftungsrisiken nicht bewusst.
Die Möglichkeiten für Unternehmen online zu werben, werden im digitalen Zeitalter immer größer. Online Marketing wird für Betriebe stets wichtiger. Dies zeigen die Werbeausgaben für Digitale Werbung und die zukünftigen Prognosen. Der Anteil der einzelnen Online-Marketinginstrumente macht ebenfalls deutlich, dass neben Social-Media-Marketing und E-Mail-Marketing auch Suchmaschinen-Marketing (engl. Search Engine Marketing, kurz: SEM) zu einem wichtigen Bestandteil der Werbemaßnahmen vieler Werbetreibende in Deutschland gehört.
We present a video-densitometric quantification method for the pain killer known as diclofenac and ibuprofen. These non-steroidal anti-inflammatory drugs were separated on cyanopropyl bonded plates using CH2Cl2, methanol, cyclohexane (95+5+40, v/v) as mobile phase. The quantification is based on a bio-effective-linked analysis using vibrio fischeri bacteria. Within 10 minutes a CCD-camera registers the white light of the light-emitting bacteria. Diclofenac and ibuprofen effectively suppress the bacterial light emission which can be used for quantification within a linear range of 10 to 2000 ng. The detection limit for ibuprofen is 20 ng and the limit of quantification 26 ng per zone. Measurements were carried out using a 16-bit ST-1603ME CCD camera with 1.56 megapixels [from Santa Barbara Instrument Group, Inc., Santa Barbara, USA]. The range of linearity covers more than two magnitudes because the extended Kubelka-Munk expression is used for data transformation [1]. The separation method is inexpensive, fast and reliable. Ibuprofen is named after its chemical description: iso-butyl-propanoic phenolic acid. Both pain killers are world-widein use and both substances are stable in aqueous solution. Both substances are mainly excreted in the urine.
The NaSiO Institute (Institute for Sustainable Silicate Research in Offenburg, https://inasio.hs-offenburg.de/) has been working for years on climate-friendly alternatives to insulation materials and inorganic binders, as well as the reasonable use of construction waste in the building industry. The aim of research is to realize the enormous CO 2 saving potential of the construction sector worldwide. A stopping of climate heating will only succeed if these climate-friendly alternatives are used in the construction industry. This is the only way to realize the enormous CO2 savings that will be needed in future to comply with the Paris Agreement.
A simple Method for quantifying Triazine Herbicides using Thin-Layer Chromatography and a CCD-Camera
(2010)
We present a video-densitometric quantification method for the triazine herbicides atraton, terbumeton, simazine, atrazine, and terbutylazine. Triazine herbicides were separated on silica gel using methyl-t-butyl ether, cyclohexane (1 + 1, v/v) as mobile phase. The quantification is based on a derivation reaction using chlorine and starch-iodine which forms red-brown triazine zones. Measurements were carried out using a 16 bit ST-1603ME CCD camera with 1.56 megapixel from Santa Barbara Instrument Group, Inc., Santa Barbara, USA. A white LED was used for illumination purposes. The range of linearity covers two magnitudes using the (1/R-1) expression data transformation. The signal-to-noise ratio increases directly linearly with the measurement time. The separation method is cheap, fast and reliable.
Melamine (1,3,5-triazine-2,4,6-triamine or cyanuramide, C3H6N6) is a trimer of cyanamide, with a 1,3,5-triazine skeleton (Figure 3.5-1). The molecule contains 66% nitrogen by mass and, if mixed with resins, has fire retardant properties due to its release of nitrogen gas when burned or charred. The word melamine (from German) is a combination of the word melam (which is a distillation derivative of ammonium thiocyanate) and amine [1]. Melamine is also a metabolite of cyromazine, an insecticide in which the proton of an NH2-group is substituted by a cyclopropyl group.
We present a densitometric quantification method for triclosan in toothpaste, separated by high-performance thin-layer chromatography (HPTLC) and using a 48-bit flatbed scanner as the detection system. The sample was band-wise applied to HPTLC plates (10 × 20 cm), with fluorescent dye, Merck, Germany (1.05554). The plates were developed in a vertical developing chamber with 20 min of chamber saturation over 70 mm, using n-heptane–methyl tert-butyl ether–acetic acid (92:8:0.1, V/V) as solvent. The RF value of triclosan is hRF = 22.4, and quantification is based on direct measurements using an inexpensive 48-bit flatbed scanner for color measurements (in red, green, and blue) after plate staining with 2,6-dichloroquinone-4-chloroimide (Gibbs' reagent). Evaluation of the red channel makes the measurements of triclosan very specific. For linearization, an extended Kubelka–Munk expression was used for data transformation. The range of linearity covers more than two orders of magnitude and is between 91 and 1000 ng. The separation method is inexpensive, fast and reliable.
Rudolf E. Kaiser
(2020)
Editorial
(2020)
Editorial
(2020)
Editorial
(2022)
Editorial
(2022)
Editorial
(2020)
Editorial
(2022)
Editorial
(2021)
Editorial
(2020)
Editorial
(2020)
Editorial
(2022)
Editorial
(2022)
Editorial
(2022)
Wir präsentieren die weltweit erste Auswertung einer zweidimensional entwickelten HPTLC-Platte (2D-HPTLC) mit Hilfe eines Diodenarray Scanners. Das System erreicht eine räumliche Plattenauflösung von 250 µm. Es können Absorptions- und Fluoreszenzspektren im Wellenlängenbereich von 190 bis 1000 nm mit einer spektralen Auflösung von besser als 1 nm gemessen werden. Eine Trennzahl von 259 wurde erreicht. Damit zeigt die Methode bessere Trenneigenschaften als die meisten HPLC-Systeme. Der Nachteil der 2D-Auswertung ist der hohe Zeitbedarf von über 3 Stunden für eine Plattenmessung.
Editorial
(2021)