Refine
Year of publication
Document Type
- Article (unreviewed) (566) (remove)
Is part of the Bibliography
- yes (566) (remove)
Keywords
- Schule (11)
- Bildung (8)
- Arbeitszeugnis (7)
- Export (7)
- Digitalisierung (6)
- Energieversorgung (6)
- Nachhaltigkeit (6)
- Recht (6)
- Datenschutz (5)
- Dünnschichtchromatographie (5)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (189)
- Fakultät Wirtschaft (W) (120)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (97)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (95)
- Fakultät Medien (M) (ab 22.04.2021) (35)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (27)
- INES - Institut für nachhaltige Energiesysteme (21)
- IMLA - Institute for Machine Learning and Analytics (16)
- IfTI - Institute for Trade and Innovation (13)
- IUAS - Institute for Unmanned Aerial Systems (4)
Open Access
- Closed Access (156)
- Open Access (131)
- Closed (71)
- Diamond (17)
- Bronze (15)
- Gold (1)
- Grün (1)
- Hybrid (1)
Asynchronmaschinen mit Kaefiglaeufer benoetigen waehrend ihres Hochlaufs das 3- bis 8fache des Bemessungsstroms. Dieser hohe Anlaufstrom geht erst zurueck, wenn der Kippschlupf erreicht ist (bei etwa 90% der Bemessungsdrehzahl). Wenn die Kurzschlussleistung des einspeisenden Netzes zum Zeitpunkt der Motorzuschaltung gering ist, koennen durch Spannungseinbrueche Anlaufprobleme einer Kaefiglaeufermaschine auftreten. Bei der Planung eines solchen Antriebs muessen deshalb genauere Simulationsrechnungen ueber die Zusammenhaenge von Hochlaufzeit, Spannungseinbruch und zulaessigen Grenzwerten durchgefuehrt werden. Ergebnisse derartiger Anlaufsimulationen eines 800-kW- und eines 1,13-MW-Hochspannungsmotors bei Anschaltung an einen 10-MVA- und einen 2-MVA-Generator wurden fuer verschiedene Zuschaltungssituationen in Oszillogrammen festgehalten. Durch genauere mathematische Angaben verdeutlicht werden die Faelle des Motorhochlaufs bei Inselbetrieb mit geringer Kurzschlussleistung sowie die Zuschaltung der Asynchronmotoren auf den Generator vor und nach Anhebung der Netzspannung behandelt. Angaben werden ferner gemacht zur Zuschaltung des 1,13-MW-Motors auf die Parallelschaltung des 10-MVA- und des 2-MVA-Generators. Aus den Simulationsoszillogrammen der Faelle von Hochlauf und Motorzuschaltung sind die zeitabhaengigen Aenderungen von Ankerstrom, Wirkleistungsaufnahme, Blindleistungsaufnahme, Klemmenspannung, Drehzahlabweichung, Antriebsmoment und Lastdrehmoment zu entnehmen.
Zur Erkennung bestimmter Fehler, wie zum Beispiel Ätzfehler, Oberflächen-Fremdkörper, Verschmutzungen, bei der Leiterplattenherstellung ist eine Echtfarben-Bildverarbeitung notwendig, über die hier ein Überblick gegeben wird. Zur Farbsegmentierungs sind verschiedene Methoden geeignet, die einmal im Rot-Grün-Blau-Raum oder im HSI-Raum (Hue, Saturation, Intensity - Färbung, Sättigung, Intensität) untersucht und verglichen werden. Clusterfindungsverfahren und Lookup-Tabelle bereiten Schwierigkeiten bei der Erfassung der Farbkanten, zum Beispiel der Kante zwischen dem Kupfer und dem Beschichtungsmaterial. Hier hilft ein geeigneter Algorithmus, der mit Vorsegmentierung arbeitet. Eine Verfeinerung ist mit Hilfe von Kantenfiltern möglich, zum Beispiel das Color-Sobel-Magnitude-Filter.
Als Grenztaster und zur Erfassung kleinster Wege werden in der Industrie induktive Wegaufnehmer in Meßvorrichtungen eingesetzt. Die Verwendung diskret aufgebauter Elektronik verursacht hierbei neben erheblichem Raumbedarf auch unakzeptabel hohe Kosten. Daher entschloß man sich zur Entwicklung einer in den Aufnehmer integrierten Elektronik. Eine Prüfung der auf dem Markt angebotenen ICs deckt jedoch die Forderungen für diesen Anwendungsbereich nicht ab. Dieser Beitrag erläutert den Schaltungsentwurf und das Layout eines ASICs, der an der FH Offenburg für diesen Anwendungsbereich entwickelt wurde und befaßt sich besonders mit dem integrierten Vierquadranten-Multiplizierer.
In Verbindung mit geeigneten Sensoren, können Korrelatoren aus völlig regellosen Signalströmen hochpräzise Daten gewinnen. Diese Meßgeräte werden zur Messung von Durchflüssen, Mengenströmen und Geschwindigkeiten benötigt. Durch die Geschwindigkeitssteigerung bei Rechnern und deren Preisverfall werden Korrelatoren nicht mehr wie in der Vergangenheit nur im Bereich der Forschung und der Entwicklung eingesetzt, sondern in zunehmendem Maße auch als Betriebsmeßgeräte.
Beim Betrieb von Maschinen mit großen Trägheitsmomenten treten bei Asynchronmaschinen mit Käfigläufer als Antriebsmotor teilweise Probleme beim Hochlauf des Aggregats auf. Es werden Maßnahmen zur Verbesserung des Anlaufs erläutert sowie mit Hilfe von Näherungsrechnungen und Simulationen untersucht. Aus den Simulationsergebnissen lassen sich Voraussagen über das Gelingen des Hochlaufs und die Tauglichkeit verschiedener Hilfsmaßnahmen ableiten.
Es wird ein zeitoptimiertes Scanning-Verfahren zur Leckortung an Reinraum-Filterdecken auf der Basis der Richtlinie VDI 2083 Bl. 3 vorgestellt. Aufgabe des Verfahrens ist, die Positionen in der Meßebene liegender Flächen mit dem Querschnitt der isokinetischen Sondenöffnung zu bestimmen. Dabei wird eine vorab zu bestimmende Wahrscheinlichkeit zugrundegelegt, bei der die mittlere auftretende Konzentration von Partikeln höher ist, als die nach VDI 2083 Bl.3 zulässige. Die Verhältnisse beim Sondendurchgang über einem Kontaminationsbereich werden unter Beachtung aller Randbedingungen berechnet, wobei der sich für die Leckerkennung ungünstigste Fall, der bei einer homogenen Verteilung der durch das Leck austretenden Partikel auf der nachzuweisenden Fläche liegt, angenommen wird. Der Sondendurchgang wird als Bewegungsablauf definiert, zeitlich bestimmt vom Eintritt der Sondenvorderkante in die Kontaminationsfläche bis zum Verlassen derselben mit der Sondenhinterkante. Als Ergebnis der Berechnungen werden Vorschubgeschwindigkeit der Sonde beim Scanverfahren, Flächenleistung des Scanverfahrens, Sondendurchgangszeit und Leckerkennungskriterium, ausgewiesen. (Otto)
Turbulenzarme Verdrängungsströmungen (TAV), häufig auch als Laminarflow (LF) bezeichnet, werden in hochreinen Reinraumbereichen eingesetzt, um die Versorgung des kritischen Bereiches (offenes Produkt) mit schwebstoffgefilterter bzw. partikelfreier Luft zu gewährleisten. Die TAV kann durch Störgrößen, wie Thermikströme, Personeneingriffe, Strömungshindernisse, Materialtransport usw. gestört werden, womit eine unerwünschte Kontamination des kritischen Bereiches einhergehen kann.
Durch den Einsatz von Torschleieranlagen zwischen zwei Zonen mit unterschiedlichen Temperaturen kann der Luftaustausch aufgrund freier Konvektion verhindert werden. Der Einfluß unterschiedlicher Betriebsfälle auf den Energieverbrauch und die thermische Behaglichkeit wurde im Labor untersucht. Die Effizienz von Torschleieranlagen wurde zusätzlich im Praxisbetrieb beim Einsatz an einer Kühlzelle überprüft. Bei diesem Anwendungsfall steht nicht die thermische Behaglichkeit sondern der Energieverbrauch, die Gefahr der Kühlguterwärmung und die der Eisbildung vor dem Kühlzelleneingang im Vordergrund.
Das in diesem Beitrag beschriebene Meßsystem besteht aus einem Steuerteil zur Eingabe der Befehle, einem digitalen Display zur Anzeige der Meßwerte und einer davon stationierten Sonde, welche die Meßwerte aufnimmt und digitalisiert. Beide Teile sind über zwei Lichtwellenleiter miteinander verbunden. Die zur Versorgung nötige Energie und die Steuersignale zur Meßsonde überträgt einer der beiden Lichtwellenleiter. Eine Laserdiode in der Steuereinheit liefert dazu eine optische Ausgangsleistung, die in die Faser eingekoppelt wird. In der Meßsonde wandelt ein 'Power-Converter' die optische Leistung wieder in elektrische Energie zurück. Über den zweiten Lichtwellenleiter sendet die Meßsonde die aufgenommenen Daten an das Steuergerät. In der Meßsonde sitzt ein Mikrorechner, der die Signale erfaßt, digitalisiert und an die Steuereinheit sendet. Dort ermittelt der andere Mikrorechner daraus die Meßgröße und zeigt sie auf einem LC-Display an.
Die quantitative Dünnschichtchromatographie (HPTLC) mit einem Graustufen-Handscanner ist eine preiswerte, schnelle und präzise Methode zur Schwermetallbestimmung. Als Alternative zu teuren Densitometern wird ein Grünlichtscanner mit einer Auflösung von 256 Graustufen benutzt. Die Ortsauflösung beträgt maximal 400 dpi (dots per inch). Die Chromatogramme werden mit 300 dpi aufgenommen. Zur Entwicklung wird eine Camag-Linearkammer verwendet. Zur Probenvorbereitung werden die zu bestimmenden Schwermetallionen bei pH 4,2 mit Dithizon komplexiert. Nur die Metallkationen Zn(2+), Co(2+), Hg(2+), Cd(2+) und Ni(2+) reagieren zu einem farbigen Metallkomplex, wobei sich Zn(2+)- und Co(2+)-Komplexe chromatographisch abtrennen lassen. Nach Komplexierung der Wasserprobe wird mit Essigsäureethylester ausgeschüttelt, Probe- und Standardlösung auf eine Platte aus Kieselgel SI-60 aufgetragen, mit Essigsäureethylester fokussiert und nach der Trocknung der Platte mit Toluol entwickelt. Die HPTLC-Platte wird mit scannereigener Software eingelesen und im PCX-Format (PC PaintBrusch der Fa. ZSoft) auf die Festplatte abgelegt. Zur Auswertung wird eine Leseroutine benutzt. Die ganze Chromatographiebahn ist mit 150 Einzeldioden aufgenommen, die eine Strecke von 48 mm in 564 Einzelmessungen auflösen. Die Summe aller 150 Einzelaufnahmen liefert das Densitogramm aus dem der Schwermetallgehalt bestimmt wird.
Es wird der Einsatz von Doppelschichtkondensatoren mit Kapazitäten bis zu 1500 F für den Einsatz in der Kraftfahrzeugtechnik und der Umwelttechnik diskutiert. Dabei werden sowohl die Verwendung zur Entlastung der Batterie bei Stromspitzen wie auch die Einsatzmöglichkeiten in alltagstauglichen Hybridfahrzeugen beleuchtet. Voraussetzung ist die Kombination mit einer ausgereiften Leistungselektronik. Doppelschichtkondensatoren verfügen über eine Leistungsdichte von derzeit etwa 2 Wh/kg, wobei weitere Steigerungen zu erwarten sind. Damit sind sie als Ergänzung oder sogar als Ersatz für Akkumulatoren einsetzbar. Da die Spannung vom Ladezustand abhängig ist, muß eine genaue Überwachung und Regelung stattfinden, andererseits wird dadurch die Ladezustandsdiagnose erheblich vereinfacht. Durch Kondensatorpufferung mittels Stellglied kann die Batterie bei starken Lastwechseln entlastet werden. In Elektrofahrzeugen läßt sich so die hohe Beschleunigungsleistung erbringen, die Batterie kann dann schwächer ausgelegt werden. Auch kann sich die Bremsenergie durch Kondensatoren besser zurückgewonnen werden. Die Möglichkeit der Entladung bis auf 0 V eröffnet ein wesentlich größeres Spannungsfenster. Der Einsatz in Hybridfahrzeugen mit kombiniertem Elektroantrieb/Verbrennungsmotor wird noch untersucht. Zur Untersuchung der elektronischen Systeme wurde ein Simulationsprogramm entwickelt, mit dem u. a. die Abhängigkeit von Energiedichte und spezifischer Konstantleistung als Ragone-Diagramm dargestellt werden kann.
Eine einfache Bestimmung von Mineraloel-KWstoffen - Ersatz des FCKW-haltigen Extraktionsmittels
(1996)
Die Messung von KWstoffen in Abwaessern nach DIN ist eine in der Umweltanalytik haeufig geforderte Bestimmung. Die Abwasserprobe wird dabei mit 1,1,2-Trichlortrifluorethan extrahiert. Anschliessend wird der Extrakt mittels IR-Spektroskopie vermessen. Neben einigen Schwaechen ist bei dieser Bestimmungsmethode besonders die Verwendung des ozonschaedigenden FCKW-Loesemittels heute nicht mehr zeitgemaess. - Die Verf. beschreiben ein schnelles robustes Bestimmungsverfahren, das alle Schwaechen der alten Methode vermeidet.
Nativ-organische Abfälle bilden mit ca. 30 Gew. % den Hauptteil des Hausmülls. Daher leistet die Bioabfallkompostierung einen bedeutenden Schritt hin zu einer sinnvollen Abfallverwertung. Bundesweit werden derzeit jährlich etwa 750 000 t Bioabfallkompost erzeugt. Mit Ausnahme von sieben Land- und Stadtkreisen planen die Landkreise Baden-Württembergs die getrennte Sammlung von Bioabfällen: Einwohner von 23 Landkreisen waren 1993, zum Teil versuchsweise, an Biotonnen angeschlossen. Die Notwendigkeit der Bioabfallkompostierung scheint außer Frage zu stehen, intensiv erörtert werden jedoch die Verfahrenskonzepte, die der Bioabfallkompostierung zugrunde liegen. Kern der Diskussion ist, ob einfache Kompostierungsverfahren wie die dezentrale Kompostierung den technisch aufwendigeren Verfahren zentraler Anlagen gleichwertig sind.
Als erster Landkreis in Baden Württemberg hat der Landkreis Sigmaringen bei der Entsorgung des bei 120 000 Einwohnern im Kreis anfallenden organischen Abfalls neue Wege beschritten und die Landwirtschaft in den Stoffkreislauf miteinbezogen, anstatt das anfallende Material zu deponieren. Auf dem Hintergrund der TA-Siedlungsabfall, die vorschreibt, daß nach einer Übergangszeit organische Abfälle nicht mehr deponiert werden dürfen, sondern kompostiert oder thermisch behandelt werden müssen, hat der Landkreis Sigmaringen im Jahr 1992 ein Konzept zur dezentralen Kompostierung verabschiedet.
Schulen müssen bei ihrer Profilbildung mehr leisten als die reine Marketingpositionierung erfordert. Sie müssen für alle am Schulleben Beteiligten einen Sinn stiften. Es geht letztlich um eine Veränderung der Schulkultur, indem die Grundüberzeugungen und der Sinn und Zweck der Schule klar herausgearbeitet werden. Methoden aus dem Bereich der Entwicklung von Unternehmens- und Organisationskultur können hier wirksam zum Einsatz kommen.
Kleine Anlagen zur dezentralen Strom- und Waermeerzeugung (Block(heiz)kraftwerke) gewinnen auf Grund ihrer vielfaeltigen Einsatzmoeglichkeiten zunehmend an Bedeutung. Die CO2-Bilanz mit Deponiegas bzw. Erdgas betriebenen Blockkraft- und Block(heiz)kraftwerken wird gegenuebergestellt. Es zeigt sich, dass durch den Einsatz von Deponie-Blockkraftwerken bzw. von Blockheizkraftwerken CO2-Einsparungen von ueber 100 kg CO2/MWh im Vergleich zur getrennten Waerme- und Stromerzeugung erzielt werden koennen.
Läßt sich durch das Einholen von Referenzen die Qualität der Personalauswahl verbessern? Wie kann der geeignete Referenzgeber ermittelt werden? Welche Wege werden bei der Referenzeinholung beschritten und wie kann ein Referenzgespräch gestaltet werden? Diese und eine Reihe anderer Fragen beantwortet eine Studie, die im Jahr 1994 an der Fachhochschule Offenburg durchgeführt wurde, und an der sich 238 von 1000 angeschriebenen Personalberatern beteiligten. Die wichtigsten Ergebnisse der Untersuchung werden im nachfolgenden Beitrag dargelegt.
What would you do if?
(1995)
In Stellenanzeigen wird oft durch eine Aussage wie: "Für eine telefonische Vorabinformation steht Ihnen Herr/Frau X ab Montag in der Zeit von/bis zur Verfügung" auf die Möglichkeit eines telefonischen Vorabkontakts hingewiesen. Interessenten wird so angeboten, vor einer Bewerbung telefonisch weitere Informationen einzuholen. Der Beitrag nennt die wichtigsten Ergebnisse einer schriftlichen Unternehmensbefragung sowie fünf persönlicher Interviews und zehn Testanrufen. Abschließend werden praktische Empfehlungen für Unternehmen und Bewerber zum Angebot und zur Handhabung eines Telefonkontaktes sowie zur Vorbereitung auf einen und zum Verhalten bei einem Telefonkontakt gegeben.
Risiko und Sicherheit sind Begriffe, die nur im Zusammenhang mit dem Menschen gesehen werden können, wobei bei der Risikoabschätzung die Fragen beantwortet werden müssen, was passieren kann und was passieren darf. Ausgehend von der Vornorm DIN V 19250 wird im Detail auf folgende Punkte eingegangen: Risikoparameter, Schadensausmaß, Häufigkeit, Aufenthaltsdauer im Gefahrenbereich, Gefahrenabwendung, Eintrittswahrscheinlichkeit, Bewertung der Eintrittsmöglichkeiten von Ereignissen, Restrisikoverkleinerung, Vorhersage von Schadensereignissen einschließlich Störfallauslöser. Die Demonstration erfolgt an Beispielen aus der Chemie.
Eine gewichtige Komponente in Arbeitszeugnissen ist die Positions- und Aufgabenbeschreibung. In einer Befragung von 369 Unternehmen gaben 37,4 Prozent sogar an, für sie sei die Aufgabenbeschreibung die wichtigste Zeugniskomponente. Diese Wertschätzung gründet auf der wohl richtigen Annahme, dass die Beurteilung in Zeugnissen oft geschönt sei, die Aufgabendarstellung aber vergleichsweise wahrheitsgerechte Angaben enthalte. Es kommt wohl nicht so oft vor, dass Arbeitnehmer die Aufnahme von Tätigkeiten ins Zeugnis fordern und durchsetzen, die sie gar nicht ausgeübt haben. Demnach konzentrieren sich manche Leser auf diesen Zeugnisteil, um einen Eindruck von der Berufserfahrung eines Bewerbers zu gewinnen.
Vorgestellt wird die Dioden-Array-Dünnschichtchromatographie als eine moderne und preiswerte Messmethode zur densitometrischen Erfassung von Substanzen auf einer DC- oder einer HPTLC-Platte. Sicher identifizierbar sind auch Substanzen mit schwachem Chromophor. Die Kubelka-Munk-Gleichung beschreibt einen linearen Zusammenhang zwischen Remissionslicht und lichtabsorbierender Stoffmenge auf der Platte. Die Auswertung im Spektralbereich von 316 bis 334 nm zeigt den Zusammenhang zwischen transformiertem Messsignal und aufgetragener Substanzmasse. Die schnelle Aufnahme von UV/vis-Spektren eröffnet der HPTLC den gesamten Bereich der Methodenvalidierung auf dem Niveau, auf welchem heute die HPLC-Analytik durchgeführt wird.
Zwischen den Zeilen
(2005)
Der Gesetzgeber verfolgt mit dem Gesetz über den Vorrang Erneuerbarer Energien (EEG) anders als die Vorläuferregelung das Ziel, den Anteil Erneuerbarer Energien an der Stromversorgung deutlich zu erhöhen. Unternehmen mit einem hohen Strombedarf sind von den damit verbundenen Kosten besonders betroffen.
Durch die Besondere Ausgleichsregelung des § 16 EEG sollen die Stromkosten von privilegierten Unternehmen mit einem hohen Strombedarf reduziert werden. Sie können unter bestimmten Voraussetzungen weitgehend von den durch die Vergütung des EEG entstehenden Kosten befreit werden.
Der nachfolgende Beitrag verdeutlicht am Beispiel von Unternehmen des produzierenden Gewerbes, dass dieses Regelungsziel für neu gegründete Unternehmen nachhaltig verfehlt wird. Entgegen der Ankündigung des Bundesumweltministeriums ist davon auszugehen, dass auch die geplante Novellierung des EEG diesbezüglich keine geeignete Abhilfe schaffen wird.
Im Fahrzeug stehen große Wärmeströme zur Verfügung, die nicht genutzt werden. Die Energie des Abgases weist gegenüber der des Motor/Kühlsystems eine wesentlich höhere Arbeitsfähigkeit auf. Untersuchungen zielen dahin, diese thermische Energie zum Beispiel mithilfe eines thermoelektrischen Generators wieder in das System einzukoppeln und als Energiequelle für Verbraucher zu nutzen.
Objective: This paper deals with the design and the optimization of mechatronic devices.
Introduction: Comparing with existing works, the design approach presented in this paper aims to integrate optimization in the design phase of complex mechatronic systems in order to increase the efficiency of this method.
Methods: To solve this problem, a novel mechatronic system design approach has been developed in order to take the multidisciplinary aspect and to consider optimization as a tool that can be used within the embodiment design process to build mechatronic solutions from a set of solution concepts designed with innovative or routine design methods.
Conclusions: This approach has then been applied to the design and optimization of a wind turbine system that can be implemented to autonomously supply a mountain cottage.
In dem Maße, in dem sich die industrielle Automatisierung verändert, verändern sich auch die Anforderungen an die Sicherheit. Neben der funktionalen Sicherheit rückt dabei immer mehr die Datensicherheit in den Mittelpunkt. Als „best practice“ bietet es sich an, bewährte Sicherungstechniken aus der IT auch in der industriellen Kommunikation einzusetzen.
Während neue Komponenten für „Short Range Wireless Networks“ längere Zeit eher moderate technische Fortschritte gebracht haben, sind in jüngerer Zeit einige außerordentlich interessante strategische Entwicklungslinien deutlich geworden, die in diesem Beitrag an Hand von konkreten Produktbeispielen vorgestellt werden.
Veränderte Umweltbedingungen für Organisationen haben die Notwendigkeit für Anpassungen und Weiterentwicklungen zur Folge. Das ist bei Unternehmen bereits ein etablierter Prozess und wird auf Ebene der Schulen im Rahmen der Schulentwicklung thematisiert. Die lang- und kurzfristigen Veränderungen, ob Migrationsentwicklungen oder Pandemie, sorgen für die Notwendigkeit, auch die Führungskultur als das Selbstverständnis einer professionellen Führung und Zusammenarbeit im Kollegialsystem Schule entsprechend weiterzuentwickeln. Hier können Leitbilder zu Führung und Zusammenarbeit und gezielte umsetzungsorientierte Entwicklungsprozesse dem Transformationsprozess an Schulen dauerhaft Schub verleihen.
Convolutional neural networks (CNN) define the state-of-the-art solution on many perceptual tasks. However, current CNN approaches largely remain vulnerable against adversarial perturbations of the input that have been crafted specifically to fool the system while being quasi-imperceptible to the human eye. In recent years, various approaches have been proposed to defend CNNs against such attacks, for example by model hardening or by adding explicit defence mechanisms. Thereby, a small “detector” is included in the network and trained on the binary classification task of distinguishing genuine data from data containing adversarial perturbations. In this work, we propose a simple and light-weight detector, which leverages recent findings on the relation between networks’ local intrinsic dimensionality (LID) and adversarial attacks. Based on a re-interpretation of the LID measure and several simple adaptations, we surpass the state-of-the-art on adversarial detection by a significant margin and reach almost perfect results in terms of F1-score for several networks and datasets. Sources available at: https://github.com/adverML/multiLID
Running shoes were categorized either as motion control, cushioned, or minimal footwear in the past. Today, these categories blur and are not as clearly defined. Moreover, with the advances in manufacturing processes, it is possible to create individualized running shoes that incorporate features that meet individual biomechanical and experiential needs. However, specific ways to individualize footwear to reduce individual injury risk are poorly understood. Therefore, the purpose of this scoping review was to provide an overview of (1) footwear design features that have the potential for individualization; (2) human biomechanical variability as a theoretical foundation for individualization; (3) the literature on the differential responses to footwear design features between selected groups of individuals. These purposes focus exclusively on reducing running-related risk factors for overuse injuries. We included studies in the English language on adults that analyzed: (1) potential interaction effects between footwear design features and subgroups of runners or covariates (e.g., age, gender) for running-related biomechanical risk factors or injury incidences; (2) footwear perception for a systematically modified footwear design feature. Most of the included articles (n = 107) analyzed male runners. Several footwear design features (e.g., midsole characteristics, upper, outsole profile) show potential for individualization. However, the overall body of literature addressing individualized footwear solutions and the potential to reduce biomechanical risk factors is limited. Future studies should leverage more extensive data collections considering relevant covariates and subgroups while systematically modifying isolated footwear design features to inform footwear individualization.
Featherweight Generic Go (FGG) is a minimal core calculus modeling the essential features of the programming language Go. It includes support for overloaded methods, interface types, structural subtyping and generics. The most straightforward semantic description of the dynamic behavior of FGG programs is to resolve method calls based on runtime type information of the receiver.
This article shows a different approach by defining a type-directed translation from FGG to an untyped lambda-calculus. The translation of an FGG program provides evidence for the availability of methods as additional dictionary parameters, similar to the dictionary-passing approach known from Haskell type classes. Then, method calls can be resolved by a simple lookup of the method definition in the dictionary.
Every program in the image of the translation has the same dynamic semantics as its source FGG program. The proof of this result is based on a syntactic, step-indexed logical relation. The step-index ensures a well-founded definition of the relation in the presence of recursive interface types and recursive methods.
The identification of vulnerabilities is an important element in the software development life cycle to ensure the security of software. While vulnerability identification based on the source code is a well studied field, the identification of vulnerabilities on basis of a binary executable without the corresponding source code is more challenging. Recent research has shown, how such detection can be achieved by deep learning methods. However, that particular approach is limited to the identification of only 4 types of vulnerabilities. Subsequently, we analyze to what extent we could cover the identification of a larger variety of vulnerabilities. Therefore, a supervised deep learning approach using recurrent neural networks for the application of vulnerability detection based on binary executables is used. The underlying basis is a dataset with 50,651 samples of vulnerable code in the form of a standardized LLVM Intermediate Representation. The vectorised features of a Word2Vec model are used to train different variations of three basic architectures of recurrent neural networks (GRU, LSTM, SRNN). A binary classification was established for detecting the presence of an arbitrary vulnerability, and a multi-class model was trained for the identification of the exact vulnerability, which achieved an out-of-sample accuracy of 88% and 77%, respectively. Differences in the detection of different vulnerabilities were also observed, with non-vulnerable samples being detected with a particularly high precision of over 98%. Thus, the methodology presented allows an accurate detection of 23 (compared to 4) vulnerabilities.
Initially developed as a student project, a mobile ‘farm shop’ retail and freight service using a converted tram-train is being proposed for use on the regional rail network around Karlsruhe. This in turn could offer a more viable business model for other cargo tram initiatives.
Beuys-Gespräch
(2022)
Die neuen Realitäten digitalwirtschaftlicher Geschäftsmodelle stellen die Verfügbarkeit und Verwendung großer Datenmengen in den Mittelpunkt unternehmerischer Aktivitäten. Das Risikomanagement, das bereits intensiv stochastische Methoden anwendet, sollte an dieser Entwicklung teilhaben. Im vorliegenden Beitrag geht es um die angemessene Rahmung und Einordnung von Analytics-Projekten.
Die Modellierung von Risikoszenarien ist allgemein und mit Bezug auf Cyberrisiken eine herausfordernde Tätigkeit. Domain-Expertise und Methodenkenntnisse sind erforderlich, um ein Gesamtbild entwickeln zu können. Der vorliegende Beitrag greift auf die Cyber Threat Intelligence und das STIX-Rahmenwerk zurück und verbindet die Ergebnisse mit einer Szenariotechnik.
Die Identifikation und Einschätzung von Risiken werden stets von Unsicherheit begleitet. Auch die besten Risikomodelle und Wahrscheinlichkeitsberechnungen können diese Tatsache nicht komplett beseitigen. Mit dieser Kenntnis besteht aber die Möglichkeit, alle erfassbaren Sachverhalte besser einzuschätzen und Modelle anzuwenden, die zielorientiert Probleme angehen. Dadurch lässt sich die Unsicherheit zugunsten des Risikomanagements verringern.
Es ist derzeit "in", in der Werbung damit zu werben, das eigene Unternehmen sei besonders umweltfreundlich. Das Stichwort lautet "Klimaneutralität". Viele Unternehmen möchten etwa mit dem Begriff "CO2-neutral" oder ähnlichem werben, weil es gut klingt. Dabei wird sich dieses Prädikat naturgemäß nicht daraus ergeben, dass bei Produktion und Transport der eigenenLeistungen und Produkte keinerlei Emissionen anfallen. Produktion, Versand, allgemeiner Energieverbrauch und Reisetätigkeiten emittieren sehr wohl. Allerdings möchte man dieses Prädikat durch die Förderung von Umweltprojekten (oftmals auf anderen Kontinenten) oder den Erwerb von "Ausgleichszertifikaten", die von Seiten Dritter beispielsweise die dauerhafte Bindung von CO2 (z.B. in Pflanzenkohlesenken) garantieren sollen, ermöglichen. Der Beitrag gibt einen ersten Überblick über die aktuelle Rechtslage und geplante Änderung der UGP-Richtlinie, insbesondere mit Blick auf §5a UWG.
Auswirkung eines Importstopps russischer Energieträger auf die Klimaschutzziele in Deutschland
(2022)
Ein Importstopp russischer Energieträger nach Deutschland wird derzeit vermehrt diskutiert. Wir wollen die Diskussion unterstützen, indem wir einen Weg zeigen, wie das Elektrizitätssystem in Deutschland kurzfristig mit geringen Energieimporten auskommt und welche Maßnahmen notwendig sind, um die Klimaschutzziele trotzdem einzuhalten. Die Ergebnisse eines solchen Energiewendeszenarios mit reduzierter Importabhängigkeit werden mit dem Energiesystemmodell MyPyPSA-Ger berechnet. Die wichtigsten Erkenntnisse sind, dass ein zügiger Ausbau Erneuerbarer Energien und von Speichertechnologien • die Abhängigkeit des deutschen Elektrizitätssystems von Energieimporten deutlich reduziert. • auch langfristig keine wesentlichen Importe der Energieträger Erdgas, Steinkohle und Mineralöl nach sich zieht. • über die Klimaziele der Bundesregierung hinaus das 1,5-Grad-Ziel im Elektrizitätssystem erreicht wird.
Geschäftsleiter von Kapitalgesellschaften und Genossenschaften müssen beim Treffen riskanter Entscheidungen ihrer rechtlichen Sorgfaltspflicht genügen. Eine wichtige Voraussetzung dafür ist, zum Entscheidungszeitpunkt angemessen informiert zu sein. Die praktische Umsetzung dieser Forderung stellt insbesondere für die unsicheren Prognosen der Zielwirkungen alternativer Handlungsmöglichkeiten eine beträchtliche Herausforderung dar. Der vorliegende Beitrag erörtert die Fragen, wie sich prognosebezogene Informationen in ihrer Qualität abstufen lassen und welche Überlegungen für die Bestimmung einer angemessenen Information vorzunehmen sind.
Soziale Medien und Marken
(2009)
'Natural Sound'
(2009)
Nach einem langen Vorlauf haben Bundestag und Bundesrat zum Ende der Legislatur 2021 einen Rechtsanspruch auf Ganztagsbildung in Grundschulen verabschiedet. Um aus diesem formalen Anspruch gute Angebote in der Rechtswirklichkeit schaffen zu können, bedarf es neben politischer und finanzieller Rahmenbedingungen auch eines gezielten Dialogs mit den relevanten Anspruchs- und Interessengruppen, weshalb dem Stakeholdermanagement vor allem der Akteure von Schulträgern und Schulen eine besondere Bedeutung zukommt.
Die fluktuierende Verfügbarkeit regenerativer Energiequellen stellt eine Herausforderung bei der Planung und Auslegung regenerativer Gebäudeenergiesysteme dar. Die in einem System benötigten Speicherkapazitäten hängen dabei sowohl von der eingesetzten Regelungsstrategie als auch von den temperaturabhängigen Wirkungsgraden der Anlagenkomponenten ab. Genauere Einblicke in das Betriebsverhalten eines Gesamtsystems können dynamische Simulationen liefern, die eine Analyse der Systemtemperaturen und von Teilenergiekennwerten ermöglichen.
Das TMKB-Modell beschreibt einen Weg, den persönlichen und unternehmerischen Erfolg im beruflichen Alltag effizient und nachhaltig zu erreichen. Hierbei steht TMKB für den Transfer von Methoden und Kompetenzen in den Beruf. Dieses Modell beachtet die Theorien der Kompetenzentwicklung im Kontext realer Problemstellungen in Unternehmen. Beispielhaft wird das TMKB-Modell in der ersten Stufe mit dem Schwerpunkt Lean- und Projektmanagement erläutert. Die Zielgruppe dieses Ansatzes lässt sich über die der Auszubildenden bis hin zu Studierenden und Berufserfahrenen erweitern.
Alle Materie strebt nach maximaler Unordnung. Diese Erkenntnis wird durch die thermodynamische Funktion der Entropie beschrieben. Auch bei jeglicher Art menschlichen Handelns wird die Entropie immer erhöht. Wird in der Technik Materie in geordnete Formen gebracht (z. B. beim Herstellen von Pfandflaschen), findet in diesem Produkt eine Entropieerniedrigung statt. Gleichzeitig wird aber an anderer Stelle die Unordnung beträchtlich vergrößert. Diese Entropieerhöhung nennen wir Abfall. Jede Entropieerhöhung ist mit dem Verbrauch wertvoller Ressourcen verbunden. Durch eine optimale Recyclingtechnik kann einer Entropieerhöhung von Materie entgegengearbeitet werden. Aber nur Recyclingraten von über 90 % erlauben eine wirksame Streckung der Ressourcen.
Das Virtuelle Informatiklabor soll Schülern und Studierenden den übergroßen Respekt vor dem Fach Informatik nehmen und sie beim Lernen der Inhalte unterstützen. Zu diesem Zweck werden grundlegende Algorithmen der Informatik anhand konkreter Aufgabenstellungen in interaktiven Anwendungen behandelt, um den Lernenden das explorative Erkunden zu ermöglichen. Animationen sollen das Verstehen fördern, Experimente das eigenständige, durch vielfältige Hilfen unterstützte Anwenden und Umsetzen des Gelernten. Der erste Themenbereich im Virtuellen Informatiklabor umfasst die Rekursion, die in mehreren Anwendungen präsentiert wird.
Objective: To identify and evaluate the evidence of the most relevant running-related risk factors (RRRFs) for running-related overuse injuries (ROIs) and to suggest future research directions.
Design: Systematic review considering prospective and retrospective studies. (PROSPERO_ID: 236832)
Data sources: Pubmed. Connected Papers. The search was performed in February 2021.
Eligibility criteria: English language. Studies on participants whose primary sport is running addressing the risk for the seven most common ROIs and at least one kinematic, kinetic (including pressure measurements), or electromyographic RRRF. An RRRF needed to be identified in at least one prospective or two retrospective studies.
Results: Sixty-two articles fulfilled our eligibility criteria. Levels of evidence for specific ROIs ranged from conflicting to moderate evidence. Running populations and methods applied varied considerably between studies. While some RRRFs appeared for several ROIs, most RRRFs were specific for a particular ROI. The biomechanical measurements performed in many studies would have allowed for consideration of many more RRRFs than have been reported, highlighting a potential for more effective data usage in the future.
Conclusion: This study offers a comprehensive overview of RRRFs for the most common ROIs, which might serve as a starting point to develop ROI-specific risk profiles of individual runners. Future work should use macroscopic (big data) approaches involving long-term data collections in the real world and microscopic approaches involving precise stress calculations using recent developments in biomechanical modelling. However, consensus on data collection standards (including the quantification of workload and stress tolerance variables and the reporting of injuries) is warranted.
Über zwei Jahrzehnte hat sich an der Hochschule Offenburg im Umfeld von Professor Elmar Bollin eine Forschungsgruppe etabliert, die die Bereiche Gebäudeautomation und nachhaltige Energietechnik zusammenführten. Anfänglich ging es darum die Potenziale der internetbasierten Wetterprognostik und modell-basierten Anlagensteuerung für die Verbesserung des Komforts und der Energieeffizienz im Gebäude zu nutzen. Im Rahmen von Forschungs- und Entwicklungsarbeiten mit Einsatz von dynamischen Gebäudesimulationen konnte schließlich ein Algorithmus gefunden werden, der es ermöglichte auf Basis von prognostizierter Außentemperatur und Sonneneinstrahlung den Energiebedarf eines Bürogebäudes für den Folgetag vorherzusagen. In Verbindung mit der Gebäudeautomation entstand so die adaptive und prädiktive TABS-Steuerung AMLR.
Über zwei Jahrzehnte hat sich an der Hochschule Offenburg eine Forschungsgruppe etabliert, die die beiden Bereiche Gebäudeautomation und nachhaltige Energietechnik zusammenführte. Anfangs ging es darum, Potentiale der internetbasierten Wetterprognostik und modell-basierten Anlagensteuerung für die Verbesserung des Komforts und der Energieeffizienz im Gebäude zu nutzen. Im Rahmen von Forschungs- und Entwicklungsarbeiten mit Einsatz von dynamischen Gebäudesimulationen konnte ein Algorithmus gefunden werden, der es ermöglichte auf Basis von prognostizierter Außentemperatur und Sonneneinstrahlung den Energiebedarf eines Bürogebäudes für den Folgetag vorherzusagen. In Verbindung mit der Gebäudeautomation entstand so die adaptive und prädiktive TABS-Steuerung AMLR.
Financing trade and development sustainably will be crucial for Africa. Enhanced collaboration between multilateral development banks, development finance institutions and ECAs could greatly enhance intra-regional trade. Furthermore, setting up a ‘level playing field’ on the continent will allow governments to make strategic interventions for successful export credits and trade finance solutions, fostering growth through trade. African trade is already showing signs of rebounding from the coronavirus- induced recession. Through concerted, co-operative and continent-wide efforts, drawing on the knowledge and resources of all types of institutions and policy experts, Africa will continue to grow confidently and quickly into its increasingly important role as an engine of economic growth and global trade.
JARDIN GLOCAL
(2021)
Das künstlerische Forschungsprojekt DE/GLOBALIZE ist eine medienökologische Suchbewegung nach dem Terrestrischen. Im abschließenden Kapitel JARDIN GLOCAL schwenkt der Fokus von den Matters of Fact in Indien, über Matters of Concern in Ägypten hin zu Matter of Care am Oberrhein. Von Matter, Materie, über Mater, die Mutter-Erde, hin zum Garten – als eine Welt innerhalb von Welten, die einem zu Füßen liegt. Wir verstehen JARDIN GLOCAL als ein Labor, in dem der Mensch mit sich in Beziehung tritt. Ein Ort, der sich zwischen Hu- manisierung und Ausbeutung bewegt; der oft überraschende Gewächse, Eingriffe und Prozesse hervorbringt. Vor allem aber als einen Topos, der besondere Beobachtungen in Gang setzt.
Smarte Technologien ermöglichen eine engmaschige Kontrolle und Steuerung der Schülerinnen und Schüler. Die entscheidende Frage zu IT in Schulen ist daher: Folgen wir der Logik der technischen Systeme oder besinnen wir uns auf den pädagogischen Auftrag der Erziehung zu Mündigkeit und Selbstverantwortung?
In order to make material design processes more efficient in the future, the underlying multidimensional process parameter spaces must be systematically explored using digitalisation techniques such as machine learning (ML) and digital simulation. In this paper we shortly review essential concepts for the digitalisation of electrodeposition processes with a special focus on chromium plating from trivalent electrolytes.
Zum Kern der Aufsichtsratstätigkeit gehört die Begutachtung der Qualität wichtiger Vorstandsentscheidungen. Hierbei ist nicht nur zu prüfen, ob es klar formulierte Entscheidungsziele gibt und alternative Handlungsmöglichkeiten in Betracht gezogen wurden. Zu beurteilen ist insbesondere auch die Qualität der Prognosen, auf denen die behaupteten Zielbeeinflussungen basieren. Woran erkennen Aufsichtsräte kritische Prognosen?
Das vermutlich wichtigste Tatbestandsmerkmal der Business Judgment Rule ist das Vorliegen einer angemessenen Informationsgrundlage. Sie gilt dann als erreicht, wenn ein Geschäftsleiter vernünftigerweise annehmen darf, dass die Verbesserung einer gegebenen Informationsqualität den dafür erforderlichen Aufwand an Zeit bzw. Geld nicht rechtfertigt. Implizit wird hierbei vorausgesetzt, dass man verschiedene Ausmaße an Zeit, Geld und Informationsqualität unterscheiden kann. Für den Zeit- und Geldaufwand stimmt das auch, aber wie stuft man die Informationsqualität ab? Im Beitrag wird für prognosebezogene Informationen ein entsprechender Vorschlag gemacht.
Im Jahr 2020 sollten für den Zeitungssektor im Rahmen der coronabedingten Neuordnung der Bundesförderungen40 Mio. Euro für die Zustellförderung bereitgestellt werden. Im Rahmen der kontroversen Diskussion um diese direkte staatliche Förderung der Zeitungsbranche wandelte sich die geplante Förderung in ein 220 Mio. Euro-Pogramm zur Unterstützung der digitalen Transformation von Presseverlagen (Deutscher Bundestag 2020c). Im April 2021 erklärte das Bundeswirtschaftsministerium die geplante 220-Millionen-Presseförderung für gescheitert – es wolle das Hilfspaket „nach intensiver Prüfung“ nicht weiterverfolgen. Der vorliegende Beitrag gibt Einblick in die kontroverse Diskussion um die Frage einer direkten staatlichen Pressförderung und stellt sie in den Kontext der wirtschaftlichen und medienpolitischen Kernfrage, „wie sich publizisitsche Inhalte in Zeiten der Disruption etablierter Geschäftsmodelle noch finanzieren lassen“ (Jarren, Künzler & Puppis 2019: 421).
Die Entwicklung der Cyber-Bedrohungslandschaft zwingt Unternehmen zur Auseinandersetzung mit neuen funktionalen Herausforderungen. Da sich die Angriffsoberflächen genauso dynamisch verändern wie die Taktiken und Techniken, sollte die Corporate Governance für ein integratives Cyber-Risikomanagement sorgen, um das Cybersicherheitsmanagement differenziert einzubetten. Dadurch leistet die Corporate Governance einen Beitrag zur Steigerung der Cyber-Resilienz.
SchulverwaltungSpezial
(2021)
Die Corona-Krise ist eine Herausforderung, bei der Schulleitungen nicht nur im Rahmen des Krisenmanagements und insbesondere der Krisenkommunikation gefordert sind, sondern darüber hinaus, ausgehend von der akuten Krisenbewältigung, auch ein proaktives Risikomanagement vornehmen müssen. Die Prinzipien Klarheit, Transparenz und Partizipation sowie die günstige Kombination von Zentralität und Dezentralität im Rahmen des Krisenmanagements sind die Voraussetzung für den Übergang in ein strategisch orientiertes proaktives Transformationsmanagement.
Künstliche Intelligenz (KI) kommt laut einer Interxion-Studie bei 96 Prozent der Schweizer Unternehmen zum Einsatz. Allerdings gaben nur 22 Prozent der Schweizer IT-Entscheider an, dass sie KI bereits für einen ersten Anwendungsfall einsetzen. Dabei ist KI etwa im Datenmanagement sehr hilfreich – sofern Qualität und Quantität der Trainingsdaten stimmen.
Die wichtigste Erfahrung beim Zeichnen ist der Prozess, mit einem Stift Spuren und Zeichen zu setzen, die direkt beim Zeichnen entstehen. Ob mit Stift auf Papier, mit dem Finger oder einem Stock im Sand: Man lässt sich auf diesen Prozess des Entstehens ein. Es ist ein Wechselspiel von Auge und Hand, mal gewollt und kontrolliert, ein anderes Mal als Spiel aus Neugier, Intuition und Zufall. Wenn es gelingt, den Alltag auszuschließen, ist Zeichnen wie Musizieren oder Tanzen, ein Akt der Poiesis, das Hervorbringen von Werken im autotelischen Zustand. Handeln und Sein ist als Qualität und Erkenntnisform eins oder neudeutsch: Ich bin im Flow.
Die Mehrheit der deutschen Unternehmen verspricht sich aus KI-gestützter Datenanalyse einen großen Geschäftsvorteil. Doch gerade das Thema Datenbestand ist eine der größten, immer noch häufig unterschätzten Hürde beim Trainieren und Einführen von KI-Algorithmen. Im Folgenden sind vier konkrete Erfahrungen und Tipps für KI- & Datenanalyseprojekte in Unternehmen aufgeführt.
The term attribute transfer refers to the tasks of altering images in such a way, that the semantic interpretation of a given input image is shifted towards an intended direction, which is quantified by semantic attributes. Prominent example applications are photo realistic changes of facial features and expressions, like changing the hair color, adding a smile, enlarging the nose or altering the entire context of a scene, like transforming a summer landscape into a winter panorama. Recent advances in attribute transfer are mostly based on generative deep neural networks, using various techniques to manipulate images in the latent space of the generator.
In this paper, we present a novel method for the common sub-task of local attribute transfers, where only parts of a face have to be altered in order to achieve semantic changes (e.g. removing a mustache). In contrast to previous methods, where such local changes have been implemented by generating new (global) images, we propose to formulate local attribute transfers as an inpainting problem. Removing and regenerating only parts of images, our Attribute Transfer Inpainting Generative Adversarial Network (ATI-GAN) is able to utilize local context information to focus on the attributes while keeping the background unmodified resulting in visually sound results.
Generative adversarial networks are the state of the art approach towards learned synthetic image generation. Although early successes were mostly unsupervised, bit by bit, this trend has been superseded by approaches based on labelled data. These supervised methods allow a much finer-grained control of the output image, offering more flexibility and stability. Nevertheless, the main drawback of such models is the necessity of annotated data. In this work, we introduce an novel framework that benefits from two popular learning techniques, adversarial training and representation learning, and takes a step towards unsupervised conditional GANs. In particular, our approach exploits the structure of a latent space (learned by the representation learning) and employs it to condition the generative model. In this way, we break the traditional dependency between condition and label, substituting the latter by unsupervised features coming from the latent space. Finally, we show that this new technique is able to produce samples on demand keeping the quality of its supervised counterpart.
Generative adversarial networks (GANs) provide state-of-the-art results in image generation. However, despite being so powerful, they still remain very challenging to train. This is in particular caused by their highly non-convex optimization space leading to a number of instabilities. Among them, mode collapse stands out as one of the most daunting ones. This undesirable event occurs when the model can only fit a few modes of the data distribution, while ignoring the majority of them. In this work, we combat mode collapse using second-order gradient information. To do so, we analyse the loss surface through its Hessian eigenvalues, and show that mode collapse is related to the convergence towards sharp minima. In particular, we observe how the eigenvalues of the G are directly correlated with the occurrence of mode collapse. Finally, motivated by these findings, we design a new optimization algorithm called nudged-Adam (NuGAN) that uses spectral information to overcome mode collapse, leading to empirically more stable convergence properties.
In the modern knowledge-based and digital economy, the value of knowledge is growing relative to other assets and new intellectual property is being created at an ever-increasing rate. Therefore, the ability to find non-trivial solutions, systematically generate new concepts, and create intellectual property rapidly become crucial to achieving competitive advantage and leveraging the intellectual potential of organizations.