Refine
Year of publication
Document Type
- Article (unreviewed) (558) (remove)
Has Fulltext
- no (558) (remove)
Is part of the Bibliography
- yes (558) (remove)
Keywords
- Schule (10)
- Bildung (8)
- Arbeitszeugnis (7)
- Digitalisierung (6)
- Energieversorgung (6)
- Export (6)
- Nachhaltigkeit (6)
- Recht (6)
- Datenschutz (5)
- Dünnschichtchromatographie (5)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (188)
- Fakultät Wirtschaft (W) (117)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (96)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (94)
- Fakultät Medien (M) (ab 22.04.2021) (33)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (27)
- INES - Institut für nachhaltige Energiesysteme (20)
- IMLA - Institute for Machine Learning and Analytics (16)
- IfTI - Institute for Trade and Innovation (13)
- IUAS - Institute for Unmanned Aerial Systems (4)
Open Access
- Closed Access (156)
- Open Access (125)
- Closed (70)
- Diamond (16)
- Bronze (14)
- Gold (1)
- Hybrid (1)
Zur Erkennung bestimmter Fehler, wie zum Beispiel Ätzfehler, Oberflächen-Fremdkörper, Verschmutzungen, bei der Leiterplattenherstellung ist eine Echtfarben-Bildverarbeitung notwendig, über die hier ein Überblick gegeben wird. Zur Farbsegmentierungs sind verschiedene Methoden geeignet, die einmal im Rot-Grün-Blau-Raum oder im HSI-Raum (Hue, Saturation, Intensity - Färbung, Sättigung, Intensität) untersucht und verglichen werden. Clusterfindungsverfahren und Lookup-Tabelle bereiten Schwierigkeiten bei der Erfassung der Farbkanten, zum Beispiel der Kante zwischen dem Kupfer und dem Beschichtungsmaterial. Hier hilft ein geeigneter Algorithmus, der mit Vorsegmentierung arbeitet. Eine Verfeinerung ist mit Hilfe von Kantenfiltern möglich, zum Beispiel das Color-Sobel-Magnitude-Filter.
Als Grenztaster und zur Erfassung kleinster Wege werden in der Industrie induktive Wegaufnehmer in Meßvorrichtungen eingesetzt. Die Verwendung diskret aufgebauter Elektronik verursacht hierbei neben erheblichem Raumbedarf auch unakzeptabel hohe Kosten. Daher entschloß man sich zur Entwicklung einer in den Aufnehmer integrierten Elektronik. Eine Prüfung der auf dem Markt angebotenen ICs deckt jedoch die Forderungen für diesen Anwendungsbereich nicht ab. Dieser Beitrag erläutert den Schaltungsentwurf und das Layout eines ASICs, der an der FH Offenburg für diesen Anwendungsbereich entwickelt wurde und befaßt sich besonders mit dem integrierten Vierquadranten-Multiplizierer.
In Verbindung mit geeigneten Sensoren, können Korrelatoren aus völlig regellosen Signalströmen hochpräzise Daten gewinnen. Diese Meßgeräte werden zur Messung von Durchflüssen, Mengenströmen und Geschwindigkeiten benötigt. Durch die Geschwindigkeitssteigerung bei Rechnern und deren Preisverfall werden Korrelatoren nicht mehr wie in der Vergangenheit nur im Bereich der Forschung und der Entwicklung eingesetzt, sondern in zunehmendem Maße auch als Betriebsmeßgeräte.
Beim Betrieb von Maschinen mit großen Trägheitsmomenten treten bei Asynchronmaschinen mit Käfigläufer als Antriebsmotor teilweise Probleme beim Hochlauf des Aggregats auf. Es werden Maßnahmen zur Verbesserung des Anlaufs erläutert sowie mit Hilfe von Näherungsrechnungen und Simulationen untersucht. Aus den Simulationsergebnissen lassen sich Voraussagen über das Gelingen des Hochlaufs und die Tauglichkeit verschiedener Hilfsmaßnahmen ableiten.
Es wird ein zeitoptimiertes Scanning-Verfahren zur Leckortung an Reinraum-Filterdecken auf der Basis der Richtlinie VDI 2083 Bl. 3 vorgestellt. Aufgabe des Verfahrens ist, die Positionen in der Meßebene liegender Flächen mit dem Querschnitt der isokinetischen Sondenöffnung zu bestimmen. Dabei wird eine vorab zu bestimmende Wahrscheinlichkeit zugrundegelegt, bei der die mittlere auftretende Konzentration von Partikeln höher ist, als die nach VDI 2083 Bl.3 zulässige. Die Verhältnisse beim Sondendurchgang über einem Kontaminationsbereich werden unter Beachtung aller Randbedingungen berechnet, wobei der sich für die Leckerkennung ungünstigste Fall, der bei einer homogenen Verteilung der durch das Leck austretenden Partikel auf der nachzuweisenden Fläche liegt, angenommen wird. Der Sondendurchgang wird als Bewegungsablauf definiert, zeitlich bestimmt vom Eintritt der Sondenvorderkante in die Kontaminationsfläche bis zum Verlassen derselben mit der Sondenhinterkante. Als Ergebnis der Berechnungen werden Vorschubgeschwindigkeit der Sonde beim Scanverfahren, Flächenleistung des Scanverfahrens, Sondendurchgangszeit und Leckerkennungskriterium, ausgewiesen. (Otto)
Turbulenzarme Verdrängungsströmungen (TAV), häufig auch als Laminarflow (LF) bezeichnet, werden in hochreinen Reinraumbereichen eingesetzt, um die Versorgung des kritischen Bereiches (offenes Produkt) mit schwebstoffgefilterter bzw. partikelfreier Luft zu gewährleisten. Die TAV kann durch Störgrößen, wie Thermikströme, Personeneingriffe, Strömungshindernisse, Materialtransport usw. gestört werden, womit eine unerwünschte Kontamination des kritischen Bereiches einhergehen kann.
Durch den Einsatz von Torschleieranlagen zwischen zwei Zonen mit unterschiedlichen Temperaturen kann der Luftaustausch aufgrund freier Konvektion verhindert werden. Der Einfluß unterschiedlicher Betriebsfälle auf den Energieverbrauch und die thermische Behaglichkeit wurde im Labor untersucht. Die Effizienz von Torschleieranlagen wurde zusätzlich im Praxisbetrieb beim Einsatz an einer Kühlzelle überprüft. Bei diesem Anwendungsfall steht nicht die thermische Behaglichkeit sondern der Energieverbrauch, die Gefahr der Kühlguterwärmung und die der Eisbildung vor dem Kühlzelleneingang im Vordergrund.
Das in diesem Beitrag beschriebene Meßsystem besteht aus einem Steuerteil zur Eingabe der Befehle, einem digitalen Display zur Anzeige der Meßwerte und einer davon stationierten Sonde, welche die Meßwerte aufnimmt und digitalisiert. Beide Teile sind über zwei Lichtwellenleiter miteinander verbunden. Die zur Versorgung nötige Energie und die Steuersignale zur Meßsonde überträgt einer der beiden Lichtwellenleiter. Eine Laserdiode in der Steuereinheit liefert dazu eine optische Ausgangsleistung, die in die Faser eingekoppelt wird. In der Meßsonde wandelt ein 'Power-Converter' die optische Leistung wieder in elektrische Energie zurück. Über den zweiten Lichtwellenleiter sendet die Meßsonde die aufgenommenen Daten an das Steuergerät. In der Meßsonde sitzt ein Mikrorechner, der die Signale erfaßt, digitalisiert und an die Steuereinheit sendet. Dort ermittelt der andere Mikrorechner daraus die Meßgröße und zeigt sie auf einem LC-Display an.
Die quantitative Dünnschichtchromatographie (HPTLC) mit einem Graustufen-Handscanner ist eine preiswerte, schnelle und präzise Methode zur Schwermetallbestimmung. Als Alternative zu teuren Densitometern wird ein Grünlichtscanner mit einer Auflösung von 256 Graustufen benutzt. Die Ortsauflösung beträgt maximal 400 dpi (dots per inch). Die Chromatogramme werden mit 300 dpi aufgenommen. Zur Entwicklung wird eine Camag-Linearkammer verwendet. Zur Probenvorbereitung werden die zu bestimmenden Schwermetallionen bei pH 4,2 mit Dithizon komplexiert. Nur die Metallkationen Zn(2+), Co(2+), Hg(2+), Cd(2+) und Ni(2+) reagieren zu einem farbigen Metallkomplex, wobei sich Zn(2+)- und Co(2+)-Komplexe chromatographisch abtrennen lassen. Nach Komplexierung der Wasserprobe wird mit Essigsäureethylester ausgeschüttelt, Probe- und Standardlösung auf eine Platte aus Kieselgel SI-60 aufgetragen, mit Essigsäureethylester fokussiert und nach der Trocknung der Platte mit Toluol entwickelt. Die HPTLC-Platte wird mit scannereigener Software eingelesen und im PCX-Format (PC PaintBrusch der Fa. ZSoft) auf die Festplatte abgelegt. Zur Auswertung wird eine Leseroutine benutzt. Die ganze Chromatographiebahn ist mit 150 Einzeldioden aufgenommen, die eine Strecke von 48 mm in 564 Einzelmessungen auflösen. Die Summe aller 150 Einzelaufnahmen liefert das Densitogramm aus dem der Schwermetallgehalt bestimmt wird.
Es wird der Einsatz von Doppelschichtkondensatoren mit Kapazitäten bis zu 1500 F für den Einsatz in der Kraftfahrzeugtechnik und der Umwelttechnik diskutiert. Dabei werden sowohl die Verwendung zur Entlastung der Batterie bei Stromspitzen wie auch die Einsatzmöglichkeiten in alltagstauglichen Hybridfahrzeugen beleuchtet. Voraussetzung ist die Kombination mit einer ausgereiften Leistungselektronik. Doppelschichtkondensatoren verfügen über eine Leistungsdichte von derzeit etwa 2 Wh/kg, wobei weitere Steigerungen zu erwarten sind. Damit sind sie als Ergänzung oder sogar als Ersatz für Akkumulatoren einsetzbar. Da die Spannung vom Ladezustand abhängig ist, muß eine genaue Überwachung und Regelung stattfinden, andererseits wird dadurch die Ladezustandsdiagnose erheblich vereinfacht. Durch Kondensatorpufferung mittels Stellglied kann die Batterie bei starken Lastwechseln entlastet werden. In Elektrofahrzeugen läßt sich so die hohe Beschleunigungsleistung erbringen, die Batterie kann dann schwächer ausgelegt werden. Auch kann sich die Bremsenergie durch Kondensatoren besser zurückgewonnen werden. Die Möglichkeit der Entladung bis auf 0 V eröffnet ein wesentlich größeres Spannungsfenster. Der Einsatz in Hybridfahrzeugen mit kombiniertem Elektroantrieb/Verbrennungsmotor wird noch untersucht. Zur Untersuchung der elektronischen Systeme wurde ein Simulationsprogramm entwickelt, mit dem u. a. die Abhängigkeit von Energiedichte und spezifischer Konstantleistung als Ragone-Diagramm dargestellt werden kann.
Eine einfache Bestimmung von Mineraloel-KWstoffen - Ersatz des FCKW-haltigen Extraktionsmittels
(1996)
Die Messung von KWstoffen in Abwaessern nach DIN ist eine in der Umweltanalytik haeufig geforderte Bestimmung. Die Abwasserprobe wird dabei mit 1,1,2-Trichlortrifluorethan extrahiert. Anschliessend wird der Extrakt mittels IR-Spektroskopie vermessen. Neben einigen Schwaechen ist bei dieser Bestimmungsmethode besonders die Verwendung des ozonschaedigenden FCKW-Loesemittels heute nicht mehr zeitgemaess. - Die Verf. beschreiben ein schnelles robustes Bestimmungsverfahren, das alle Schwaechen der alten Methode vermeidet.
Nativ-organische Abfälle bilden mit ca. 30 Gew. % den Hauptteil des Hausmülls. Daher leistet die Bioabfallkompostierung einen bedeutenden Schritt hin zu einer sinnvollen Abfallverwertung. Bundesweit werden derzeit jährlich etwa 750 000 t Bioabfallkompost erzeugt. Mit Ausnahme von sieben Land- und Stadtkreisen planen die Landkreise Baden-Württembergs die getrennte Sammlung von Bioabfällen: Einwohner von 23 Landkreisen waren 1993, zum Teil versuchsweise, an Biotonnen angeschlossen. Die Notwendigkeit der Bioabfallkompostierung scheint außer Frage zu stehen, intensiv erörtert werden jedoch die Verfahrenskonzepte, die der Bioabfallkompostierung zugrunde liegen. Kern der Diskussion ist, ob einfache Kompostierungsverfahren wie die dezentrale Kompostierung den technisch aufwendigeren Verfahren zentraler Anlagen gleichwertig sind.
Als erster Landkreis in Baden Württemberg hat der Landkreis Sigmaringen bei der Entsorgung des bei 120 000 Einwohnern im Kreis anfallenden organischen Abfalls neue Wege beschritten und die Landwirtschaft in den Stoffkreislauf miteinbezogen, anstatt das anfallende Material zu deponieren. Auf dem Hintergrund der TA-Siedlungsabfall, die vorschreibt, daß nach einer Übergangszeit organische Abfälle nicht mehr deponiert werden dürfen, sondern kompostiert oder thermisch behandelt werden müssen, hat der Landkreis Sigmaringen im Jahr 1992 ein Konzept zur dezentralen Kompostierung verabschiedet.
Schulen müssen bei ihrer Profilbildung mehr leisten als die reine Marketingpositionierung erfordert. Sie müssen für alle am Schulleben Beteiligten einen Sinn stiften. Es geht letztlich um eine Veränderung der Schulkultur, indem die Grundüberzeugungen und der Sinn und Zweck der Schule klar herausgearbeitet werden. Methoden aus dem Bereich der Entwicklung von Unternehmens- und Organisationskultur können hier wirksam zum Einsatz kommen.
Kleine Anlagen zur dezentralen Strom- und Waermeerzeugung (Block(heiz)kraftwerke) gewinnen auf Grund ihrer vielfaeltigen Einsatzmoeglichkeiten zunehmend an Bedeutung. Die CO2-Bilanz mit Deponiegas bzw. Erdgas betriebenen Blockkraft- und Block(heiz)kraftwerken wird gegenuebergestellt. Es zeigt sich, dass durch den Einsatz von Deponie-Blockkraftwerken bzw. von Blockheizkraftwerken CO2-Einsparungen von ueber 100 kg CO2/MWh im Vergleich zur getrennten Waerme- und Stromerzeugung erzielt werden koennen.
Läßt sich durch das Einholen von Referenzen die Qualität der Personalauswahl verbessern? Wie kann der geeignete Referenzgeber ermittelt werden? Welche Wege werden bei der Referenzeinholung beschritten und wie kann ein Referenzgespräch gestaltet werden? Diese und eine Reihe anderer Fragen beantwortet eine Studie, die im Jahr 1994 an der Fachhochschule Offenburg durchgeführt wurde, und an der sich 238 von 1000 angeschriebenen Personalberatern beteiligten. Die wichtigsten Ergebnisse der Untersuchung werden im nachfolgenden Beitrag dargelegt.
What would you do if?
(1995)
In Stellenanzeigen wird oft durch eine Aussage wie: "Für eine telefonische Vorabinformation steht Ihnen Herr/Frau X ab Montag in der Zeit von/bis zur Verfügung" auf die Möglichkeit eines telefonischen Vorabkontakts hingewiesen. Interessenten wird so angeboten, vor einer Bewerbung telefonisch weitere Informationen einzuholen. Der Beitrag nennt die wichtigsten Ergebnisse einer schriftlichen Unternehmensbefragung sowie fünf persönlicher Interviews und zehn Testanrufen. Abschließend werden praktische Empfehlungen für Unternehmen und Bewerber zum Angebot und zur Handhabung eines Telefonkontaktes sowie zur Vorbereitung auf einen und zum Verhalten bei einem Telefonkontakt gegeben.
Risiko und Sicherheit sind Begriffe, die nur im Zusammenhang mit dem Menschen gesehen werden können, wobei bei der Risikoabschätzung die Fragen beantwortet werden müssen, was passieren kann und was passieren darf. Ausgehend von der Vornorm DIN V 19250 wird im Detail auf folgende Punkte eingegangen: Risikoparameter, Schadensausmaß, Häufigkeit, Aufenthaltsdauer im Gefahrenbereich, Gefahrenabwendung, Eintrittswahrscheinlichkeit, Bewertung der Eintrittsmöglichkeiten von Ereignissen, Restrisikoverkleinerung, Vorhersage von Schadensereignissen einschließlich Störfallauslöser. Die Demonstration erfolgt an Beispielen aus der Chemie.
Eine gewichtige Komponente in Arbeitszeugnissen ist die Positions- und Aufgabenbeschreibung. In einer Befragung von 369 Unternehmen gaben 37,4 Prozent sogar an, für sie sei die Aufgabenbeschreibung die wichtigste Zeugniskomponente. Diese Wertschätzung gründet auf der wohl richtigen Annahme, dass die Beurteilung in Zeugnissen oft geschönt sei, die Aufgabendarstellung aber vergleichsweise wahrheitsgerechte Angaben enthalte. Es kommt wohl nicht so oft vor, dass Arbeitnehmer die Aufnahme von Tätigkeiten ins Zeugnis fordern und durchsetzen, die sie gar nicht ausgeübt haben. Demnach konzentrieren sich manche Leser auf diesen Zeugnisteil, um einen Eindruck von der Berufserfahrung eines Bewerbers zu gewinnen.
Vorgestellt wird die Dioden-Array-Dünnschichtchromatographie als eine moderne und preiswerte Messmethode zur densitometrischen Erfassung von Substanzen auf einer DC- oder einer HPTLC-Platte. Sicher identifizierbar sind auch Substanzen mit schwachem Chromophor. Die Kubelka-Munk-Gleichung beschreibt einen linearen Zusammenhang zwischen Remissionslicht und lichtabsorbierender Stoffmenge auf der Platte. Die Auswertung im Spektralbereich von 316 bis 334 nm zeigt den Zusammenhang zwischen transformiertem Messsignal und aufgetragener Substanzmasse. Die schnelle Aufnahme von UV/vis-Spektren eröffnet der HPTLC den gesamten Bereich der Methodenvalidierung auf dem Niveau, auf welchem heute die HPLC-Analytik durchgeführt wird.
Zwischen den Zeilen
(2005)
Der Gesetzgeber verfolgt mit dem Gesetz über den Vorrang Erneuerbarer Energien (EEG) anders als die Vorläuferregelung das Ziel, den Anteil Erneuerbarer Energien an der Stromversorgung deutlich zu erhöhen. Unternehmen mit einem hohen Strombedarf sind von den damit verbundenen Kosten besonders betroffen.
Durch die Besondere Ausgleichsregelung des § 16 EEG sollen die Stromkosten von privilegierten Unternehmen mit einem hohen Strombedarf reduziert werden. Sie können unter bestimmten Voraussetzungen weitgehend von den durch die Vergütung des EEG entstehenden Kosten befreit werden.
Der nachfolgende Beitrag verdeutlicht am Beispiel von Unternehmen des produzierenden Gewerbes, dass dieses Regelungsziel für neu gegründete Unternehmen nachhaltig verfehlt wird. Entgegen der Ankündigung des Bundesumweltministeriums ist davon auszugehen, dass auch die geplante Novellierung des EEG diesbezüglich keine geeignete Abhilfe schaffen wird.
Im Fahrzeug stehen große Wärmeströme zur Verfügung, die nicht genutzt werden. Die Energie des Abgases weist gegenüber der des Motor/Kühlsystems eine wesentlich höhere Arbeitsfähigkeit auf. Untersuchungen zielen dahin, diese thermische Energie zum Beispiel mithilfe eines thermoelektrischen Generators wieder in das System einzukoppeln und als Energiequelle für Verbraucher zu nutzen.
Objective: This paper deals with the design and the optimization of mechatronic devices.
Introduction: Comparing with existing works, the design approach presented in this paper aims to integrate optimization in the design phase of complex mechatronic systems in order to increase the efficiency of this method.
Methods: To solve this problem, a novel mechatronic system design approach has been developed in order to take the multidisciplinary aspect and to consider optimization as a tool that can be used within the embodiment design process to build mechatronic solutions from a set of solution concepts designed with innovative or routine design methods.
Conclusions: This approach has then been applied to the design and optimization of a wind turbine system that can be implemented to autonomously supply a mountain cottage.
In dem Maße, in dem sich die industrielle Automatisierung verändert, verändern sich auch die Anforderungen an die Sicherheit. Neben der funktionalen Sicherheit rückt dabei immer mehr die Datensicherheit in den Mittelpunkt. Als „best practice“ bietet es sich an, bewährte Sicherungstechniken aus der IT auch in der industriellen Kommunikation einzusetzen.
Während neue Komponenten für „Short Range Wireless Networks“ längere Zeit eher moderate technische Fortschritte gebracht haben, sind in jüngerer Zeit einige außerordentlich interessante strategische Entwicklungslinien deutlich geworden, die in diesem Beitrag an Hand von konkreten Produktbeispielen vorgestellt werden.
Veränderte Umweltbedingungen für Organisationen haben die Notwendigkeit für Anpassungen und Weiterentwicklungen zur Folge. Das ist bei Unternehmen bereits ein etablierter Prozess und wird auf Ebene der Schulen im Rahmen der Schulentwicklung thematisiert. Die lang- und kurzfristigen Veränderungen, ob Migrationsentwicklungen oder Pandemie, sorgen für die Notwendigkeit, auch die Führungskultur als das Selbstverständnis einer professionellen Führung und Zusammenarbeit im Kollegialsystem Schule entsprechend weiterzuentwickeln. Hier können Leitbilder zu Führung und Zusammenarbeit und gezielte umsetzungsorientierte Entwicklungsprozesse dem Transformationsprozess an Schulen dauerhaft Schub verleihen.
Convolutional neural networks (CNN) define the state-of-the-art solution on many perceptual tasks. However, current CNN approaches largely remain vulnerable against adversarial perturbations of the input that have been crafted specifically to fool the system while being quasi-imperceptible to the human eye. In recent years, various approaches have been proposed to defend CNNs against such attacks, for example by model hardening or by adding explicit defence mechanisms. Thereby, a small “detector” is included in the network and trained on the binary classification task of distinguishing genuine data from data containing adversarial perturbations. In this work, we propose a simple and light-weight detector, which leverages recent findings on the relation between networks’ local intrinsic dimensionality (LID) and adversarial attacks. Based on a re-interpretation of the LID measure and several simple adaptations, we surpass the state-of-the-art on adversarial detection by a significant margin and reach almost perfect results in terms of F1-score for several networks and datasets. Sources available at: https://github.com/adverML/multiLID
Running shoes were categorized either as motion control, cushioned, or minimal footwear in the past. Today, these categories blur and are not as clearly defined. Moreover, with the advances in manufacturing processes, it is possible to create individualized running shoes that incorporate features that meet individual biomechanical and experiential needs. However, specific ways to individualize footwear to reduce individual injury risk are poorly understood. Therefore, the purpose of this scoping review was to provide an overview of (1) footwear design features that have the potential for individualization; (2) human biomechanical variability as a theoretical foundation for individualization; (3) the literature on the differential responses to footwear design features between selected groups of individuals. These purposes focus exclusively on reducing running-related risk factors for overuse injuries. We included studies in the English language on adults that analyzed: (1) potential interaction effects between footwear design features and subgroups of runners or covariates (e.g., age, gender) for running-related biomechanical risk factors or injury incidences; (2) footwear perception for a systematically modified footwear design feature. Most of the included articles (n = 107) analyzed male runners. Several footwear design features (e.g., midsole characteristics, upper, outsole profile) show potential for individualization. However, the overall body of literature addressing individualized footwear solutions and the potential to reduce biomechanical risk factors is limited. Future studies should leverage more extensive data collections considering relevant covariates and subgroups while systematically modifying isolated footwear design features to inform footwear individualization.
Featherweight Generic Go (FGG) is a minimal core calculus modeling the essential features of the programming language Go. It includes support for overloaded methods, interface types, structural subtyping and generics. The most straightforward semantic description of the dynamic behavior of FGG programs is to resolve method calls based on runtime type information of the receiver.
This article shows a different approach by defining a type-directed translation from FGG to an untyped lambda-calculus. The translation of an FGG program provides evidence for the availability of methods as additional dictionary parameters, similar to the dictionary-passing approach known from Haskell type classes. Then, method calls can be resolved by a simple lookup of the method definition in the dictionary.
Every program in the image of the translation has the same dynamic semantics as its source FGG program. The proof of this result is based on a syntactic, step-indexed logical relation. The step-index ensures a well-founded definition of the relation in the presence of recursive interface types and recursive methods.
The identification of vulnerabilities is an important element in the software development life cycle to ensure the security of software. While vulnerability identification based on the source code is a well studied field, the identification of vulnerabilities on basis of a binary executable without the corresponding source code is more challenging. Recent research has shown, how such detection can be achieved by deep learning methods. However, that particular approach is limited to the identification of only 4 types of vulnerabilities. Subsequently, we analyze to what extent we could cover the identification of a larger variety of vulnerabilities. Therefore, a supervised deep learning approach using recurrent neural networks for the application of vulnerability detection based on binary executables is used. The underlying basis is a dataset with 50,651 samples of vulnerable code in the form of a standardized LLVM Intermediate Representation. The vectorised features of a Word2Vec model are used to train different variations of three basic architectures of recurrent neural networks (GRU, LSTM, SRNN). A binary classification was established for detecting the presence of an arbitrary vulnerability, and a multi-class model was trained for the identification of the exact vulnerability, which achieved an out-of-sample accuracy of 88% and 77%, respectively. Differences in the detection of different vulnerabilities were also observed, with non-vulnerable samples being detected with a particularly high precision of over 98%. Thus, the methodology presented allows an accurate detection of 23 (compared to 4) vulnerabilities.
Initially developed as a student project, a mobile ‘farm shop’ retail and freight service using a converted tram-train is being proposed for use on the regional rail network around Karlsruhe. This in turn could offer a more viable business model for other cargo tram initiatives.
Die neuen Realitäten digitalwirtschaftlicher Geschäftsmodelle stellen die Verfügbarkeit und Verwendung großer Datenmengen in den Mittelpunkt unternehmerischer Aktivitäten. Das Risikomanagement, das bereits intensiv stochastische Methoden anwendet, sollte an dieser Entwicklung teilhaben. Im vorliegenden Beitrag geht es um die angemessene Rahmung und Einordnung von Analytics-Projekten.
Die Modellierung von Risikoszenarien ist allgemein und mit Bezug auf Cyberrisiken eine herausfordernde Tätigkeit. Domain-Expertise und Methodenkenntnisse sind erforderlich, um ein Gesamtbild entwickeln zu können. Der vorliegende Beitrag greift auf die Cyber Threat Intelligence und das STIX-Rahmenwerk zurück und verbindet die Ergebnisse mit einer Szenariotechnik.
Die Identifikation und Einschätzung von Risiken werden stets von Unsicherheit begleitet. Auch die besten Risikomodelle und Wahrscheinlichkeitsberechnungen können diese Tatsache nicht komplett beseitigen. Mit dieser Kenntnis besteht aber die Möglichkeit, alle erfassbaren Sachverhalte besser einzuschätzen und Modelle anzuwenden, die zielorientiert Probleme angehen. Dadurch lässt sich die Unsicherheit zugunsten des Risikomanagements verringern.