Refine
Document Type
- Bachelor Thesis (10)
- Master's Thesis (5)
- Conference Proceeding (4)
- Article (unreviewed) (4)
- Contribution to a Periodical (3)
- Book (2)
- Part of a Book (2)
- Article (reviewed) (1)
- Other (1)
Conference Type
- Konferenzartikel (4)
Keywords
- Künstliche Intelligenz (32) (remove)
Institute
- Fakultät Medien (M) (ab 22.04.2021) (11)
- Fakultät Wirtschaft (W) (10)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (6)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (4)
- IMLA - Institute for Machine Learning and Analytics (2)
- ACI - Affective and Cognitive Institute (1)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (1)
- Zentrale Einrichtungen (1)
Open Access
- Closed Access (13)
- Closed (11)
- Open Access (8)
- Diamond (1)
The progress in machine learning has led to advanced deep neural networks. These networks are widely used in computer vision tasks and safety-critical applications. The automotive industry, in particular, has experienced a significant transformation with the integration of deep learning techniques and neural networks. This integration contributes to the realization of autonomous driving systems. Object detection is a crucial element in autonomous driving. It contributes to vehicular safety and operational efficiency. This technology allows vehicles to perceive and identify their surroundings. It detects objects like pedestrians, vehicles, road signs, and obstacles. Object detection has evolved from being a conceptual necessity to an integral part of advanced driver assistance systems (ADAS) and the foundation of autonomous driving technologies. These advancements enable vehicles to make real-time decisions based on their understanding of the environment, improving safety and driving experiences. However, the increasing reliance on deep neural networks for object detection and autonomous driving has brought attention to potential vulnerabilities within these systems. Recent research has highlighted the susceptibility of these systems to adversarial attacks. Adversarial attacks are well-designed inputs that exploit weaknesses in the deep learning models underlying object detection. Successful attacks can cause misclassifications and critical errors, posing a significant threat to the functionality and safety of autonomous vehicles. With the rapid development of object detection systems, the vulnerability to adversarial attacks has become a major concern. These attacks manipulate inputs to deceive the target system, significantly compromising the reliability and safety of autonomous vehicles. In this study, we focus on analyzing adversarial attacks on state-of-the-art object detection models. We create adversarial examples to test the models’ robustness. We also check if the attacks work on a different object detection model meant for similar tasks. Additionally, we extensively evaluate recent defense mechanisms to see how effective they are in protecting deep neural networks (DNNs) from adversarial attacks and provide a comprehensive overview of the most commonly used defense strategies against adversarial attacks, highlighting how they can be implemented practically in real-world situations.
Truth is the first causality of war”, is a very often used statement. What rather intrigues the mind is what causes the causality of truth. If one dives deeper, one may also wonder why is this so-called truth the first target in a war. Who all see the truth before it dies. These questions rarely get answered as the media and general public tends to focus more on the human and economic losses in a war or war like situation. What many fail to realize is that these truthful pieces of information are critical to how a situation further develops. One correct information may change the course of the whole war saving millions and one mis-information may do the opposite.
Since its inception, some studies have been conducted to propose and develop new applications for OSINT in various fields. In addition to OSINT, Artificial Intelligence is a worldwide trend that is being used in conjunction witThe question here is, what is this information. Who transmits this and how? What is the source. Although, there has been an extensive use of the information provided by the secret services of any nation, which have come handy to many, another kind of information system is using the one that is publicly available, but in different pieces. This kind of information may come from people posting on social media, some publicly available records and much more. The key part in this publicly available information is that these are just pieces of information available across the globe from various different sources. This could be seen as small pieces of a puzzle that need to be put together to see the bigger picture. This is where OSINT comes in place.
h other areas (AI). AI is the branch of computer science that is in charge of developing intelligent systems. In terms of contribution, this work presents a 9-step systematic literature review as well as consolidated data to support future OSINT studies. It was possible to understand where the greatest concentration of publications was, which countries and continents developed the most research, and the characteristics of these publications using this information. What are the trends for the next OSINT with AI studies? What AI subfields are used with OSINT? What are the most popular keywords, and how do they relate to others over time?A timeline describing the application of OSINT is also provided. It was also clear how OSINT was used in conjunction with AI to solve problems in various areas with varying objectives. Private investigators and journalists are no longer the primary users of open-source intelligence gathering and analysis (OSINT) techniques. Approximately 80-90 percent of data analysed by intelligence agencies is now derived from publicly available sources. Furthermore, the massive expansion of the internet, particularly social media platforms, has made OSINT more accessible to civilians who simply want to trawl the Web for information on a specific individual, organisation, or product. The General Data Protection Regulation (GDPR) of the European Union was implemented in the United Kingdom in May 2018 through the new Data Protection Act, with the goal of protecting personal data from unauthorised collection, storage, and exploitation. This document presents a preliminary review of the literature on GDPR-related work.
The reviewed literature is divided into six sections: ’What is OSINT?’, ’What are the risks?’ and benefits of OSINT?’, ’What is the rationale for data protection legislation?’, ’What are the current legislative frameworks in the UK and Europe?’, ’What is the potential impact of the GDPR on OSINT?’, and ’Have the views of civilian and commercial stakeholders been sought and why is this important?’. Because OSINT tools and techniques are available to anyone, they have the unique ability to be used to hold power accountable. As a result, it is critical that new data protection legislation does not impede civilian OSINT capabilities.
In this paper we see how OSINT has played an important role in the wars across the globe in the past. We also see how OSINT is used in our everyday life. We also gain insights on how OSINT is playing a role in the current war going on between Russia and Ukraine. Furthermore, we look into some of these OSINT tools and how they work. We also consider a use case where OSINT is used as an anti terrorism tool. At the end, we also see how OSINT has evolved over the years, and what we can expect in the future as to what OSINT may look like.
Künstliche Intelligenzen, Deep Learning und Machine-Learning-Algorithmen sind im digitalen Zeitalter zu einem Punkt gekommen, in dem es schwer ist zu unterscheiden, welche Informationen und Quellen echt sind und welche nicht. Der Begriff „Deepfakes“ wurde erstmals 2017 genutzt und hat bereits 2018 mit einer App bewiesen, wie einfach es ist, diese Technologie zu verwenden um mit Videos, Bildern oder Ton Desinformationen zu verbreiten, politische Staatsoberhäupter nachzuahmen oder unschuldige Personen zu deformieren. In der Zwischenzeit haben sich Deepfakes bedeutend weiterentwickelt und stellen somit eine große Gefahr dar.
Diese Arbeit bietet eine Einführung in das Themengebiet Deepfakes. Zudem behandelt sie die Erstellung, Verwendung und Erkennung von Deepfakes, sowie mögliche Abwehrmaßnahmen und Auswirkungen, welche Deepfakes mit sich bringen.
Die Diskussionen über die Bedeutung und Folgen der Digitalisierung sind kaum noch überschaubar. Einig sind sich die meisten, dass Digitalisierung und die sogenannte „Künstliche Intelligenz“ (sKI) sowohl „alternativlos“ wie entscheidend für die Zukunft seien. Wer bei diesen Techniken nicht an der Spitze stünde, würde wirtschaftlich abgehängt und letztlich zum Verlierer. Die erste Frage ist aber: Wer steht denn an der Spitze und ist es erstrebenswert, sich dazu zu gesellen? Die zweite Frage ist, was sich konkret an technischen Systemen hinter Schlagworten wie Big Data, Künstlicher Intelligenz und autonomen Systemen verbirgt. Nicht zuletzt steht in Frage, welche Konsequenzen diese Systeme für den Einzelnen haben (können und/oder werden).
In dieser Arbeit wird untersucht, wie künstliche Intelligenz das Online-Marketing künftig beeinflussen wird und welche Chancen und Risiken dessen Einsatz in der Online-Marketing-Automation bietet. Dazu wurden zunächst Grundlagen des Online-Marketings, der Marketing-Automation, Big Data und der künstlichen Intelligenz dargelegt. Außerdem wurde ermittelt, welche Prozesse im Online-Marketing grundsätzlich automatisierbar sind und welche Einsatzmöglichkeiten von künstlicher Intelligenz im Online-Marketing existieren. Darüber hinaus erfolgte eine Analyse des Potenzials von künstlicher Intelligenz für das Online-Marketing innerhalb der Marketing-Automation. Dabei wurde der Status Quo untersucht, sowie Praxisbeispiele der erfolgreichen Anwendung von künstlicher Intelligenz im Online-Marketing aufgezeigt. Anschließend wurden die Chancen und Risiken näher beleuchtet. Auf Basis der Erkenntnisse und mehreren Expertenmeinungen wurde außerdem eine Prognose für den künftigen Einsatz von künstlicher Intelligenz im Online-Marketing gestellt.
Die wachsende Verbreitung von KI-gesteuerten Empfehlungssystemen und personalisiertem Lernen in LXPs wirft grundlegende ethische Fragen für Anwender auf, insbesondere hinsichtlich der Transparenz und Nachvollziehbarkeit dieser Systeme. Diese Bachelorarbeit behandelt die Schnittstelle zwischen KI, Ethik und Bildung, wobei der Schwerpunkt auf der Erklärbarkeit von KI-basierten Systemen liegt. Das Beispiel, das für die Untersuchung herangezogen wird, ist Moodle LXP an der Hochschule Offenburg. Die Motivation dieser Arbeit entspringt der dringenden Notwendigkeit, die Akzeptanz und Vertrauenswürdigkeit von KI-Systemen in Bildungsumgebungen zu fördern, indem Erklärbarkeit als integraler Bestandteil integriert wird.
Im Rahmen des Projekts KompiLe wird Moodle zu einer sogenannten Learning Experience Platform (LXP) ausgebaut, die Studierenden personalisiertes, selbstbestimmtes Lernen ermöglicht. Zentrale Elemente der LXP sind Bewertungen interner und externer Lernressourcen sowie individualisierte, auf KI basierende Lernempfehlungen für Studierende. Diese Empfehlungen beruhen auf der Analyse persönlicher Daten der Studierenden, was eine grundlegende Voraussetzung für das Funktionieren des Systems darstellt. Damit Studierende solchen KI-basierten Lernempfehlungen vertrauen, müssen angemessene Erklärungen die gesamte Prozesskette begleiten. Dies beinhaltet die freiwillige Freigabe persönlicher Daten, die Erstellung von Bewertungen sowie die Präsentation persönlicher Lernempfehlungen.
Das Ziel dieser Bachelorarbeit ist es, eine benutzerfreundliche Integration von Erklärungen für die genannten Prozesse in Moodle LXP zu entwickeln. Dies soll dazu beitragen, die Vertrauenswürdigkeit und Akzeptanz des durch KI unterstützten Lernens zu stärken. Die Arbeit konzentriert sich auf die Konzeption verständlicher Erklärungen für verschiedene Arten von Bewertungen und Lernempfehlungen sowie deren Integration und Darstellung in Moodle LXP. Die entwickelte Benutzeroberfläche zielt darauf ab, Studierende zu entlasten und ihnen hilfreiche sowie thematisch sinnvolle Informationen für die KI-basierten Empfehlungen bereitzustellen. Es wurde ein Konzept für die Erklärbarkeit erstellt und als Mockup umgesetzt. Abschließend wurde die grobe Voransicht des fertigen Designs in ausgewählten Gruppen von Studierenden evaluiert, und die Auswirkungen auf die Vertrauenswürdigkeit und Akzeptanz der Empfehlungen auf die Lernenden wurden untersucht.
Eine Frage der Qualität
(2021)
Künstliche Intelligenz (KI) und maschinelles Lernen (ML) sind zwei der großen Schlüsseltechnologien zur Automatisierung intelligenten Verhaltens mit einer großen Anzahl von Anwendungsbereichen. Neben dem Einsatz von Servicerobotern, autonomen Fahrzeugen und intelligenten Suchmaschinen erschließen sich nach und nach weitere Einsatzfelder dieser jungen Wissenschaft. Diese Arbeit verfolgt das Ziel, zu prüfen, ob ein beispielhaftes Problem aus der IT-Security für die Bearbeitung durch maschinelle Lernverfahren geeignet ist, ein entsprechendes Open-Source Toolkit, das JMLT (Java Machine Learning Toolkit) zu dessen Bearbeitung zu entwickeln und mit diesem das Problem zu bearbeiten und die erhaltenen Ergebnisse auszuwerten, um letztendlich die Beantwortung der Eingangsfrage zu verifizieren.
Mit dieser Arbeit entsteht ein frei zugängliches, umfangreiches Open-Source Toolkit, dass jedem Interessierten zur freien Verfügung gestellt wird. Dieses bietet eine ganze Palette an Möglichkeiten, Daten zu verarbeiten, zu modifizieren, mit verschiedenen Methoden des maschinellen Lernens zu bearbeiten und die Ergebnisse grafisch anzuzeigen. Die Mächtigkeit dieses Toolkits wird sich im Laufe dieser Arbeit ergeben. Zur Verwendung sind grundlegende Java-Kenntnisse notwendig.
Diese Bachelorthesis behandelt die Entwicklung eines Prototyps zur Identifizierung und Verhinderung von Angriffen mithilfe von KI- und ML-Modellen. Untersucht werden die Leistungsfähigkeit verschiedener theoretischer Modelle im Kontext der Intrusion Detection, wobei Machine-Learning-Modelle wie Entscheidungsbäume, Random Forests und Naive Bayes analysiert werden. Die Arbeit betont die Relevanz der Datensatzauswahl, die Vorbereitung der Daten und bietet einen Ausblick auf zukünftige Entwicklungen in der Angriffserkennung.