Refine
Document Type
- Bachelor Thesis (10)
- Master's Thesis (5)
- Conference Proceeding (4)
- Article (unreviewed) (4)
- Contribution to a Periodical (3)
- Book (2)
- Part of a Book (2)
- Article (reviewed) (1)
- Other (1)
Conference Type
- Konferenzartikel (4)
Keywords
- Künstliche Intelligenz (32) (remove)
Institute
- Fakultät Medien (M) (ab 22.04.2021) (11)
- Fakultät Wirtschaft (W) (10)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (6)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (4)
- IMLA - Institute for Machine Learning and Analytics (2)
- ACI - Affective and Cognitive Institute (1)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (1)
- Zentrale Einrichtungen (1)
Open Access
- Closed Access (13)
- Closed (11)
- Open Access (8)
- Diamond (1)
Die wachsende Verbreitung von KI-gesteuerten Empfehlungssystemen und personalisiertem Lernen in LXPs wirft grundlegende ethische Fragen für Anwender auf, insbesondere hinsichtlich der Transparenz und Nachvollziehbarkeit dieser Systeme. Diese Bachelorarbeit behandelt die Schnittstelle zwischen KI, Ethik und Bildung, wobei der Schwerpunkt auf der Erklärbarkeit von KI-basierten Systemen liegt. Das Beispiel, das für die Untersuchung herangezogen wird, ist Moodle LXP an der Hochschule Offenburg. Die Motivation dieser Arbeit entspringt der dringenden Notwendigkeit, die Akzeptanz und Vertrauenswürdigkeit von KI-Systemen in Bildungsumgebungen zu fördern, indem Erklärbarkeit als integraler Bestandteil integriert wird.
Im Rahmen des Projekts KompiLe wird Moodle zu einer sogenannten Learning Experience Platform (LXP) ausgebaut, die Studierenden personalisiertes, selbstbestimmtes Lernen ermöglicht. Zentrale Elemente der LXP sind Bewertungen interner und externer Lernressourcen sowie individualisierte, auf KI basierende Lernempfehlungen für Studierende. Diese Empfehlungen beruhen auf der Analyse persönlicher Daten der Studierenden, was eine grundlegende Voraussetzung für das Funktionieren des Systems darstellt. Damit Studierende solchen KI-basierten Lernempfehlungen vertrauen, müssen angemessene Erklärungen die gesamte Prozesskette begleiten. Dies beinhaltet die freiwillige Freigabe persönlicher Daten, die Erstellung von Bewertungen sowie die Präsentation persönlicher Lernempfehlungen.
Das Ziel dieser Bachelorarbeit ist es, eine benutzerfreundliche Integration von Erklärungen für die genannten Prozesse in Moodle LXP zu entwickeln. Dies soll dazu beitragen, die Vertrauenswürdigkeit und Akzeptanz des durch KI unterstützten Lernens zu stärken. Die Arbeit konzentriert sich auf die Konzeption verständlicher Erklärungen für verschiedene Arten von Bewertungen und Lernempfehlungen sowie deren Integration und Darstellung in Moodle LXP. Die entwickelte Benutzeroberfläche zielt darauf ab, Studierende zu entlasten und ihnen hilfreiche sowie thematisch sinnvolle Informationen für die KI-basierten Empfehlungen bereitzustellen. Es wurde ein Konzept für die Erklärbarkeit erstellt und als Mockup umgesetzt. Abschließend wurde die grobe Voransicht des fertigen Designs in ausgewählten Gruppen von Studierenden evaluiert, und die Auswirkungen auf die Vertrauenswürdigkeit und Akzeptanz der Empfehlungen auf die Lernenden wurden untersucht.
KI-gestützte Cyberangriffe
(2023)
Die Fortschritte im Bereich der künstlichen Intelligenz (KI) und des Deep Learning haben in den letzten Jahren enorme Fortschritte gemacht. Insbesondere Technologien wie Large Language Models (LLMs) machen KI-Technologie innerhalb kurzer Zeit zugänglich für die Allgemeinheit. Die Generierung von Text, Bild und Sprache durch künstliche Intelligenz erzielt innerhalb kurzer Zeit gute Ergebnisse. Parallel zu dieser Entwicklung hat die Cyberkriminalität in den vergangenen Jahren im Bereich der KI zugenommen. Cyberangriffe verursachen im Zuge der Digitalisierung größeren Schaden und Angriffe entwickeln sich kontinuierlich weiter, um bestehende Schutzmaßnahmen zu umgehen.
Diese Arbeit bietet eine Einführung in das Themengebiet KI-gestützte Cyberangriffe. Sie präsentiert aktuelle KI-gestützte Cyberangriffsmodelle und analysiert, inwiefern diese für Anfänger*innen in der Cyberkriminalität zugänglich sind.
Truth is the first causality of war”, is a very often used statement. What rather intrigues the mind is what causes the causality of truth. If one dives deeper, one may also wonder why is this so-called truth the first target in a war. Who all see the truth before it dies. These questions rarely get answered as the media and general public tends to focus more on the human and economic losses in a war or war like situation. What many fail to realize is that these truthful pieces of information are critical to how a situation further develops. One correct information may change the course of the whole war saving millions and one mis-information may do the opposite.
Since its inception, some studies have been conducted to propose and develop new applications for OSINT in various fields. In addition to OSINT, Artificial Intelligence is a worldwide trend that is being used in conjunction witThe question here is, what is this information. Who transmits this and how? What is the source. Although, there has been an extensive use of the information provided by the secret services of any nation, which have come handy to many, another kind of information system is using the one that is publicly available, but in different pieces. This kind of information may come from people posting on social media, some publicly available records and much more. The key part in this publicly available information is that these are just pieces of information available across the globe from various different sources. This could be seen as small pieces of a puzzle that need to be put together to see the bigger picture. This is where OSINT comes in place.
h other areas (AI). AI is the branch of computer science that is in charge of developing intelligent systems. In terms of contribution, this work presents a 9-step systematic literature review as well as consolidated data to support future OSINT studies. It was possible to understand where the greatest concentration of publications was, which countries and continents developed the most research, and the characteristics of these publications using this information. What are the trends for the next OSINT with AI studies? What AI subfields are used with OSINT? What are the most popular keywords, and how do they relate to others over time?A timeline describing the application of OSINT is also provided. It was also clear how OSINT was used in conjunction with AI to solve problems in various areas with varying objectives. Private investigators and journalists are no longer the primary users of open-source intelligence gathering and analysis (OSINT) techniques. Approximately 80-90 percent of data analysed by intelligence agencies is now derived from publicly available sources. Furthermore, the massive expansion of the internet, particularly social media platforms, has made OSINT more accessible to civilians who simply want to trawl the Web for information on a specific individual, organisation, or product. The General Data Protection Regulation (GDPR) of the European Union was implemented in the United Kingdom in May 2018 through the new Data Protection Act, with the goal of protecting personal data from unauthorised collection, storage, and exploitation. This document presents a preliminary review of the literature on GDPR-related work.
The reviewed literature is divided into six sections: ’What is OSINT?’, ’What are the risks?’ and benefits of OSINT?’, ’What is the rationale for data protection legislation?’, ’What are the current legislative frameworks in the UK and Europe?’, ’What is the potential impact of the GDPR on OSINT?’, and ’Have the views of civilian and commercial stakeholders been sought and why is this important?’. Because OSINT tools and techniques are available to anyone, they have the unique ability to be used to hold power accountable. As a result, it is critical that new data protection legislation does not impede civilian OSINT capabilities.
In this paper we see how OSINT has played an important role in the wars across the globe in the past. We also see how OSINT is used in our everyday life. We also gain insights on how OSINT is playing a role in the current war going on between Russia and Ukraine. Furthermore, we look into some of these OSINT tools and how they work. We also consider a use case where OSINT is used as an anti terrorism tool. At the end, we also see how OSINT has evolved over the years, and what we can expect in the future as to what OSINT may look like.
Künstliche Intelligenzen, Deep Learning und Machine-Learning-Algorithmen sind im digitalen Zeitalter zu einem Punkt gekommen, in dem es schwer ist zu unterscheiden, welche Informationen und Quellen echt sind und welche nicht. Der Begriff „Deepfakes“ wurde erstmals 2017 genutzt und hat bereits 2018 mit einer App bewiesen, wie einfach es ist, diese Technologie zu verwenden um mit Videos, Bildern oder Ton Desinformationen zu verbreiten, politische Staatsoberhäupter nachzuahmen oder unschuldige Personen zu deformieren. In der Zwischenzeit haben sich Deepfakes bedeutend weiterentwickelt und stellen somit eine große Gefahr dar.
Diese Arbeit bietet eine Einführung in das Themengebiet Deepfakes. Zudem behandelt sie die Erstellung, Verwendung und Erkennung von Deepfakes, sowie mögliche Abwehrmaßnahmen und Auswirkungen, welche Deepfakes mit sich bringen.
Diese Bachelorthesis behandelt die Entwicklung eines Prototyps zur Identifizierung und Verhinderung von Angriffen mithilfe von KI- und ML-Modellen. Untersucht werden die Leistungsfähigkeit verschiedener theoretischer Modelle im Kontext der Intrusion Detection, wobei Machine-Learning-Modelle wie Entscheidungsbäume, Random Forests und Naive Bayes analysiert werden. Die Arbeit betont die Relevanz der Datensatzauswahl, die Vorbereitung der Daten und bietet einen Ausblick auf zukünftige Entwicklungen in der Angriffserkennung.
Die vorliegende Bachelorarbeit untersucht die Anwendung der Transformer-Architektur bei der Entwicklung eines Chatbots für die Auskunft von Studieninformationen. Sie bietet eine gründliche Einführung in Chatbots, deren Funktionsweise und Klassifikation sowie in die Grundlagen neuronaler Netzwerke, Deep Learning und Natural Language Processing. Insbesondere die Transformer-Architektur und ihre Hauptkomponenten werden eingehend analysiert. Im Zuge dessen werden auch aktuelle Forschungen im Bereich Large Language Models und Fine-Tuning berücksichtigt.
Im praktischen Teil erfolgt die Darstellung der Konzeption, Implementierung und Evaluierung eines Chatbots für die Studienauskunft. Der erstellte Chatbot nutzt eine semantische Suche in Kombination mit einem Large Language Model, was sich als attraktive Alternative zu herkömmlichen Chatbots erweist. Zwar ist der aktuelle Entwicklungsstand des Chatbots noch nicht für die produktive Nutzung geeignet, dennoch zeigt er Potenzial für vielfältige Einsatzmöglichkeiten bei fortlaufender Entwicklung.
Die Arbeit schließt mit einer Diskussion ethischer Aspekte und zeigt zukünftige Forschungsmöglichkeiten auf. Die erzielten Erkenntnisse könnten für eine Vielzahl von Kontexten relevant sein und einen signifikanten Beitrag zur Entwicklung effizienter und genauer Informationsabfragesysteme leisten.
Künstliche Intelligenz (KI) durchdringt unser Leben immer stärker. Studierende werden im Alltag und an Hochschulen zunehmend mit KI-Anwendungen konfrontiert. An der Hochschule Offenburg werden deshalb KI-bezogene Lehrangebote curricular verankert, um Studierende im Erwerb von KI-Kompetenz zu unterstützen.
Der Beitrag stellt ein Konzept für die Entwicklung von Lehrveranstaltungen nach der Idee des pädagogischen Makings zur Förderung von KI-Kompetenz in der Hochschullehre vor. Konkretisiert wird das Konzept anhand eines Moduls zum Thema Chatbots, dessen Lehrinhalte interdisziplinär aus verschiedenen Perspektiven ausgearbeitet werden.
The automatic processing of handwritten forms remains a challenging task, wherein detection and subsequent classification of handwritten characters are essential steps. We describe a novel approach, in which both steps - detection and classification - are executed in one task through a deep neural network. Therefore, training data is not annotated by hand, but manufactured artificially from the underlying forms and yet existing datasets. It can be demonstrated that this single-task approach is superior in comparison to the state-of-the-art two task approach. The current study focuses on hand-written Latin letters and employs the EMNIST data set. However, limitations were identified with this data set, necessitating further customization. Finally, an overall recognition rate of 88.28% was attained on real data obtained from a written exam.
In this paper we present the concept of the "KI-Labor Südbaden" to support regional companies in the use of AI technologies. The approach is based on the "Periodic Table of AI" and is extended with both new dimensions for sustainability, and the impact of AI on the working environment. It is illustrated on the basis of three real-world use cases: 1. The detection of humans with lowresolution infrared (IR) images for collaborative robotics; 2. The use of machine data from specifically designed vehicles; 3. State-of-the-art Large Language Models (LLMs) applied to internal company documents. We explain the use cases, thereby demonstrating how to apply the Periodic Table of AI to structure AI applications.
Das Zeitalter der Digitalisierung ist geprägt durch einen erhöhten Wettbewerb. Eine Chance, bei steigendem Wettbewerb erfolgreich zu bestehen, liegt daher nur in der durchgängigen Digitalisierung von Produktionsunternehmen. Dieser Beitrag stellt eine dreistufige generische Unternehmensmodellplattform Industrie 4.0 vor, die die Durchgängigkeit von Prozessen vom Kunden bis zum Lieferanten auf allen Unternehmensebenen in den Mittelpunkt stellt. Die Schritte zur Bewertung und Gestaltung des Fortschritts auf dem Weg zum digitalisierten Produktionsunternehmen werden aufgezeigt.