Refine
Document Type
- Bachelor Thesis (10) (remove)
Language
- German (10)
Has Fulltext
- yes (10)
Is part of the Bibliography
- no (10) (remove)
Keywords
- Künstliche Intelligenz (10) (remove)
Institute
Open Access
- Closed (5)
- Closed Access (5)
Ziel der vorliegenden Bachelorarbeit ist es, eine automatisierte Bildausschnittkontrolle für die Low Code Plattform Intrexx zu implementieren. Diese soll mit Hilfe eines geeigneten Künstliche Intelligenz Frameworks Gesichter in Bildern erkennen und diese anschließend ausschneiden. Die Benutzer*innen sollen die Ausschnitte außerdem noch manuell anpassen können. Die Implementierung erfolgt mittels Typescript innerhalb einer Webkomponente, um eine Verwendung innerhalb von Intrexx zu ermöglichen. Nach einem Vergleich verschiedener technologischer Ansätze hat sich Tensorflow als geeignetes KI-Framework herausgestellt. Im Rahmen einer Performance-Analyse wurden außerdem verschiedene Tensorflow-Modelle miteinander verglichen.
KI-gestützte Cyberangriffe
(2023)
Die Fortschritte im Bereich der künstlichen Intelligenz (KI) und des Deep Learning haben in den letzten Jahren enorme Fortschritte gemacht. Insbesondere Technologien wie Large Language Models (LLMs) machen KI-Technologie innerhalb kurzer Zeit zugänglich für die Allgemeinheit. Die Generierung von Text, Bild und Sprache durch künstliche Intelligenz erzielt innerhalb kurzer Zeit gute Ergebnisse. Parallel zu dieser Entwicklung hat die Cyberkriminalität in den vergangenen Jahren im Bereich der KI zugenommen. Cyberangriffe verursachen im Zuge der Digitalisierung größeren Schaden und Angriffe entwickeln sich kontinuierlich weiter, um bestehende Schutzmaßnahmen zu umgehen.
Diese Arbeit bietet eine Einführung in das Themengebiet KI-gestützte Cyberangriffe. Sie präsentiert aktuelle KI-gestützte Cyberangriffsmodelle und analysiert, inwiefern diese für Anfänger*innen in der Cyberkriminalität zugänglich sind.
Diese Bachelorthesis behandelt die Entwicklung eines Prototyps zur Identifizierung und Verhinderung von Angriffen mithilfe von KI- und ML-Modellen. Untersucht werden die Leistungsfähigkeit verschiedener theoretischer Modelle im Kontext der Intrusion Detection, wobei Machine-Learning-Modelle wie Entscheidungsbäume, Random Forests und Naive Bayes analysiert werden. Die Arbeit betont die Relevanz der Datensatzauswahl, die Vorbereitung der Daten und bietet einen Ausblick auf zukünftige Entwicklungen in der Angriffserkennung.
In dieser Arbeit wird untersucht, wie künstliche Intelligenz das Online-Marketing künftig beeinflussen wird und welche Chancen und Risiken dessen Einsatz in der Online-Marketing-Automation bietet. Dazu wurden zunächst Grundlagen des Online-Marketings, der Marketing-Automation, Big Data und der künstlichen Intelligenz dargelegt. Außerdem wurde ermittelt, welche Prozesse im Online-Marketing grundsätzlich automatisierbar sind und welche Einsatzmöglichkeiten von künstlicher Intelligenz im Online-Marketing existieren. Darüber hinaus erfolgte eine Analyse des Potenzials von künstlicher Intelligenz für das Online-Marketing innerhalb der Marketing-Automation. Dabei wurde der Status Quo untersucht, sowie Praxisbeispiele der erfolgreichen Anwendung von künstlicher Intelligenz im Online-Marketing aufgezeigt. Anschließend wurden die Chancen und Risiken näher beleuchtet. Auf Basis der Erkenntnisse und mehreren Expertenmeinungen wurde außerdem eine Prognose für den künftigen Einsatz von künstlicher Intelligenz im Online-Marketing gestellt.
Die vorliegende Bachelorarbeit untersucht die Anwendung der Transformer-Architektur bei der Entwicklung eines Chatbots für die Auskunft von Studieninformationen. Sie bietet eine gründliche Einführung in Chatbots, deren Funktionsweise und Klassifikation sowie in die Grundlagen neuronaler Netzwerke, Deep Learning und Natural Language Processing. Insbesondere die Transformer-Architektur und ihre Hauptkomponenten werden eingehend analysiert. Im Zuge dessen werden auch aktuelle Forschungen im Bereich Large Language Models und Fine-Tuning berücksichtigt.
Im praktischen Teil erfolgt die Darstellung der Konzeption, Implementierung und Evaluierung eines Chatbots für die Studienauskunft. Der erstellte Chatbot nutzt eine semantische Suche in Kombination mit einem Large Language Model, was sich als attraktive Alternative zu herkömmlichen Chatbots erweist. Zwar ist der aktuelle Entwicklungsstand des Chatbots noch nicht für die produktive Nutzung geeignet, dennoch zeigt er Potenzial für vielfältige Einsatzmöglichkeiten bei fortlaufender Entwicklung.
Die Arbeit schließt mit einer Diskussion ethischer Aspekte und zeigt zukünftige Forschungsmöglichkeiten auf. Die erzielten Erkenntnisse könnten für eine Vielzahl von Kontexten relevant sein und einen signifikanten Beitrag zur Entwicklung effizienter und genauer Informationsabfragesysteme leisten.
Künstliche Intelligenz (KI) und maschinelles Lernen (ML) sind zwei der großen Schlüsseltechnologien zur Automatisierung intelligenten Verhaltens mit einer großen Anzahl von Anwendungsbereichen. Neben dem Einsatz von Servicerobotern, autonomen Fahrzeugen und intelligenten Suchmaschinen erschließen sich nach und nach weitere Einsatzfelder dieser jungen Wissenschaft. Diese Arbeit verfolgt das Ziel, zu prüfen, ob ein beispielhaftes Problem aus der IT-Security für die Bearbeitung durch maschinelle Lernverfahren geeignet ist, ein entsprechendes Open-Source Toolkit, das JMLT (Java Machine Learning Toolkit) zu dessen Bearbeitung zu entwickeln und mit diesem das Problem zu bearbeiten und die erhaltenen Ergebnisse auszuwerten, um letztendlich die Beantwortung der Eingangsfrage zu verifizieren.
Mit dieser Arbeit entsteht ein frei zugängliches, umfangreiches Open-Source Toolkit, dass jedem Interessierten zur freien Verfügung gestellt wird. Dieses bietet eine ganze Palette an Möglichkeiten, Daten zu verarbeiten, zu modifizieren, mit verschiedenen Methoden des maschinellen Lernens zu bearbeiten und die Ergebnisse grafisch anzuzeigen. Die Mächtigkeit dieses Toolkits wird sich im Laufe dieser Arbeit ergeben. Zur Verwendung sind grundlegende Java-Kenntnisse notwendig.
Künstliche Intelligenzen, Deep Learning und Machine-Learning-Algorithmen sind im digitalen Zeitalter zu einem Punkt gekommen, in dem es schwer ist zu unterscheiden, welche Informationen und Quellen echt sind und welche nicht. Der Begriff „Deepfakes“ wurde erstmals 2017 genutzt und hat bereits 2018 mit einer App bewiesen, wie einfach es ist, diese Technologie zu verwenden um mit Videos, Bildern oder Ton Desinformationen zu verbreiten, politische Staatsoberhäupter nachzuahmen oder unschuldige Personen zu deformieren. In der Zwischenzeit haben sich Deepfakes bedeutend weiterentwickelt und stellen somit eine große Gefahr dar.
Diese Arbeit bietet eine Einführung in das Themengebiet Deepfakes. Zudem behandelt sie die Erstellung, Verwendung und Erkennung von Deepfakes, sowie mögliche Abwehrmaßnahmen und Auswirkungen, welche Deepfakes mit sich bringen.
Das Ziel dieser Arbeit ist es eine Reihe an Informationen und Erfahrungen zur Verfügung zu stellen, um es der Hochschule Offenburg zu ermöglichen, den Zumi-Roboter für pädagogische Zwecke, speziell für den neu angebotenen Studiengang „Angewandte Künstliche Intelligenz“, einzusetzen. Sie umfasst die Analyse der verbauten Komponenten, Aufschluss über die Bedienoberflächen, die Handhabung des Roboters und Erfahrungsberichte über das Programmieren mit Zumi. Ebenfalls wurden zwei Vorführprogramme konzipiert, welche an Infotagen zur Promotion der Hochschule eingesetzt werden können. Den größten Teil der Arbeit umschließt eine voll ausgearbeitete Laboraufgabe, welche in kommenden Semestern für den bereits angesprochenen Studiengang zum Einsatz kommen und gegen Ende der Arbeit im Detail erläutert wird.
Es wurden verschiedenste Versuche durchgeführt, um die Komponenten zu analysieren und um deren Genauigkeit, Funktionsweise und Verlässlichkeit bewerten zu können.
Die wachsende Verbreitung von KI-gesteuerten Empfehlungssystemen und personalisiertem Lernen in LXPs wirft grundlegende ethische Fragen für Anwender auf, insbesondere hinsichtlich der Transparenz und Nachvollziehbarkeit dieser Systeme. Diese Bachelorarbeit behandelt die Schnittstelle zwischen KI, Ethik und Bildung, wobei der Schwerpunkt auf der Erklärbarkeit von KI-basierten Systemen liegt. Das Beispiel, das für die Untersuchung herangezogen wird, ist Moodle LXP an der Hochschule Offenburg. Die Motivation dieser Arbeit entspringt der dringenden Notwendigkeit, die Akzeptanz und Vertrauenswürdigkeit von KI-Systemen in Bildungsumgebungen zu fördern, indem Erklärbarkeit als integraler Bestandteil integriert wird.
Im Rahmen des Projekts KompiLe wird Moodle zu einer sogenannten Learning Experience Platform (LXP) ausgebaut, die Studierenden personalisiertes, selbstbestimmtes Lernen ermöglicht. Zentrale Elemente der LXP sind Bewertungen interner und externer Lernressourcen sowie individualisierte, auf KI basierende Lernempfehlungen für Studierende. Diese Empfehlungen beruhen auf der Analyse persönlicher Daten der Studierenden, was eine grundlegende Voraussetzung für das Funktionieren des Systems darstellt. Damit Studierende solchen KI-basierten Lernempfehlungen vertrauen, müssen angemessene Erklärungen die gesamte Prozesskette begleiten. Dies beinhaltet die freiwillige Freigabe persönlicher Daten, die Erstellung von Bewertungen sowie die Präsentation persönlicher Lernempfehlungen.
Das Ziel dieser Bachelorarbeit ist es, eine benutzerfreundliche Integration von Erklärungen für die genannten Prozesse in Moodle LXP zu entwickeln. Dies soll dazu beitragen, die Vertrauenswürdigkeit und Akzeptanz des durch KI unterstützten Lernens zu stärken. Die Arbeit konzentriert sich auf die Konzeption verständlicher Erklärungen für verschiedene Arten von Bewertungen und Lernempfehlungen sowie deren Integration und Darstellung in Moodle LXP. Die entwickelte Benutzeroberfläche zielt darauf ab, Studierende zu entlasten und ihnen hilfreiche sowie thematisch sinnvolle Informationen für die KI-basierten Empfehlungen bereitzustellen. Es wurde ein Konzept für die Erklärbarkeit erstellt und als Mockup umgesetzt. Abschließend wurde die grobe Voransicht des fertigen Designs in ausgewählten Gruppen von Studierenden evaluiert, und die Auswirkungen auf die Vertrauenswürdigkeit und Akzeptanz der Empfehlungen auf die Lernenden wurden untersucht.