Refine
Document Type
- Bachelor Thesis (10)
- Master's Thesis (5)
- Conference Proceeding (4)
- Article (unreviewed) (4)
- Contribution to a Periodical (3)
- Book (2)
- Part of a Book (2)
- Article (reviewed) (1)
- Other (1)
Conference Type
- Konferenzartikel (4)
Keywords
- Künstliche Intelligenz (32) (remove)
Institute
- Fakultät Medien (M) (ab 22.04.2021) (11)
- Fakultät Wirtschaft (W) (10)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (6)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (4)
- IMLA - Institute for Machine Learning and Analytics (2)
- ACI - Affective and Cognitive Institute (1)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (1)
- Zentrale Einrichtungen (1)
Open Access
- Closed Access (13)
- Closed (11)
- Open Access (8)
- Diamond (1)
Die Wertschöpfung vorherrschender Datenmengen scheitert, obgleich diese als der Treibstoff der Zukunft gelten, oftmals an den grundlegendsten Dingen. Das Digitalisierungs- und auch Verlagerungsverhalten werden für das Content Management (CM) zunehmend zu einem herausfordernden Fallstrick.
Die Unternehmen sind mit Fragestellungen traktiert, die sich darauf referenzieren, EchtzeitStröme unstrukturierter Daten aus heterogenen Quellen zu analysieren und zu speichern.
Trotz aller Bemühungen, die unaufhaltsam wachsende Menge an Daten- beziehungsweise Content im Rahmen eines effizienten Managements künftig manuell in den Griff zu bekommen, scheint es, als ob die Unternehmen an der kaum zu bewerkstelligenden Herausforderung scheitern werden.
Die vorliegende Arbeit untersucht, inwieweit es einer innovativen Technologie, wie der Künstlichen Intelligenz (KI) gelingen kann, das Content Management nachhaltig zu revolutionieren und damit den Content in seinem Umfang so zu organisieren und zu nutzen, um den Unternehmen eine Perspektive zu bieten, die steigende Welle an Big Data zu bewältigen.
Somit bewegt sich diese Arbeit auf dem Forschungsfeld der KI, als Teilgebiet der Informatik, die enorme Chancen und gleichzeitig Herausforderungen für die Wissenschaft und die Innovationsfähigkeit der Unternehmen mit sich bringt.
Im Rahmen qualitativer Expert*inneninterviews als Lösungsansatz wurde untersucht, inwiefern es KI-gestützten Systemen gelingen kann, Wissensmitarbeiter*innen entlang des Content Life Cycles zu unterstützen und den Nutzer*innen bezüglich der Ausspielung der Inhalte eine optimale Customer Experience zu bieten.
Die fehlende Nachvollziehbarkeit und das Missverständnis des KI-Begriffes sowie die Kluft zwischen der öffentlichen Debatte und der Realität der KI erweisen sich hierbei als die wohl größten Innovationsbremsen des KI-Einsatzes in der Content Management Umgebung.
Die Ergebnisse der Arbeit tragen im Wesentlichen dazu bei, das Verständnis für die KI zu schärfen und gleichzeitig das aufkommende Dilemma des Vertrauensdefizites der Mensch-Maschine-Kommunikation zu entschärfen.
Außerdem wird ein Grundverständnis dafür geschaffen, die KI als geeignetes Tool im Content Management zu erkennen.
Darüber hinaus wird demonstriert, dass sich durch den Einsatz der KI im Content Management ebenfalls immense Vorteile für die Ausspielung user*innenspezifierten Contents ergeben, die im folgenden Verlauf genauer aufgeführt werden.
The progress in machine learning has led to advanced deep neural networks. These networks are widely used in computer vision tasks and safety-critical applications. The automotive industry, in particular, has experienced a significant transformation with the integration of deep learning techniques and neural networks. This integration contributes to the realization of autonomous driving systems. Object detection is a crucial element in autonomous driving. It contributes to vehicular safety and operational efficiency. This technology allows vehicles to perceive and identify their surroundings. It detects objects like pedestrians, vehicles, road signs, and obstacles. Object detection has evolved from being a conceptual necessity to an integral part of advanced driver assistance systems (ADAS) and the foundation of autonomous driving technologies. These advancements enable vehicles to make real-time decisions based on their understanding of the environment, improving safety and driving experiences. However, the increasing reliance on deep neural networks for object detection and autonomous driving has brought attention to potential vulnerabilities within these systems. Recent research has highlighted the susceptibility of these systems to adversarial attacks. Adversarial attacks are well-designed inputs that exploit weaknesses in the deep learning models underlying object detection. Successful attacks can cause misclassifications and critical errors, posing a significant threat to the functionality and safety of autonomous vehicles. With the rapid development of object detection systems, the vulnerability to adversarial attacks has become a major concern. These attacks manipulate inputs to deceive the target system, significantly compromising the reliability and safety of autonomous vehicles. In this study, we focus on analyzing adversarial attacks on state-of-the-art object detection models. We create adversarial examples to test the models’ robustness. We also check if the attacks work on a different object detection model meant for similar tasks. Additionally, we extensively evaluate recent defense mechanisms to see how effective they are in protecting deep neural networks (DNNs) from adversarial attacks and provide a comprehensive overview of the most commonly used defense strategies against adversarial attacks, highlighting how they can be implemented practically in real-world situations.
Dieses Fachbuch gibt einen vertieften Einblick in das dynamische Verhalten von thermoaktiven Bauteilsystemen. Es wird eine neu entwickelte und vielfach erprobte, selbstlernende und vorausschauende TABS-Steuerung vorgestellt. Dazu wird auf die Erfordernisse einer effektiven TABS-Steuerung eingegangen und die Grundlagen und Funktionsweise der neu entwickelten AMLR-Steuerung erläutert. Anhand mehrerer Anwendungsbeispiele wird die Umsetzung in die bauliche Praxis erläutert und mit Hilfe von umfangreichen Messergebnissen die Funktion der neuen AMLR-Steuerung nachgewiesen. Abschließend werden Empfehlungen für die Anwendung von AMLR in der baulichen TABS-Praxis hinsichtlich Anlagenhydraulik und Umsetzung in der Gebäudeautomation gegeben.
Die Mehrheit der deutschen Unternehmen verspricht sich aus KI-gestützter Datenanalyse einen großen Geschäftsvorteil. Doch gerade das Thema Datenbestand ist eine der größten, immer noch häufig unterschätzten Hürde beim Trainieren und Einführen von KI-Algorithmen. Im Folgenden sind vier konkrete Erfahrungen und Tipps für KI- & Datenanalyseprojekte in Unternehmen aufgeführt.
Künstliche Intelligenz gilt immer noch als eine der zukunftsweisenden Technologien, die viele Bereiche wie etwa Medizin, Handel, Verkehr und öffentliche Verwaltung revolutioniert. So scheint es nicht verwunderlich, dass bereits knapp jedes fünfte Unternehmen in Deutschland zurzeit KI-Systeme implementiert oder zumindest ihren Einsatz plant. Besonders hoch im Kurs stehen KI-Projekte, um Daten zu analysieren. Ganze 70 Prozent der Unternehmen sehen hier das größte Potenzial, so die Ergebnisse einer Umfrage von PWC [1]. Dennoch lauern einige Stolpersteine, wollen Unternehmen intelligente Datenprojekte umsetzen. Welche Hürden auftauchen können und wie sich diese meistern lassen, erläutert dieser Artikel anhand eines KI-Projektes zur Analyse von Geschäftspartnerdaten [2].
Datenanalyse mithilfe von Künstlicher Intelligenz (KI) – für 70 Prozent der von den Beratern von PWC befragten Unternehmen ist dies das vielversprechendste Einsatzszenario. Doch so attraktiv die Vision erscheint, mittels KI das eigene Geschäft oder gar eine ganze Branche zu revolutionieren, so handfest sind die Herausforderungen, die sich in der Praxis ergeben. Ein häufiges Problem ist ein bereits beim Start eines Projekts mangelhafter Datenbestand. Die KI mit qualitativ schlechten Daten zu trainieren, macht keinen Sinn, da sie falsche Informationen lernt. Ohne den Einsatz gewisser Automatisierungen und KI ist es wiederum mühsam, die unzureichende Datenbasis zu verbessern.
Eine Frage der Qualität
(2021)
Künstliche Intelligenz (KI) kommt laut einer Interxion-Studie bei 96 Prozent der Schweizer Unternehmen zum Einsatz. Allerdings gaben nur 22 Prozent der Schweizer IT-Entscheider an, dass sie KI bereits für einen ersten Anwendungsfall einsetzen. Dabei ist KI etwa im Datenmanagement sehr hilfreich – sofern Qualität und Quantität der Trainingsdaten stimmen.
Intelligentes Data Governance und Data Management – Neue Chancen für die Kundendatenbewirtschaftung
(2022)
Mit der Digitalisierung haben sich für Marketing und Vertrieb vielzählige unterschiedliche neue Kanäle, Werbeformate und Zielgruppen eröffnet. Expertinnen und Experten schätzen, dass ca. 4.000 bis 10.000 Werbe- und Markenbotschaften täglich auf jede und jeden von uns einprasseln. Mögen diese Zahlen umstritten und eine Zahl zwischen 300 bis 500 Botschaften pro Tag realistischer sein, so ist dies noch immer eine Menge, die kaum noch verarbeitet und wahrgenommen werden kann. Als Reaktion auf diese Werbemasse und Reizüberflutung haben Konsumentinnen und Konsumenten zum Teil eine Art „Werbeblindheit“ entwickelt.
Für Unternehmen wird daher zunehmend herausfordernder, ihre Zielgruppe aktiv zu erreichen. Was können Unternehmen nun tun, um dennoch nachhaltig Aufmerksamkeit zu gewinnen, und wie kann Künstliche-Intelligenz-gestütztes Kundendatenmanagement dabei helfen?
In this paper we present the concept of the "KI-Labor Südbaden" to support regional companies in the use of AI technologies. The approach is based on the "Periodic Table of AI" and is extended with both new dimensions for sustainability, and the impact of AI on the working environment. It is illustrated on the basis of three real-world use cases: 1. The detection of humans with lowresolution infrared (IR) images for collaborative robotics; 2. The use of machine data from specifically designed vehicles; 3. State-of-the-art Large Language Models (LLMs) applied to internal company documents. We explain the use cases, thereby demonstrating how to apply the Periodic Table of AI to structure AI applications.
Die wachsende Verbreitung von KI-gesteuerten Empfehlungssystemen und personalisiertem Lernen in LXPs wirft grundlegende ethische Fragen für Anwender auf, insbesondere hinsichtlich der Transparenz und Nachvollziehbarkeit dieser Systeme. Diese Bachelorarbeit behandelt die Schnittstelle zwischen KI, Ethik und Bildung, wobei der Schwerpunkt auf der Erklärbarkeit von KI-basierten Systemen liegt. Das Beispiel, das für die Untersuchung herangezogen wird, ist Moodle LXP an der Hochschule Offenburg. Die Motivation dieser Arbeit entspringt der dringenden Notwendigkeit, die Akzeptanz und Vertrauenswürdigkeit von KI-Systemen in Bildungsumgebungen zu fördern, indem Erklärbarkeit als integraler Bestandteil integriert wird.
Im Rahmen des Projekts KompiLe wird Moodle zu einer sogenannten Learning Experience Platform (LXP) ausgebaut, die Studierenden personalisiertes, selbstbestimmtes Lernen ermöglicht. Zentrale Elemente der LXP sind Bewertungen interner und externer Lernressourcen sowie individualisierte, auf KI basierende Lernempfehlungen für Studierende. Diese Empfehlungen beruhen auf der Analyse persönlicher Daten der Studierenden, was eine grundlegende Voraussetzung für das Funktionieren des Systems darstellt. Damit Studierende solchen KI-basierten Lernempfehlungen vertrauen, müssen angemessene Erklärungen die gesamte Prozesskette begleiten. Dies beinhaltet die freiwillige Freigabe persönlicher Daten, die Erstellung von Bewertungen sowie die Präsentation persönlicher Lernempfehlungen.
Das Ziel dieser Bachelorarbeit ist es, eine benutzerfreundliche Integration von Erklärungen für die genannten Prozesse in Moodle LXP zu entwickeln. Dies soll dazu beitragen, die Vertrauenswürdigkeit und Akzeptanz des durch KI unterstützten Lernens zu stärken. Die Arbeit konzentriert sich auf die Konzeption verständlicher Erklärungen für verschiedene Arten von Bewertungen und Lernempfehlungen sowie deren Integration und Darstellung in Moodle LXP. Die entwickelte Benutzeroberfläche zielt darauf ab, Studierende zu entlasten und ihnen hilfreiche sowie thematisch sinnvolle Informationen für die KI-basierten Empfehlungen bereitzustellen. Es wurde ein Konzept für die Erklärbarkeit erstellt und als Mockup umgesetzt. Abschließend wurde die grobe Voransicht des fertigen Designs in ausgewählten Gruppen von Studierenden evaluiert, und die Auswirkungen auf die Vertrauenswürdigkeit und Akzeptanz der Empfehlungen auf die Lernenden wurden untersucht.
Due to the increasing aging of the population, the number of elderly people requiring care is growing in most European countries. However, the number of caregivers working in nursing homes and on daily care services is declining in countries like Germany or Italy. This limits the time for interpersonal communication. Furthermore, as a result of the Covid-19 pandemic, social distancing during contact restrictions became more important, causing an additional reduction of personal interaction. This social isolation can strongly increase emotional stress. Robotic assistance could contribute to addressing this challenge on three levels: (1) supporting caregivers to respond individually to the needs of patients and residents in nursing homes; (2) observing patients’ health and emotional state; (3) complying with high hygiene standards and minimizing human contact if required. To further the research on emotional aspects and the acceptance of robotic assistance in care, we conducted two studies where elderly participants interacted with the social robot Misa. Facial expression and voice analysis were used to identify and measure the emotional state of the participants during the interaction. While interpersonal contact plays a major role in elderly care, the findings reveal that robotic assistance generates added value for both caregivers and patients and that they show emotions while interacting with them.
Seit 1997 finden jährlich Weltmeisterschaften im Roboterfußball statt. Das Ziel ist es dabei, bis 2050 eine Mannschaft aus Robotern zu stellen, die gegen den menschlichen Fußballweltmeister gewinnt. Dazu müssen die Roboter in der Lage sein, das Verhalten ihrer menschlichen Gegner einzuschätzen und ihre Entscheidungen vorauszuahnen. Während die gängigen Verfahren zur Entscheidungsfindung in unsicheren Umgebungen in der Regel auf rationalen Entscheidungen nach der Entscheidungstheorie basieren, zeigt sich, dass menschliches Entscheiden teilweise nicht dieser Rationalität folgt. Daniel Kahneman und Amos Tversky zeigten das in vielen Studien und entwickelten daraus die bekannte Prospect Theory für die Kahneman 2002 den Wirtschaftsnobelpreis erhielt. In diesem Artikel wird beschrieben, wie Extended Behavior Networks (EBNs) auf einfache Weise erweitert werden können, um menschliches Entscheidungsverhalten auch in Situationen reproduzieren zu können, die von der rationalen Entscheidungstheorie abweichen.
Das Ziel dieser Arbeit ist es eine Reihe an Informationen und Erfahrungen zur Verfügung zu stellen, um es der Hochschule Offenburg zu ermöglichen, den Zumi-Roboter für pädagogische Zwecke, speziell für den neu angebotenen Studiengang „Angewandte Künstliche Intelligenz“, einzusetzen. Sie umfasst die Analyse der verbauten Komponenten, Aufschluss über die Bedienoberflächen, die Handhabung des Roboters und Erfahrungsberichte über das Programmieren mit Zumi. Ebenfalls wurden zwei Vorführprogramme konzipiert, welche an Infotagen zur Promotion der Hochschule eingesetzt werden können. Den größten Teil der Arbeit umschließt eine voll ausgearbeitete Laboraufgabe, welche in kommenden Semestern für den bereits angesprochenen Studiengang zum Einsatz kommen und gegen Ende der Arbeit im Detail erläutert wird.
Es wurden verschiedenste Versuche durchgeführt, um die Komponenten zu analysieren und um deren Genauigkeit, Funktionsweise und Verlässlichkeit bewerten zu können.
Künstliche Intelligenzen, Deep Learning und Machine-Learning-Algorithmen sind im digitalen Zeitalter zu einem Punkt gekommen, in dem es schwer ist zu unterscheiden, welche Informationen und Quellen echt sind und welche nicht. Der Begriff „Deepfakes“ wurde erstmals 2017 genutzt und hat bereits 2018 mit einer App bewiesen, wie einfach es ist, diese Technologie zu verwenden um mit Videos, Bildern oder Ton Desinformationen zu verbreiten, politische Staatsoberhäupter nachzuahmen oder unschuldige Personen zu deformieren. In der Zwischenzeit haben sich Deepfakes bedeutend weiterentwickelt und stellen somit eine große Gefahr dar.
Diese Arbeit bietet eine Einführung in das Themengebiet Deepfakes. Zudem behandelt sie die Erstellung, Verwendung und Erkennung von Deepfakes, sowie mögliche Abwehrmaßnahmen und Auswirkungen, welche Deepfakes mit sich bringen.
The automatic processing of handwritten forms remains a challenging task, wherein detection and subsequent classification of handwritten characters are essential steps. We describe a novel approach, in which both steps - detection and classification - are executed in one task through a deep neural network. Therefore, training data is not annotated by hand, but manufactured artificially from the underlying forms and yet existing datasets. It can be demonstrated that this single-task approach is superior in comparison to the state-of-the-art two task approach. The current study focuses on hand-written Latin letters and employs the EMNIST data set. However, limitations were identified with this data set, necessitating further customization. Finally, an overall recognition rate of 88.28% was attained on real data obtained from a written exam.
Sollen soziale Roboter Teil unserer Gesellschaft werden?
Eingebettet in eine spannende Kriminalgeschichte vermittelt der Wissenschaftscomic von Oliver Korn und Jonas Grund den aktuellen Stand und Ausblick der Wissenschaft auf Social Robots.
Die Geschichte spielt in der nahen Zukunft: In einem internationalen Projekt erforschen Wissenschaftler die Anforderungen an soziale Roboter für den Gesundheitsbereich. Kurz bevor der Prototyp eines Pflegeroboters in einer Feldstudie zum Einsatz kommt, verschwindet er spurlos. In ihrem ersten großen Fall begibt sich die junge Kommissarin Kira auf eine Reise in die Welt der Wissenschaft. Dabei lernt sie viel über soziale Roboter, KI und die Welt internationaler wissenschaftlicher Kooperationen. Immer wieder kommen kritische Stimmen zu Wort: Anti-Roboter-Aktivisten protestieren gegen Automatisierung und ein Schwinden von Menschlichkeit und Empathie. Selbst in der Familie der Kommissarin wird die mögliche Pflege älterer Menschen durch Roboter kontrovers diskutiert.
Übergreifendes Ziel ist es, über alle Altersstufen hinweg Wissen aufzubauen, damit die Vor- und Nachteile dieser neuen Technologien kontrovers, aber kenntnisreich diskutiert werden können. „Soziale Roboter – ein Science Comic“ ist ein Beitrag zu einer informierten Diskussion in den Feldern Robotik, künstliche Intelligenz, Ethik und Politik und damit auch als Lehr- und Lernmittel geeignet.
Der Comic wurde für Jugendliche und Erwachsene konzipiert und gestaltet. Insbesondere aber für jene, die bisher kaum in Berührung mit sozialen Robotern und künstlicher Intelligenz gekommen sind. Eine weitere Zielgruppe sind im Gesundheitswesen tätige Personen, denn die Betreuung und Pflege älterer Menschen gelten als einer der zukünftig wichtigsten Anwendungsbereiche für soziale Roboter.
DINA4 Hochformat, Hardcover Fadenheftung, erschienen in Deutsch und Englisch. Herausgegeben im Selbstverlag Affective & Cognitive Institute (ACI), Hochschule Offenburg
Künstliche Intelligenz (KI) und maschinelles Lernen (ML) sind zwei der großen Schlüsseltechnologien zur Automatisierung intelligenten Verhaltens mit einer großen Anzahl von Anwendungsbereichen. Neben dem Einsatz von Servicerobotern, autonomen Fahrzeugen und intelligenten Suchmaschinen erschließen sich nach und nach weitere Einsatzfelder dieser jungen Wissenschaft. Diese Arbeit verfolgt das Ziel, zu prüfen, ob ein beispielhaftes Problem aus der IT-Security für die Bearbeitung durch maschinelle Lernverfahren geeignet ist, ein entsprechendes Open-Source Toolkit, das JMLT (Java Machine Learning Toolkit) zu dessen Bearbeitung zu entwickeln und mit diesem das Problem zu bearbeiten und die erhaltenen Ergebnisse auszuwerten, um letztendlich die Beantwortung der Eingangsfrage zu verifizieren.
Mit dieser Arbeit entsteht ein frei zugängliches, umfangreiches Open-Source Toolkit, dass jedem Interessierten zur freien Verfügung gestellt wird. Dieses bietet eine ganze Palette an Möglichkeiten, Daten zu verarbeiten, zu modifizieren, mit verschiedenen Methoden des maschinellen Lernens zu bearbeiten und die Ergebnisse grafisch anzuzeigen. Die Mächtigkeit dieses Toolkits wird sich im Laufe dieser Arbeit ergeben. Zur Verwendung sind grundlegende Java-Kenntnisse notwendig.
Die vorliegende Bachelorarbeit untersucht die Anwendung der Transformer-Architektur bei der Entwicklung eines Chatbots für die Auskunft von Studieninformationen. Sie bietet eine gründliche Einführung in Chatbots, deren Funktionsweise und Klassifikation sowie in die Grundlagen neuronaler Netzwerke, Deep Learning und Natural Language Processing. Insbesondere die Transformer-Architektur und ihre Hauptkomponenten werden eingehend analysiert. Im Zuge dessen werden auch aktuelle Forschungen im Bereich Large Language Models und Fine-Tuning berücksichtigt.
Im praktischen Teil erfolgt die Darstellung der Konzeption, Implementierung und Evaluierung eines Chatbots für die Studienauskunft. Der erstellte Chatbot nutzt eine semantische Suche in Kombination mit einem Large Language Model, was sich als attraktive Alternative zu herkömmlichen Chatbots erweist. Zwar ist der aktuelle Entwicklungsstand des Chatbots noch nicht für die produktive Nutzung geeignet, dennoch zeigt er Potenzial für vielfältige Einsatzmöglichkeiten bei fortlaufender Entwicklung.
Die Arbeit schließt mit einer Diskussion ethischer Aspekte und zeigt zukünftige Forschungsmöglichkeiten auf. Die erzielten Erkenntnisse könnten für eine Vielzahl von Kontexten relevant sein und einen signifikanten Beitrag zur Entwicklung effizienter und genauer Informationsabfragesysteme leisten.
In dieser Arbeit wird untersucht, wie künstliche Intelligenz das Online-Marketing künftig beeinflussen wird und welche Chancen und Risiken dessen Einsatz in der Online-Marketing-Automation bietet. Dazu wurden zunächst Grundlagen des Online-Marketings, der Marketing-Automation, Big Data und der künstlichen Intelligenz dargelegt. Außerdem wurde ermittelt, welche Prozesse im Online-Marketing grundsätzlich automatisierbar sind und welche Einsatzmöglichkeiten von künstlicher Intelligenz im Online-Marketing existieren. Darüber hinaus erfolgte eine Analyse des Potenzials von künstlicher Intelligenz für das Online-Marketing innerhalb der Marketing-Automation. Dabei wurde der Status Quo untersucht, sowie Praxisbeispiele der erfolgreichen Anwendung von künstlicher Intelligenz im Online-Marketing aufgezeigt. Anschließend wurden die Chancen und Risiken näher beleuchtet. Auf Basis der Erkenntnisse und mehreren Expertenmeinungen wurde außerdem eine Prognose für den künftigen Einsatz von künstlicher Intelligenz im Online-Marketing gestellt.