Refine
Document Type
- Part of a Book (4)
- Contribution to a Periodical (3)
- Article (unreviewed) (2)
- Bachelor Thesis (1)
- Conference Proceeding (1)
- Other (1)
- Report (1)
Conference Type
- Konferenzartikel (1)
Keywords
- Datenqualität (13) (remove)
Institute
Open Access
- Open Access (7)
- Closed Access (4)
- Closed (2)
- Diamond (1)
Künstliche Intelligenz gilt immer noch als eine der zukunftsweisenden Technologien, die viele Bereiche wie etwa Medizin, Handel, Verkehr und öffentliche Verwaltung revolutioniert. So scheint es nicht verwunderlich, dass bereits knapp jedes fünfte Unternehmen in Deutschland zurzeit KI-Systeme implementiert oder zumindest ihren Einsatz plant. Besonders hoch im Kurs stehen KI-Projekte, um Daten zu analysieren. Ganze 70 Prozent der Unternehmen sehen hier das größte Potenzial, so die Ergebnisse einer Umfrage von PWC [1]. Dennoch lauern einige Stolpersteine, wollen Unternehmen intelligente Datenprojekte umsetzen. Welche Hürden auftauchen können und wie sich diese meistern lassen, erläutert dieser Artikel anhand eines KI-Projektes zur Analyse von Geschäftspartnerdaten [2].
In die neuen Verfahren, wie Big Data, Machine Learning und Predictive Analytics, werden von Marketing und Vertrieb hohe Erwartungen gesetzt. Doch dem „Garbage in – Garbage out“-Prinzip folgend lassen die Ergebnisse zu wünschen übrig. Grund hierfür ist häufig eine nicht ausreichende Qualität in den zugrunde liegenden Kundendaten. Dieser Beitrag beleuchtet diese Problematik anhand der Wert-Pyramide. Je weiter oben die Daten in der Wertschöpfungskette angesiedelt sind, desto höher ist deren Qualität und umso mehr Wert haben sie für das Unternehmen. Darüber hinaus wird aufgezeigt, wie sich mit Hilfe von Monitoring-Systemen, wie einer Datenqualitäts-Scorecard, Aussagen zur Datenqualität treffen und Verbesserungen derselben messen lassen. So wird der tatsächliche Wert von Daten für Unternehmen ersichtlich.
Die Mehrheit der deutschen Unternehmen verspricht sich aus KI-gestützter Datenanalyse einen großen Geschäftsvorteil. Doch gerade das Thema Datenbestand ist eine der größten, immer noch häufig unterschätzten Hürde beim Trainieren und Einführen von KI-Algorithmen. Im Folgenden sind vier konkrete Erfahrungen und Tipps für KI- & Datenanalyseprojekte in Unternehmen aufgeführt.
Datenanalyse mithilfe von Künstlicher Intelligenz (KI) – für 70 Prozent der von den Beratern von PWC befragten Unternehmen ist dies das vielversprechendste Einsatzszenario. Doch so attraktiv die Vision erscheint, mittels KI das eigene Geschäft oder gar eine ganze Branche zu revolutionieren, so handfest sind die Herausforderungen, die sich in der Praxis ergeben. Ein häufiges Problem ist ein bereits beim Start eines Projekts mangelhafter Datenbestand. Die KI mit qualitativ schlechten Daten zu trainieren, macht keinen Sinn, da sie falsche Informationen lernt. Ohne den Einsatz gewisser Automatisierungen und KI ist es wiederum mühsam, die unzureichende Datenbasis zu verbessern.
Eine Frage der Qualität
(2021)
Künstliche Intelligenz (KI) kommt laut einer Interxion-Studie bei 96 Prozent der Schweizer Unternehmen zum Einsatz. Allerdings gaben nur 22 Prozent der Schweizer IT-Entscheider an, dass sie KI bereits für einen ersten Anwendungsfall einsetzen. Dabei ist KI etwa im Datenmanagement sehr hilfreich – sofern Qualität und Quantität der Trainingsdaten stimmen.
Onlineshops in Deutschland verschenken sehr viel Potenzial im Registrierungs- und Bestellprozess. Dabei lässt sich mit wenigen gezielten Verbesserungen der Checkout barrierefrei und smart gestalten. Zu diesem Ergebnis kommt eine heuristische Untersuchung der Top 100 Onlineshops von Uniserv gemeinsam mit der Hochschule Offenburg. Die Eingabe und Qualität von Adressdaten spielen dabei eine besondere Rolle.
Die Covid-19-Pandemie hat die Welt verändert. Alle Wirtschaftszweige wie etwa der Handel sahen sich von heute auf morgen mit einer veränderten Realität konfrontiert. Diese Entwicklung hat einerseits den schon vor der Pandemie wahrnehmbaren Digitalisierungsdruck, vor allem auf den stationären Handel, massiv erhöht. Und andererseits die Daten von Kundinnen und Kunden in das Zentrum der Aufmerksamkeit gerückt, da in der digitalen Welt der persönliche Kontakt zur Kundschaft fehlt. Dieser Beitrag beleuchtet die Bedeutung von Kundendaten, Datenqualität und Datenmanagement als wesentliche Erfolgsfaktoren für den Handel in dieser herausfordernden Situation. Er zeigt auf, wie Datenverantwortliche im Handel aus dem Wissen um die Daten mittels Identity Resolution klare Profile von Kundinnen und Kunden entwickeln und diese plattformbasiert ausrollen können. Hierzu wird das neue Konzept des Customer Digital Twins eingeführt. Die abschließenden Handlungsempfehlungen bieten eine ‚Arbeitsanweisung in fünf Schritten‘ für eine aktuelle, vollständige und verlässliche Datenbasis, als Grundlage für den datenorientierten stationären und Onlinehandel.
Intelligentes Data Governance und Data Management – Neue Chancen für die Kundendatenbewirtschaftung
(2022)
Mit der Digitalisierung haben sich für Marketing und Vertrieb vielzählige unterschiedliche neue Kanäle, Werbeformate und Zielgruppen eröffnet. Expertinnen und Experten schätzen, dass ca. 4.000 bis 10.000 Werbe- und Markenbotschaften täglich auf jede und jeden von uns einprasseln. Mögen diese Zahlen umstritten und eine Zahl zwischen 300 bis 500 Botschaften pro Tag realistischer sein, so ist dies noch immer eine Menge, die kaum noch verarbeitet und wahrgenommen werden kann. Als Reaktion auf diese Werbemasse und Reizüberflutung haben Konsumentinnen und Konsumenten zum Teil eine Art „Werbeblindheit“ entwickelt.
Für Unternehmen wird daher zunehmend herausfordernder, ihre Zielgruppe aktiv zu erreichen. Was können Unternehmen nun tun, um dennoch nachhaltig Aufmerksamkeit zu gewinnen, und wie kann Künstliche-Intelligenz-gestütztes Kundendatenmanagement dabei helfen?
Marketing and sales have high expectations of new methods such as Big Data, artificial intelligence, machine learning, and predictive analytics. But following the “garbage in—garbage out” principle, the results leave much to be desired. The reason is often insufficient quality in the underlying customer data. This article sheds light on this problem using the data quality and value pyramid as an example. The higher up the value-added pyramid the data is located, the higher its quality and the more value it generates for a company. In addition, we show how the use of monitoring systems, such as a data quality scorecard, makes data quality visible and improvements measurable. In this way, the actual value of data for companies becomes obvious and manageable.
Kundendaten im E-Commerce – Optimierungspotenzial im Checkout-Prozess des deutschen Online-Handels
(2023)
Die Gestaltung eines benutzungsfreundlichen Checkout-Prozesses ist für den Erfolg des E-Commerce von großer Bedeutung. Die Abfrage der Kundendaten bildet einen wichtigen Teil der Customer Journey. Auf der einen Seite wollen die Handelsunternehmen so viel wie möglich über ihre Kundschaft erfahren, um möglichst zielgenaue Angebote und Marketingmaßnahmen ausspielen und das perfekte Einkaufserlebnis generieren zu können. Auf der anderen Seite möchten sich die Kundinnen und Kunden beim Online-Shopping auf den Kauf konzentrieren und erwarten einen reibungslosen Ablauf. Der Checkout-Prozess ist in diesem Zusammenhang ein kritischer Punkt. Dies spiegelt sich auch in den hohen Warenkorbabbruchraten wider. Um Online-Shoppende nachhaltig zu begeistern, gibt es noch viel Raum für Verbesserungen. Mit dem Ziel, den Status quo im deutschen Online-Handel besser zu verstehen und Usability und User Experience für eine höhere Konvertierungsrate zu optimieren, untersuchte die hier vorgestellte Forschungsarbeit den Anmelde- und Checkout-Prozess der 100 umsatzstärksten Online-Shops in Deutschland. Es werden die Ergebnisse der Studie präsentiert und aufgezeigt, an welchen Stellen Optimierungspotenzial besteht – bspw. bei zu komplizierten Formularen, unnötigen Datenabfragen oder erzwungenen Registrierungen – sowie Vorschläge für die Praxis des Online-Handels diskutiert.
Garbage in, Garbage out: How does ambiguity in data affect state-of-the-art pedestrian detection?
(2024)
This thesis investigates the critical role of data quality in computer vision, particularly in the realm of pedestrian detection. The proliferation of deep learning methods has emphasised the importance of large datasets for model training, while the quality of these datasets is equally crucial. Ambiguity in annotations, arising from factors like mislabelling, inaccurate bounding box geometry and annotator disagreements, poses significant challenges to the reliability and robustness of the pedestrian detection models and their evaluation. This work aims to explore the effects of ambiguous data on model performance with a focus on identifying and separating ambiguous instances, employing an ambiguity measure utilizing annotator estimations of object visibility and identity. Through accurate experimentation and analysis, trade-offs between data cleanliness and representativeness, noise removal and retention of valuable data emerged, elucidating their impact on performance metrics like the log average miss-rate, recall and precision. Furthermore, a strong correlation between ambiguity and occlusion was discovered with higher ambiguity corresponding to greater occlusion prevalence. The EuroCity Persons dataset served as the primary dataset, revealing a significant proportion of ambiguous instances with approximately 8.6% ambiguity in the training dataset and 7.3% in the validation set. Results demonstrated that removing ambiguous data improves the log average miss-rate, particularly by reducing the false positive detections. Augmentation of the training data with samples from neighbouring classes enhanced the recall but diminished precision. Error correction of wrong false positives and false negatives significantly impacts model evaluation results, as evidenced by shifts in the ECP leaderboard rankings. By systematically addressing ambiguity, this thesis lays the foundation for enhancing the reliability of computer vision systems in real-world applications, motivating the prioritisation of developing robust strategies to identify, quantify and address ambiguity.