Refine
Document Type
- Part of a Book (5)
- Contribution to a Periodical (3)
- Article (unreviewed) (2)
- Conference Proceeding (1)
- Other (1)
- Working Paper (1)
Conference Type
- Konferenzartikel (1)
Is part of the Bibliography
- yes (13) (remove)
Keywords
- Datenmanagement (13) (remove)
Institute
Open Access
- Open Access (7)
- Closed Access (4)
- Closed (1)
We propose secure multi-party computation techniques for the distributed computation of the average using a privacy-preserving extension of gossip algorithms. While recently there has been mainly research on the side of gossip algorithms (GA) for data aggregation itself, to the best of our knowledge, the aforementioned research line does not take into consideration the privacy of the entities involved. More concretely, it is our objective to not reveal a node's private input value to any other node in the network, while still computing the average in a fully-decentralized fashion. Not revealing in our setting means that an attacker gains only minor advantage when guessing a node's private input value. We precisely quantify an attacker's advantage when guessing - as a mean for the level of data privacy leakage of a node's contribution. Our results show that by perturbing the input values of each participating node with pseudo-random noise with appropriate statistical properties (i) only a minor and configurable leakage of private information is revealed, by at the same time (ii) providing a good average approximation at each node. Our approach can be applied to a decentralized prosumer market, in which participants act as energy consumers or producers or both, referred to as prosumers.
Marketing and sales have high expectations of new methods such as Big Data, artificial intelligence, machine learning, and predictive analytics. But following the “garbage in—garbage out” principle, the results leave much to be desired. The reason is often insufficient quality in the underlying customer data. This article sheds light on this problem using the data quality and value pyramid as an example. The higher up the value-added pyramid the data is located, the higher its quality and the more value it generates for a company. In addition, we show how the use of monitoring systems, such as a data quality scorecard, makes data quality visible and improvements measurable. In this way, the actual value of data for companies becomes obvious and manageable.
Die Covid-19-Pandemie hat die Welt verändert. Alle Wirtschaftszweige wie etwa der Handel sahen sich von heute auf morgen mit einer veränderten Realität konfrontiert. Diese Entwicklung hat einerseits den schon vor der Pandemie wahrnehmbaren Digitalisierungsdruck, vor allem auf den stationären Handel, massiv erhöht. Und andererseits die Daten von Kundinnen und Kunden in das Zentrum der Aufmerksamkeit gerückt, da in der digitalen Welt der persönliche Kontakt zur Kundschaft fehlt. Dieser Beitrag beleuchtet die Bedeutung von Kundendaten, Datenqualität und Datenmanagement als wesentliche Erfolgsfaktoren für den Handel in dieser herausfordernden Situation. Er zeigt auf, wie Datenverantwortliche im Handel aus dem Wissen um die Daten mittels Identity Resolution klare Profile von Kundinnen und Kunden entwickeln und diese plattformbasiert ausrollen können. Hierzu wird das neue Konzept des Customer Digital Twins eingeführt. Die abschließenden Handlungsempfehlungen bieten eine ‚Arbeitsanweisung in fünf Schritten‘ für eine aktuelle, vollständige und verlässliche Datenbasis, als Grundlage für den datenorientierten stationären und Onlinehandel.
Intelligentes Data Governance und Data Management – Neue Chancen für die Kundendatenbewirtschaftung
(2022)
Mit der Digitalisierung haben sich für Marketing und Vertrieb vielzählige unterschiedliche neue Kanäle, Werbeformate und Zielgruppen eröffnet. Expertinnen und Experten schätzen, dass ca. 4.000 bis 10.000 Werbe- und Markenbotschaften täglich auf jede und jeden von uns einprasseln. Mögen diese Zahlen umstritten und eine Zahl zwischen 300 bis 500 Botschaften pro Tag realistischer sein, so ist dies noch immer eine Menge, die kaum noch verarbeitet und wahrgenommen werden kann. Als Reaktion auf diese Werbemasse und Reizüberflutung haben Konsumentinnen und Konsumenten zum Teil eine Art „Werbeblindheit“ entwickelt.
Für Unternehmen wird daher zunehmend herausfordernder, ihre Zielgruppe aktiv zu erreichen. Was können Unternehmen nun tun, um dennoch nachhaltig Aufmerksamkeit zu gewinnen, und wie kann Künstliche-Intelligenz-gestütztes Kundendatenmanagement dabei helfen?
Die Mehrheit der deutschen Unternehmen verspricht sich aus KI-gestützter Datenanalyse einen großen Geschäftsvorteil. Doch gerade das Thema Datenbestand ist eine der größten, immer noch häufig unterschätzten Hürde beim Trainieren und Einführen von KI-Algorithmen. Im Folgenden sind vier konkrete Erfahrungen und Tipps für KI- & Datenanalyseprojekte in Unternehmen aufgeführt.
Künstliche Intelligenz gilt immer noch als eine der zukunftsweisenden Technologien, die viele Bereiche wie etwa Medizin, Handel, Verkehr und öffentliche Verwaltung revolutioniert. So scheint es nicht verwunderlich, dass bereits knapp jedes fünfte Unternehmen in Deutschland zurzeit KI-Systeme implementiert oder zumindest ihren Einsatz plant. Besonders hoch im Kurs stehen KI-Projekte, um Daten zu analysieren. Ganze 70 Prozent der Unternehmen sehen hier das größte Potenzial, so die Ergebnisse einer Umfrage von PWC [1]. Dennoch lauern einige Stolpersteine, wollen Unternehmen intelligente Datenprojekte umsetzen. Welche Hürden auftauchen können und wie sich diese meistern lassen, erläutert dieser Artikel anhand eines KI-Projektes zur Analyse von Geschäftspartnerdaten [2].
Datenanalyse mithilfe von Künstlicher Intelligenz (KI) – für 70 Prozent der von den Beratern von PWC befragten Unternehmen ist dies das vielversprechendste Einsatzszenario. Doch so attraktiv die Vision erscheint, mittels KI das eigene Geschäft oder gar eine ganze Branche zu revolutionieren, so handfest sind die Herausforderungen, die sich in der Praxis ergeben. Ein häufiges Problem ist ein bereits beim Start eines Projekts mangelhafter Datenbestand. Die KI mit qualitativ schlechten Daten zu trainieren, macht keinen Sinn, da sie falsche Informationen lernt. Ohne den Einsatz gewisser Automatisierungen und KI ist es wiederum mühsam, die unzureichende Datenbasis zu verbessern.
Eine Frage der Qualität
(2021)