Refine
Year of publication
Document Type
- Contribution to a Periodical (95) (remove)
Has Fulltext
- no (95) (remove)
Keywords
- Datenmanagement (4)
- Datenqualität (4)
- Kundendaten (4)
- Maschinelles Lernen (4)
- Künstliche Intelligenz (3)
- Ablation (2)
- CST (2)
- Genossenschaften (2)
- HF-Ablation (2)
- Herzrhythmusmodell (2)
Institute
- Fakultät Medien und Informationswesen (M+I) (49)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (17)
- Fakultät Betriebswirtschaft und Wirtschaftsingenieurwesen (B+W) (15)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (7)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (6)
- IUAS - Institute for Unmanned Aerial Systems (2)
- Zentrale Einrichtungen (2)
Massive Umwälzungen im Marktumfeld, verstärkt durch disruptive Technologien, stellen viele Unternehmen vor die existenzielle Frage, wie sie ihr etabliertes Geschäftsmodell zukunftsfähig weiterentwickeln können beziehungsweise wie sie sich unter Umständen grundlegend neu aufstellen müssen. Volatilität, Unsicherheit, Komplexität und Ambiguität (kurz VUKA) sind in diesem Kontext jene ungünstigen Begleiterscheinungen, die auch genossenschaftliche Unternehmen beeinflussen. Die vielfältigen Herausforderungen im Unternehmensumfeld, wie beispielsweise ungünstige demografische Entwicklungen, eine zunehmende Urbanisierung bei steigendem Bedarf an regionaler Daseinsvorsorge, Wettbewerbsdruck durch neue Geschäftsmodelle und Konkurrenten infolge der Künstlichen Intelligenz beziehungsweise Digitalisierung – zum Beispiel durch FinTechs – bedingen die Suche nach Orientierung, nach einem strategischen Kompass sowohl für Politik, Wirtschaft und Gesellschaft.
Mit dem Wetter sparen
(2010)
Künstliche Intelligenz gilt immer noch als eine der zukunftsweisenden Technologien, die viele Bereiche wie etwa Medizin, Handel, Verkehr und öffentliche Verwaltung revolutioniert. So scheint es nicht verwunderlich, dass bereits knapp jedes fünfte Unternehmen in Deutschland zurzeit KI-Systeme implementiert oder zumindest ihren Einsatz plant. Besonders hoch im Kurs stehen KI-Projekte, um Daten zu analysieren. Ganze 70 Prozent der Unternehmen sehen hier das größte Potenzial, so die Ergebnisse einer Umfrage von PWC [1]. Dennoch lauern einige Stolpersteine, wollen Unternehmen intelligente Datenprojekte umsetzen. Welche Hürden auftauchen können und wie sich diese meistern lassen, erläutert dieser Artikel anhand eines KI-Projektes zur Analyse von Geschäftspartnerdaten [2].
Eine Frage der Qualität
(2021)
Die Mehrheit der deutschen Unternehmen verspricht sich aus KI-gestützter Datenanalyse einen großen Geschäftsvorteil. Doch gerade das Thema Datenbestand ist eine der größten, immer noch häufig unterschätzten Hürde beim Trainieren und Einführen von KI-Algorithmen. Im Folgenden sind vier konkrete Erfahrungen und Tipps für KI- & Datenanalyseprojekte in Unternehmen aufgeführt.
Die Zukunftsmacher
(2006)
After Image
(2013)
In vielen Schulgebäuden der Region südlicher Oberrhein - besonders bei solchen, die energetisch saniert wurden und wo der Schulbetrieb auf Ganztagsunterricht umgestellt wurde - zeigt sich seit Beginn dieses Jahrhunderts eine verstärkte Über-hitzungstendenz im Sommer. Im Rahmen der Initiative Forschungskooperation Hochschule/Stadt für mehr Energieeffizienz beim Betrieb öffentlicher Gebäude und Liegenschaften beauftragte die Stadt Offenburg die Forschungsgruppe nachhaltige Energietechnik (Forschungsgruppe net) der Hochschule Offenburg mit der Ausarbeitung eines Konzeptes für die natürliche Gebäudeklimatisierung in Klassenzimmern. Besonderes Augenmerk galt dabei neben bautechnischen Maßnahmen der Ge-bäudeautomation. Da ein vollautomatisierter Betrieb technisch und finanziell für viele kommunalen Betreiber unrealistisch ist, ist zudem die Einbindung der Nutzer und Mitarbeiter vor Ort unerlässlich. Die Ergebnisse aus dem Projekt stehen einer breiten Öffentlichkeit in Form eines Leitfadens zur Verfügung.
Bei vielen Schulungen, Unterrichten und Weiterbildungen kommen PowerPoint-Präsentationen zum Einsatz, welche durch epische Länge, Unmengen von Informationen und Text charakterisiert sind. Zur Folge haben kann dies, dass die meisten Zuhörer binnen kürzester Zeit gedanklich abschalten, den Wortregen über sich ergehen lassen und dabei andere Dinge in den Fokus ihrer Aufmerksamkeit stellen. Die Autoren zeigen, wie und warum der »Zuhörer« zu einem »Zuschauer« werden sollte – sprich: die zu vermittelnden Aspekte und Informationen als einfache Bilder komprimiert darzustellen. Der folgende Beitrag setzt sich mit dieser Art von Perspektivenwechsel kontrovers auseinander und gibt für den Praxisalltag mögliche Lösungsansätze.
The Humboldt’s digital library will adhere to the standards for digital libraries established by the Open Archives Initiative (OAI) and the tools EPRINTS and DSPACE to provide the Web services and determine the most effective way to establish dynamic linking and knowledge based searching of information within the archive.
After approximately 200 years, a comprehensive access to the texts of Humboldt's extraordinary exploration of the Americans is within sight. To open the legacy to the public for free access the Humboldt Digital Library (HDL) Project has been developing a dynamic amount of data related to studies of Alexander von Humboldt. The Library includes a range of texts, tables and images, as well as many tools that assist mining the data and navigating the system.
The HDL aims to provide an environment in which researchers can work more effectively with a wider variety of primary source materialsùtextual as well as visual. Moreover, the greatest advantage of this dynamic system is its capability to connect data from diverse locations in Humboldt's twenty-nine volumes and allow comparison with modern scientific knowledge and developments.
HDL can recreate the context of a particular text, making it possible to view images, geo-referenced and interactive maps, information about plants and animals, as well as scientific data relevant to Humboldt's observations. By introducing Web 2.0 technology implementations, we are providing new visualizations of the information published in this Digital Library. The perception of the Information Architecture is changing in the era of Web 2.0. By providing more search facilities, creating an academic network around our library and implementing new ways of multi-dimensional navigation we argue that Information Architecture can be extended to new methods of information representation. Facilitating the user navigation to the required information will always be an aim for the managers of high volume data systems. This can be achieved by implementing Information Retrieval modules based on user profiling and by improving the visualization features.
Die Industrie wird mehr denn je konfrontiert mit verkürzten Durchlaufzeiten, zunehmenden Forderungen im Hinblick auf die Produkthaftung und steigenden Ansprüchen an das Qualitäts-Management wie z.B. DIN/ISO 9001. Hinzu kommen Faktoren wie die Globalisierung. Internationale Kooperationen führen zu einer parallelen und koordinierten Zusammenarbeit verschiedener Einheiten eines Unternehmens einerseits und verschiedener Unternehmen andererseits. Ein probater Ansatz, diesen Herausforderungen mit Hilfe von Softwarelösungen gerecht zu werden, verbirgt sich hinter dem Kürzel PLM (Product-Lifecycle-Management). PLM soll ermöglichen, die Produkte schneller und besser zur Marktreife zu bringen, indem allgegenwärtig Informationen zu Produkt und Produktion bereitstehen, Entscheidungen und Abläufe besser abgesichert und zudem die Kosten gesenkt werden können. PLM umfasst das Cross Enterprise Engineering als Nachfolger von Simultaneous Engineering und Concurrent Design sowie das Management der auf das Produkt bezogenen geistigen Eigentumsrechte. Beide Methoden basieren darauf, die Engineering-Tätigkeiten über den gesamten Produktlebenszyklus organisatorisch und systemtechnisch zu unterstützen. PLM reiht sich zusammen mit CRM (Customer-Relationship-Management), SCM (Supply-Chain-Management), MRP (Material Resource Planning) und ERM (Enterprise-Resource-Management) in die strategischen Backbones eines Unternehmens ein. Um PLM zu verstehen, muss man sich zunächst mit den Funktionen eines Systems zum Produktdaten-Management (PDM) befassen: Diese beinhalten im Wesentlichen die Verwaltung von Produktdaten und Konstruktionsprozessen, die Gruppentechnik und Klassifikation, das Ein- und Ausgabe-Management sowie die Integration mit den Erzeugersystemen (CAD-M, CAD-E, Office etc.) und mit der Produktplanung und -steuerung (PPS). PLM-Systeme sind evolutionär aus den existierenden PDM-Systemen entstanden, enthalten immer deren gesamte PDM-Funktionen als Basis. PLM integriert darüber hinaus alle produktrelevanten Informationen und Prozesse innerhalb eines Unternehmens über verschiedene Standorte hinweg und außerhalb mit Zulieferern, Partnern und Kunden, wobei hierfür das Internet eine wesentliche Rolle spielt.
Phishing im Emissionshandel
(2010)
BGH regierung-oberfranken.de
(2012)
BGH Insertionsofferte
(2012)
BGH "HappyDigits"
(2010)
Ist Cloud datenschutzwidrig?
(2012)
Headhunting per e-Mail
(2010)