Refine
Year of publication
Document Type
- Conference Proceeding (1253)
- Article (reviewed) (687)
- Bachelor Thesis (604)
- Article (unreviewed) (566)
- Part of a Book (460)
- Contribution to a Periodical (287)
- Book (242)
- Master's Thesis (208)
- Other (142)
- Working Paper (105)
Conference Type
- Konferenzartikel (950)
- Konferenz-Abstract (156)
- Konferenzband (77)
- Sonstiges (42)
- Konferenz-Poster (32)
Language
- German (2867)
- English (1981)
- Other language (5)
- Russian (3)
- Multiple languages (2)
- French (1)
- Spanish (1)
Keywords
- Mikroelektronik (62)
- Digitalisierung (48)
- Marketing (47)
- Social Media (40)
- COVID-19 (37)
- E-Learning (35)
- RoboCup (33)
- Kommunikation (32)
- Künstliche Intelligenz (32)
- Dünnschichtchromatographie (29)
Institute
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (1118)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (1103)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (917)
- Fakultät Wirtschaft (W) (650)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (565)
- Fakultät Medien (M) (ab 22.04.2021) (384)
- INES - Institut für nachhaltige Energiesysteme (245)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (161)
- Zentrale Einrichtungen (81)
- IMLA - Institute for Machine Learning and Analytics (79)
Open Access
- Closed Access (1708)
- Open Access (1693)
- Closed (756)
- Bronze (345)
- Diamond (92)
- Gold (77)
- Hybrid (50)
- Grün (16)
Das Thema des Forschungsprojekts ist Digitaltechnik im Spannungsfeld von Freiheitsversprechen und Totalüberwachung. Das Projekt „futur iii“ ist nicht nur der Name, sondern zugleich der Logo und URL für Publikationen.
Dieses Projekt wird im intensiven Dialog und z.T. in Kooperationen mit Kolleginnen und Kollegen verschiedener Hochschulen und Bildungseinrichtungen realisiert. Das übergreifende Thema ist bereits seit dem letzten Forschungssemester 2010 die Veränderung des Web durch Kommerzialisierung und Monopolisierung sowie die kritisch-reflektierende Auseinandersetzung mit Digitaltechnik bzw. Geräten und Diensten unter besonderer Berücksichtigung der konkreten Technikfolgeabschätzung (TA) für den Einsatz digitaler Bildschirmmedien und -dienste im Kontext von Lehre und Lernen.
Kinder am Bildschirm
(2017)
Wenn in Studien über digitale Medien und Kinder berichtet wird, liegt der Fokus meist darauf, Kinder „fit für die digitale Zukunft“ zu machen. Welche Folgen eine zu frühe und nicht regulierte Nutzung von Bildschirmmedien bei Kindern und Jugendlichen haben kann, zeigt sich in den Praxen der Kinderärzte. Das Spektrum der zu behandelnden Erkrankungen und der Beratungsbedarf bei psychosozialen Problemen haben sich in den letzten Jahren grundlegend verändert, schreiben die Verantwortlichen der BLIKK-Studie.
Schriftliche Stellungnahme Lankau zu:
a) Dringlicher Antrag der Fraktion der FDP betreffend Hessen 4.0 – Agenda Digitales Hessen (Drucksache 19/4111)
b) Großen Anfrage der Abg. Eckert, Barth, Decker, Degen, Faeser, Frankenberger, Geis, Gremmels, Grüger, Lotz, Dr. Sommer, Weiß (SPD) und Fraktion betreffend Auswirkungen der Digitalisierung auf Arbeit und Wirtschaft in Hessen (Drucksache 19/2896) und
c) Antwort der Landesregierung auf die Große Anfrage der Abg. Eckert, Barth, Decker, Degen, Faeser, Frankenberger, Geis, Gremmels, Grüger, Lotz, Dr. Sommer, Weiß (SPD) und Fraktion betreffend Auswirkungen der Digitalisierung auf Arbeit und Wirtschaft in Hessen (Drucksache 19/4357)
Das könnte die Zukunft des Lernens sein: Ab 2036 werden Eltern einen virtuellen Lehrer bereits für ihre fünfjährigen Kinder abonnieren. Die Stimme des Computers wird uns durchs Leben begleiten, vom Kindergarten über Schule und Universität bis zur beruflichen Weiterbildung. Der Computer erkennt, was ein Schüler schon kann oder wo Nachholbedarf besteht. Wir werden uns als lernende Menschen neu erfinden … Solche und andere Dystopien über unser künftiges Leben und Lernen kann man etwa bei Fritz Breithaupt und seiner „Talking Method“ nachlesen. Doch: wollen wir so etwas?
Wenn man die Verlautbarungen aus dem Wissenschafts- und Kultusministerien verfolgt (oder den Beitrag von Saskia Esken in „Schule im Blickpunkt“ liest), scheint es für Bildungseinrichtungen nur noch ein Thema und nur noch ein Ziel zu geben: die Digitalisierung. Dabei reicht bereits die einfache Frage des „cui bono“ (wem nützt es), um zu zeigen: Die einzigen Nutznießer von Digitalagenda und Digitalpakt sind IT-Firmen – auf Kosten der Schülerinnen und Schüler, zu Lasten ihrer Selbständigkeit und damit ihrer Zukunftsperspektiven – und zum Schaden öffentlicher Bildungseinrichtungen.
Wer sich mit Digitalisierungsbestrebungen an Schulen befasst, stellt fest, dass die Tragweite der intendierten Transformation von Bildungseinrichtungen zu automatisierten Lernfabriken durch Digitaltechnik nur von Wenigen realisiert wird. Viele Beteiligte (wollen) glauben, es ginge nur um eine bessere technische Ausstattung der Lehreinrichtungen zur Unterstützung der Lehrkräfte – und übersehen, dass mit Kybernetik und Behaviorismus zwei den Menschen determinierende Theorien eine Renaissance erleben. Vertreter dieser Disziplinen glauben daran, dass sowohl der einzelne Mensch wie ganze Gesellschaften oder Sozialgemeinschaften wie ein Maschinenpark programmiert und gesteuert werden könne. Dabei werden Lernprozesse zu Akten der systematischen Selbstentmündigung umdefiniert: die Zurichtung der Lernenden auf abfragbare Kompetenzen mit Hilfe von Algorithmen und Software.
Kein Mensch lernt digital
(2017)
Die IT-Industrie hat die Bildung als Geschäftsfeld seit vielen Jahren auf der Agenda. Wirtschaftsverbände und IT-Vertreter fordern unisono, Digitaltechnik und Programmiersprachen schon in der Grundschule zu unterrichten, damit die Schülerinnen und Schüler für die digitale Zukunft gerüstet seien. Dabei ist der Nutzen digitaler Medien im Unterricht nach wie vor fragwürdig.
Ralf Lankau entlarvt in diesem Buch die wirtschaftlichen Interessen der IT-Branche und ihrer Lobbyisten. Dabei geht er sowohl auf die wissenschaftlichen Grundlagen (Kybernetik, Behaviorismus) als auch auf die technischen Rahmenbedingungen von Netzen und Cloud-Computing ein, bevor er konkrete Vorschläge für einen reflektierten und verantwortungsvollen Umgang mit Digitaltechnik im Unterricht skizziert. Die These des Autors lautet: Wir müssen uns auf unsere pädagogische Aufgabe besinnen und (digitale) Medien wieder zu dem machen, was sie im strukturierten Präsenzunterricht sind: didaktische Hilfsmittel.
Wer sich mit der Fragestellung von Autonomie – verstanden im ursprünglichen Sinn von Selbständigkeit und Unabhängigkeit – im Zusammenhang mit Kreation und Gestaltung beschäftigt, merkt schnell, dass bei aller Modernität der heutigen Digitaltechniken ein uraltes Thema auftaucht: die grundsätzliche Abhängigkeit des schöpferischen Aktes von Technik und Material, von Handwerk und Produktionsbedingungen.
Wer sich mit Digitalisierungsbestrebungen an Schulen befasst, stellt fest, dass die Tragweite der intendierten Transformation von Bildungseinrichtungen zu automatisierten Lernfabriken durch Digitaltechnik nur von Wenigen realisiert wird. Viele Beteiligte (wollen) glauben, es ginge nur um eine bessere technische Ausstattung der Lehreinrichtungen zur Unterstützung der Lehrkräfte – und übersehen, dass mit Kybernetik und Behaviorismus zwei den Menschen determinierende Theorien eine Renaissance erleben. Vertreter dieser Disziplinen glauben daran, dass sowohl der einzelne Mensch wie ganze Gesellschaften oder Sozialgemeinschaften wie ein Maschinenpark programmiert und gesteuert werden könne. Dabei werden Lernprozesse zu Akten der systematischen Selbstentmündigung umdefiniert: die Zurichtung der Lernenden auf abfragbare Kompetenzen mit Hilfe von Algorithmen und Software.
Bildung statt Profilbildung
(2018)
Der Spion im Klassenzimmer
(2018)
Die Verdinglichung des Menschen: Mit Gesundheitskarte, Selftracking und E-Health zum homo digitalis
(2016)
Die öffentliche Diskussion über den Einsatz digitaler Medien in Schule und Unterricht verkennt die zugrundeliegenden Interessen. Seit über 30 Jahren wird jede neue Generation von Digitaltechnik in die Schulen gedrückt. 1984 waren es Personal Computer (PC), in den 1990er Jahren Laptops, aktuell sind es WLAN, Tablets und Smartphones. Die Argumente sind identisch: Angeblich sorgen die Geräte für moderneren, innovativeren Unterricht, höhere Motivation der Schüler/innen, bessere Lernergebnisse. Wissenschaftlich valide Studien belegen das Gegenteil. Der pädagogische Nutzen war und ist bis heute negativ. PISA-Koordinator Andreas Schleicher: „Wir müssen es als Realität betrachten, dass Technologie in unseren Schulen mehr schadet als nützt.“ (Schleicher, 2016) Der Aktionsrat Bildung bestätigt in einer Studie für die Vereinigung der Bayerischer Wirtschaft (vbw) „statistisch signifikant niedrigere Kompetenzen in den Domänen Mathematik und Naturwissenschaften“, wenn Grundschülerinnen und Grundschüler im Unterricht mindestens einmal wöchentlich Computer einsetzen im Vergleich zu Grundschulkindern, die seltener als einmal pro Woche Computer im Unterricht nutzten - und fordert trotzdem, die Schulen müssten schneller digitalisiert werden.
Es geht offensichtlich um Anderes. Es sind wirtschaftliche Interessen der IT-Wirtschaft und der Global Education Industries (GEI), die die Bildungsmärkte nach angelsächsischem Vorbild privatisieren und kommerzialisieren wollen. Es sind zugleich die Geschäftsmodelle der Daten-Ökonomie, die alle Lebensbereiche verdaten und Menschen per Algorithmus und kybernetischen Modellen steuern wollen – wie in den 1950er Jahren (Behaviorismus, programmiertes Lernen). Die Digitalisierung ist „nur“ die technische Infrastruktur zur Datenerhebung, die empirische Bildungsforschung das Instrumentarium zur Quantifizierung auch des Sozialen (Mau, 2018). Nach Arbeitsmarkt und Kommunikation stehen derzeit Bildung und Gesundheit auf der Agenda der Digitalisten. Das Problem: Werden soziale Systeme nach der binären Logik der IT umgebaut, verlieren sie alles Soziale. Daher ist die vordringliche Aufgabe der Pädagogik, die derzeit dominierenden Denkstrukturen von BWL und IT, Empirie, Kennzahlenfixierung und behavioristischen Lerntheorien als dysfunktionalen und a-sozialen Irrweg zu kennzeichnen und stattdessen Schule und Unterricht wieder vom Menschen und seinen Lernprozessen her zu denken.
Die Digitalisierung aller Lebensbereiche ist kein Technik-, sondern ein Systemwechsel. Alles, was wir im Netz tun, wird verdatet; idealiter prenatal bis postmortal. Dieser Datenpool wird mit immer ausgefeilteren Algorithmen des Big Data Mining analysiert und mit Methoden der Empirie, Statistik und Mustererkennung ausgewertet. Der Mensch wird zum Datensatz. Je früher Menschen psychometrisch vermessen werden können, desto exaktere Persönlichkeits-, Lern- und Leistungsprofile entstehen – und umso leichter ist die Einflussnahme. Das ist der Grund für die Forderung nach Digitaltechnik in KiTas und Grundschulen. Menschen werden daran gewöhnt zu tun, was Maschinen ihnen sagen. Das ist Gegenaufklärung aus dem Silicon Valley per App und Web. Wie Alternativen aussehen können, zeigt dieser Beitrag.
Controlling ist ein Begriff aus der Wirtschaftslehre und bezeichnet nicht Kontrollle, sondern Prozeßsteuerung. Definierte Ziele werden durch kleinteilige Messungen und permanente Überwachung aller Arbeitsschritte und Handlungen der beteiligten Personen protokolliert und stetig optimiert. Dieses Konzept der Planungs-, Koordinations- und Kontrollaufgaben wird beim „Bildungs-Controlling“ auf Schulen und Hochschulen übertragen. Ziel ist dabei, entsprechend der Gary Beckerschen Humankapitaltheorie, die Produktion von Humankapital mit validierten Kompetenzen. Zwei Probleme gibt es dabei: Lernen und vor allem Verstehen lassen sich nicht automatisieren und auch nicht automatisiert prüfen. Und: Sozialsysteme unter dem Regime der Kennzahlen des Quality Management (QM) oder Total Quality Management (TQM) verlieren ihre Eigenschaft als soziale Systeme
Wer sich als Pädagoge und Wissenschaftler mit dem Thema „Digitalisierung und Schule“ befasst, stellt fest, dass nur Wenige die Tragweite der beabsichtigten Transformation von Bildungseinrichtungen zu automatisierten, algorithmisch gesteuerten Lernfabriken realisieren. Dabei wird übersehen, dass mit Theorien und empirischen Modellen wie der „datengestützten Schulentwicklung“ und „Learning Analytics“ grundlegende Paradigmenwechsel verbunden sind, die das humane wie das christliche Menschenbild erschüttern. Mit Kybernetik und Behaviorismus auf der einen, mit der sogenannten „Künstlichen Intelligenz“ (KI) und darauf aufbauenden Geschäftsmodellen der Datenökonomie auf der anderen Seite, untergraben diese Beschulungsmodelle die Autonomie, das Selbstbestimmungsrecht und die Handlungsfreiheit des Menschen. Vertreter dieser Disziplinen behaupten, dass sowohl der einzelne Mensch wie Sozialgemeinschaften wie Maschinen programmiert und gesteuert werden können. Sie blenden aus, dass Mündigkeit und Selbstverantwortung das Ziel von Schule und Unterricht sind, nicht maschinell berechnete Verhaltenssteuerung und -manipulation. Diese Fehlentwicklungen sind nicht der Technik an sich geschuldet, die sich anders einsetzen ließe, sondern den Geschäftsmodellen der IT-Anbieter.
Smarte Technologien ermöglichen eine engmaschige Kontrolle und Steuerung der Schülerinnen und Schüler. Die entscheidende Frage zu IT in Schulen ist daher: Folgen wir der Logik der technischen Systeme oder besinnen wir uns auf den pädagogischen Auftrag der Erziehung zu Mündigkeit und Selbstverantwortung?
Kein Mensch lernt digital
(2022)
Ralf Lankau entlarvt in diesem Buch die wirtschaftlichen Interessen der IT-Branche und ihrer Lobbyisten. Dabei geht er sowohl auf die wissenschaftlichen Grundlagen (Kybernetik, Behaviorismus) als auch auf die technischen Rahmenbedingungen von Netzen und Cloud-Computing ein, bevor er konkrete Vorschläge für einen reflektierten, verantwortungsvollen Umgang mit Digitaltechnik im Unterricht skizziert. Seine These: Wir müssen uns auf unsere pädagogische Aufgabe besinnen und (digitale) Medien wieder zu dem machen, was sie im Präsenzunterricht sind: didaktische Hilfsmittel.
Die 2. Auflage greift insbesondere die Erfahrungen mit der Digitalisierung während der Corona-Pandemie auf. Soziales Lernen und pädagogische Beziehungsgestaltung haben sich hier als wichtige Parameter für den Lernerfolg erwiesen. Das bloße Distanzlernen hingegen zeigt: Wer sich schon vorher mit dem Lernen schwer getan hat, fiel während der Pandemie noch weiter im Unterricht zurück.
Der Kaiser ist ja nackt
(2016)
Der niedersächsische Landtag entscheidet bei der Diskussion und Abstimmung über die drei genannten Anträge über mehr als nur die Verteilung der Investitionsmittel aus dem „Digitalpakt Schule“. Es geht um grundsätzliche Fragen: Wer bestimmt über Lehrinhalte an staatlichen Schulen und über eingesetzte (Medien-)Technik? Bleibt die Bildungspolitik des Landes dem Anspruch und Recht der Schülerinnen und Schüler nach individueller Bildung und Persönlichkeitsentwicklung verpflichtet, wie es in der Landesverfassung (§1(4)) und im Niedersächsischen Schulgesetz (§2 Bildungsauftrag, NschG) steht? Vermitteln öffentliche Schulen weiterhin eine fundierte Allgemeinbildung als Grundlage sozialer Teilhabe in demokratischen Gemeinschaften? Oder setzen sich Wirtschaftsverbände und IT-Lobbyisten durch, die für mehr und den immer früheren Einsatz von digitalen Endgeräten in Bildungseinrichtungen eintreten? Die „Programmieren bereits in der KiTa“ fordern und Schulen mit „leistungsstarken WLAN ausleuchten“ wollen (CDU/SPD-An-trag), ohne über Strahlung auch nur nachzudenken? Werden Schulen qua Landtagsbeschluss zu Ausbildungsstätten und Berufsvorbereitung (Münch, 2018, 177) – oder nicht?
Dabei ist wissenschaftlich belegt, dass die Qualität von Schule und Unterricht gerade nicht an Medientechnik gekoppelt ist. Entscheidend sind immer qualifizierte Lehrpersönlichkeiten, ein gut strukturierter, altersgerechter Unterricht und der soziale Umgang miteinander. (Studien von Hattie, Telekom, OECD u.a.) Lehren und Lernen sind individuelle und soziale Prozesse, keine technisch steuerbaren Abläufe. Unberücksichtigt bleiben inden Anträgen sowohl die historischen Belege des Scheiterns von Medientechnik (Pias) wie bereits gegenläufige Entwicklungen aus den USA. Kinder in (teuren) Privatschulenwerden wieder von realen Lehrerinnen und Lehrern unterrichtet und genießen den „Luxus menschlicher Interaktion“. Bildschirme sind dort aus den Schulen verbannt, während Kinder an öffentlichen Schulen an Tablets ohne LehrerInnen lernen müssen (Bowles, 2018).
Der niedersächsische Landtag entscheidet bei diesen Anträgen also darüber, ob bereits gescheiterte IT-Konzepte aus den USA wiederholt werden oder ob eine Diskussionüber sinnvolle und pädagogisch fundierte Medienkonzepte für Schulen eröffnet wird, die nicht auf Digitaltechnik verkürzt werden darf. Wer also bestimmt über Lehrinhalte und Medientechnik an Schulen? Die IT-Wirtschaft und Vertreter der Daten-Ökonomie, die Lehrangebote digitalisieren und privatisieren wollen? Oder entscheiden Volksvertreter, nach pädagogischer Expertise, die den Schülerinnen und Schülern verpflichtet sind?
Scheuklappen statt Weitblick
(2019)
Der bildungsferne Campus
(2019)
Diese Bachelorthesis befasst sich mit der Entwicklung eines Auslegungstools für eine PV-basierte, autarke Energieversorgung eines Wasserreinigungssystems mit Hilfe eines Batteriespeichers.
Dafür wurde auf Grundlage theoretischer Einstrahlungsmodelle die Berechnung der Bestrahlungsstärke auf eine geneigte Moduloberfläche in Microsoft Excel 2010 implementiert. Die Berechnung wurde dabei so umgesetzt, dass Parameter wie z.B. Ausrichtung und Größe der PV-Module variiert werden können. Darauf aufbauend wurde die Berechnung der Leistung eines PV-Generators mit Hilfe des Wirkungsgrades der PV-Module umgesetzt.
Des Weiteren wurde für diese Arbeit ein Bilanzierungsmodell entwickelt, welches das Verhalten des Batteriespeichers im autarken System simuliert. Dieses Modell berechnet dabei sowohl die im Batteriespeicher gespeicherte Energie, als auch die über ein Bilanzierungsintervall gemittelte Leistung des Batteriespeichers. Das Batteriemodell wurde mit Hilfe von VBA-Code umgesetzt und in das Auslegungstool eingebunden.
Ein weiteres Thema dieser Bachelorthesis ist die Energieversorgung eines speziellen Wasserreinigungssystems, welches im Rahmen des Forschungsprojekts „PHOTOPUR“ entwickelt wird. Dieses mehrstufige System hat einen charakteristischen Energieverbrauch, der möglichst präzise simuliert werden soll. Um dies zu gewährleisten, wurde ein dynamisches Lastprofil erstellt. Das entwickelte Lastprofil ist spezifisch für das Wasserreinigungssystem, enthält aber gleichzeitig viele Freiheitsgrade um es bei der weiteren Entwicklung des Systems möglichst präzise anpassen zu können.
Das entwickelte Auslegungstool kann folglich die erzeugte PV-Leistung, einen Batteriespeicher und das Lastprofil des Wasserreinigungssystems simulieren. Die Darstellung der Simulationsergebnisse erfolgt mit dem Ziel, Aussagen zu der Qualität der Energieversorgung des Wasserreinigungssystems treffen zu können.
During the day-to-day exploitation of localization systems in mines, the technical staff tends to incorrectly rearrange radio equipment: positions of devices may not be accurately marked on a map or their positions may not correspond to the truth. This situation may lead to positioning inaccuracies and errors in the operation of the localization system.This paper presents two Bayesian algorithms for the automatic corrections of positions of the equipment on the map using trajectories restored by the inertial measurement units mounted to mobile objects, like pedestrians and vehicles. As a basis, a predefined map of the mine represented as undirected weighted graph was used as input. The algorithms were implemented using the Simultaneous Localization and Mapping (SLAM) approach.The results prove that both methods are capable to detect misplacement of access points and to provide corresponding corrections. The discrete Bayesian filter outperforms the unscented Kalman filter, which, however, requires more computational power.
This paper presents an extended version of a previously published Bayesian algorithm for the automatic correction of the positions of the equipment on the map with simultaneous mobile object trajectory localization (SLAM) in underground mine environment represented by undirected graph. The proposed extended SLAM algorithm requires much less preliminary data on possible equipment positions and uses an additional resample move algorithm to significantly improve the overall performance.
Finding clusters in high dimensional data is a challenging research problem. Subspace clustering algorithms aim to find clusters in all possible subspaces of the dataset where, a subspace is the subset of dimensions of the data. But exponential increase in the number of subspaces with the dimensionality of data renders most of the algorithms inefficient as well as ineffective. Moreover, these algorithms have ingrained data dependency in the clustering process, thus, parallelization becomes difficult and inefficient. SUBSCALE is a recent subspace clustering algorithm which is scalable with the dimensions and contains independent processing steps which can be exploited through parallelism. In this paper, we aim to leverage, firstly, the computational power of widely available multi-core processors to improve the runtime performance of the SUBSCALE algorithm. The experimental evaluation has shown linear speedup. Secondly, we are developing an approach using graphics processing units (GPUs) for fine-grained data parallelism to accelerate the computation further. First tests of the GPU implementation show very promising results.
Finding clusters in high dimensional data is a challenging research problem. Subspace clustering algorithms aim to find clusters in all possible subspaces of the dataset, where a subspace is a subset of dimensions of the data. But the exponential increase in the number of subspaces with the dimensionality of data renders most of the algorithms inefficient as well as ineffective. Moreover, these algorithms have ingrained data dependency in the clustering process, which means that parallelization becomes difficult and inefficient. SUBSCALE is a recent subspace clustering algorithm which is scalable with the dimensions and contains independent processing steps which can be exploited through parallelism. In this paper, we aim to leverage the computational power of widely available multi-core processors to improve the runtime performance of the SUBSCALE algorithm. The experimental evaluation shows linear speedup. Moreover, we develop an approach using graphics processing units (GPUs) for fine-grained data parallelism to accelerate the computation further. First tests of the GPU implementation show very promising results.
Subspace clustering aims to find all clusters in all subspaces of a high-dimensional data space. We present a massively data-parallel approach that can be run on graphics processing units. It extends a previous density-based method that scales well with the number of dimensions. Its main computational bottleneck consists of (sequentially) generating a large number of minimal cluster candidates in each dimension and using hash collisions in order to find matches of such candidates across multiple dimensions. Our approach parallelizes this process by removing previous interdependencies between consecutive steps in the sequential generation process and by applying a very efficient parallel hashing scheme optimized for GPUs. This massive parallelization gives up to 70x speedup for
the bottleneck computation when it is replaced by our approach and run on current GPU hardware. We note that depending on data size and choice of parameters, the parallelized part of the algorithm can take different percentages of the overall runtime of the clustering process, and thus, the overall clustering speedup may vary significantly between different cases. However, even
in our ”worst-case” test, a small dataset where the computation makes up only a small fraction of the overall clustering time, our parallel approach still yields a speedup of more than 3x for the complete run of the clustering process. Our method could also be combined with parallelization of other parts of the clustering algorithm, with an even higher potential gain in processing speed.
This paper examines and evaluates the challenges and opportunities of export credit agencies (ECA) in the Middle East and North Africa (MENA) region. Political risks, unrest and instability made exports in the MENA region arduous. Further challenges are demonetization, the lack of reliable information and the acquisition of skilled employees. Access to financial resources can be quite challenging and several ECAs in the MENA region struggle from having no economies of scale. The global trend of globalisation and digitalisation has proved to be both a challenge and an opportunity. Nevertheless, the ECAs are becoming progressively important and needed in the MENA region. ECAs can benefit from this by working closely with financial institutions, banks and stakeholders. Other opportunities are infrastructure, renewable energies, international events and the diversification of the product portfolio. Through research on the ECAs EGE, ECI, Credit Oman and ICIEC, differences of multilateral and national export credit agencies have been analysed as well.
Analysis of Miniaturized Printed Flexible RFID/NFC Antennas Using Different Carrier Substrates
(2020)
Antennas for Radio Frequency Identification (RFID) provide benefits for high frequencies (HF) and wireless data transmission via Near Field Communication (NFC) and many other applications. In this case, various requirements for the design of the reader and transmitter antennas must be met in order to achieve a suitable transmission quality. In this work, a miniaturized cost-effective RFID/NFC antenna for a microelectronic measurement system is designed and printed on different flexible carrier substrates using a new and low-cost Direct Ink Writing (DIW) technology. Various practical aspects such as reflection and impedance magnitude as well as the behavior of the printed RFID/NFC antennas are analyzed and compared to an identical copper-based antenna of the same size. The results are presented in this paper. Furthermore, the problems during the printing process itself on the different substrates are evaluated. The effects of the characteristics on the antenna under kink-free bending tests are examined and subsequently long-term measurements are carried out.
Radio frequency identification (RFID) antennas are popular for high frequency (HF) RFID, energy transfer and near field communication (NFC) applications. Particularly for wireless measurement systems the RFID/NFC technology is a good option to implement a wireless communication interface. In this context, the design of corresponding reader and transmitter antennas plays a major role for achieving suitable transmission quality. This work proves the feasibility of the rapid prototyping of a RFID/NFC antenna, which is used for the wireless communication and energy harvesting at the required frequency of 13.56 MHz. A novel and low-cost direct ink writing (DIW) technology utilizing highly viscous silver nanoparticle ink is used for this process. This paper describes the development and analysis of low-cost printed flexible RFID/NFC antennas on cost-effective substrates for a microelectronic vital parameter measurement system. Furthermore, we compare the measured technical parameters with existing copper-based counterparts on a FR4 substrate.
Im Rahmen dieser Abschlussarbeit wurde die Steuereinheit für das elektrisch angetriebene Hocheffizienzfahrzeug Schluckspecht 6 entworfen. Im Detail wurde die bestehende Steuereinheit analysiert. Durch sorgfältiges Betrachten der Leistungselektronik und deren Elemente, der Signalaufbereitungsplatine, der Stromsensorplatine und der DC/DC-Wandlerplatine, wurden die bestehenden Fehler in deren Schaltplänen behoben. Im Zuge dieser Fehlerbehebung, wurde die Übersichtlichkeit der Schaltpläne verbessert. Des Weiteren wurden die Leistungselektronik und deren Elemente zu der neuen Control Unit fusioniert. Um eine möglichst nachhaltige Hardware zu erhalten, wurde die alte Platine optimiert. Dazu sind die Ein-/ und Ausgänge und der CAN-Bus von dem Entwicklerboard an den Leiterplattenrand geführt worden. Damit die CAN-Signale vom Entwicklerboard verarbeitet werden können, wurde zusätzlich eine Schaltung für die Signal-konvertierung entwickelt. Die zusammengeführte Leiterplatte wurde für eine bessere Zugänglichkeit während des Shell-Eco-Marathon, einseitig bestückt. Um die Fehlerbehebung zu erleichtern, sind Messpunkte, zusammen mit einer Messtabelle, auf deren Schaltpläne integriert worden. Zusätzlich wurde ein Jumper für die Energieversorgung des Entwicklerboards hinzugefügt, damit dieses intern oder extern versorgt werden kann. Für die Control Unit wurden Schnittstellen zur besseren Erweiterung ausgesucht. Nach Abschluss des Optimierungsprozesses und der Komponentenauswahl, wurden die Schaltpläne und ein Board der Control Unit entworfen. Für diesen Entwurf wurde eine Leiterplatte bestellt, welche im SMD-Labor bestückt und verlötet wurde. Anschließend wurde an dieser ein Funktionstest und eine Inbetriebnahme im Schluckspecht 6 durchgeführt. Ein weiterer Teil der Arbeit war die Planung des Gehäuses für die neu entworfene Control Unit, die Auswahl der Anschlussstecksysteme und die Fixierung der Leiterplatte in der Energiebox, sowie die Verdrahtung zwischen der Control Unit und den Stecksystemen.
Analysing and predicting the advance rate of a tunnel boring machine (TBM) in hard rock is integral to tunnelling project planning and execution. It has been applied in the industry for several decades with varying success. Most prediction models are based on or designed for large-diameter TBMs, and much research has been conducted on related tunnelling projects. However, only a few models incorporate information from projects with an outer diameter smaller than 5 m and no penetration prediction model for pipe jacking machines exists to date. In contrast to large TBMs, small-diameter TBMs and their projects have been considered little in research. In general, they are characterised by distinctive features, including insufficient geotechnical information, sometimes rather short drive lengths, special machine designs and partially concurring lining methods like pipe jacking and segment lining. A database which covers most of the parameters mentioned above has been compiled to investigate the performance of small-diameter TBMs in hard rock. In order to provide sufficient geological and technical variance, this database contains 37 projects with 70 geotechnically homogeneous areas. Besides the technical parameters, important geotechnical data like lithological information, unconfined compressive strength, tensile strength and point load index is included and evaluated. The analysis shows that segment lining TBMs have considerably higher penetration rates in similar geological and technical settings mostly due to their design parameters. Different methodologies for predicting TBM penetration, including state-of-the-art models from the literature as well as newly derived regression and machine learning models, are discussed and deployed for backward modelling of the projects contained in the database. New ranges of application for small-diameter tunnelling in several industry-standard penetration models are presented, and new approaches for the penetration prediction of pipe jacking machines in hard rock are proposed.
Significant improvements in module performance are possible via implementation of multi-wire electrodes. This is economically sound as long as the mechanical yield of the production is maintained. While flat ribbons have a relatively large contact area to exert forces onto the solar cell, wires with round cross section reduce this contact area considerably – in theory to an infinitively thin line. Therefore, the local stresses induced by the electrodes might increase to a point that mechanical production yields suffer unacceptably.
In this paper, we assess this issue by an analytical mechanical model as well as experiments with an encapsulant-free N.I.C.E. test setup. From these, we can derive estimations for the relationship between lay-up accuracy and expected breakage losses. This paves the way for cost-optimized choices of handling equipment in industrial N.I.C.E.-wire production lines.
Many sectors, like finance, medicine, manufacturing, and education, use blockchain applications to profit from the unique bundle of characteristics of this technology. Blockchain technology (BT) promises benefits in trustability, collaboration, organization, identification, credibility, and transparency. In this paper, we conduct an analysis in which we show how open science can benefit from this technology and its properties. For this, we determined the requirements of an open science ecosystem and compared them with the characteristics of BT to prove that the technology suits as an infrastructure. We also review literature and promising blockchain-based projects for open science to describe the current research situation. To this end, we examine the projects in particular for their relevance and contribution to open science and categorize them afterwards according to their primary purpose. Several of them already provide functionalities that can have a positive impact on current research workflows. So, BT offers promising possibilities for its use in science, but why is it then not used on a large-scale in that area? To answer this question, we point out various shortcomings, challenges, unanswered questions, and research potentials that we found in the literature and identified during our analysis. These topics shall serve as starting points for future research to foster the BT for open science and beyond, especially in the long-term.
Die vorliegende Arbeit setzt sich mit dem Thema Product-Placement auf YouTube auseinander. Dabei wird der Frage nachgegangen, inwieweit sich Produktplatzierungen in YouTube-Videos auf das Kaufverhalten von Jugendlichen auswirken. Im Zuge dessen sollen außerdem Einblicke darüber gewonnen werden, ob und wie Jugendliche Product-Placement wahrnehmen. Die Fragestellungen werden auf Basis der Auswertung aktueller Fachliteratur und vor dem Hintergrund der Erkenntnisse einer quantitativen Onlinebefragung diskutiert.
Die Ergebnisse der Arbeit zeigen, dass YouTuber einen hohen Stellenwert im Leben vieler Jugendlicher einnehmen. Werbetreibende sehen in den YouTubern Influencer, die Werbebotschaften subtil und authentisch an eine junge Zielgruppe vermitteln können. Vor diesem Hintergrund wird diskutiert, inwieweit Produktplatzierungen in YouTube-Videos kenntlich gemacht werden müssen. Es kann vorweggenommen werden, dass eine eindeutige Kennzeichnung sowohl aus rechtlicher und medienethischer Sicht notwendig ist. Darüber hinaus zeigen auch die Umfrageergebnisse den Bedarf einer eindeutigen Kennzeichnung auf. Obwohl die Mehrheit annimmt, Werbung in YouTube-Videos zu erkennen, kann nur ein geringer Teil auch das platzierte Produkt richtig identifizieren.
Der Einfluss von Product-Placement in YouTube-Videos auf das bewusste Kaufverhalten von Jugendlichen ist geringer, als angenommen. Jugendliche, die eine erhöhte Kaufwahrscheinlichkeit angaben, sehen sich tendenziell häufiger die Videos des YouTubers an, folgen ihm auf mehreren Social Media Kanälen und empfinden ihn als glaubwürdig.
Sportübertragungen im öffentlich-rechtlichen Fernsehen – Situationsanalyse und Zukunftsprognose
(2017)
Gegenstand dieser Bachelorarbeit ist die Analyse des Sportrechtemarktes. Besonders im Fokus steht dabei die Rolle der öffentlich-rechtlichen Fernsehsender. Zunächst werden hierfür die zurückliegenden Jahre betrachtet und die aktuelle Situation auf dem sehr umkämpften Markt dargestellt. Für den starken Preisanstieg bei den Übertragungsrechten werden die Ursachen sowie deren Folgen benannt. Darüber hinaus wird auf die Bedeutung von sportlichen Großereignissen für die ausrichtenden Verbände und die übertragenden Sender eingegangen. Anschließend wird der Verlust der Übertragungsrechte der öffentlich-rechtlichen Sender an den Olympischen Spielen beleuchtet. Hierfür werden die Gründe und die Folgen für die unterschiedlichen Marktteilnehmer erklärt.
Des Weiteren werden verschiedenen Sportarten vorgestellt, die in den vergangenen Jahren an medialer Bedeutung dazugewonnen haben. Gleichzeitig wird dabei auch auf Sportarten eingegangen, die aus dem Programm der öffentlich-rechtlichen Sender verschwunden sind. Zusätzlich wird auf die Situation und die möglichen Chancen der Randsportarten eingegangen. Durch Streaming und die sozialen Netzwerke sind zuletzt Instrumente hinzugekommen, die den Sportarten unterschiedliche und eigene Vermarktungsmöglichkeiten bieten. Den Abschluss der Arbeit bildet eine Zukunftsprognose für die öffentlich-rechtlichen Sender. Es wird aufgezeigt, wie sich die Entwicklung des Sportrechtemarktes auf das Programm von ARD und ZDF auswirken wird.
Socially assistive robots (SARs) are becoming more prevalent in everyday life, emphasizing the need to make them socially acceptable and aligned with users' expectations. Robots' appearance impacts users' behaviors and attitudes towards them. Therefore, product designers choose visual qualities to give the robot a character and to imply its functionality and personality. In this work, we sought to investigate the effect of cultural differences on Israeli and German designers' perceptions of SARs' roles and appearance in four different contexts: a service robot for an assisted living/retirement residence facility, a medical assistant robot for a hospital environment, a COVID-19 officer robot, and a personal assistant robot for domestic use. The key insight is that although Israeli and German designers share similar perceptions of visual qualities for most of the robotics roles, we found differences in the perception of the COVID-19 officer robot's role and, by that, its most suitable visual design. This work indicates that context and culture play a role in users' perceptions and expectations; therefore, they should be taken into account when designing new SARs for diverse contexts.
Socially assistive robots (SARs) are becoming more prevalent in everyday life, emphasizing the need to make them socially acceptable and aligned with users' expectations. Robots' appearance impacts users' behaviors and attitudes towards them. Therefore, product designers choose visual qualities to give the robot a character and to imply its functionality and personality. In this work, we sought to investigate the effect of cultural differences on Israeli and German designers' perceptions and preferences regarding the suitable visual qualities of SARs in four different contexts: a service robot for an assisted living/retirement residence facility, a medical assistant robot for a hospital environment, a COVID-19 officer robot, and a personal assistant robot for domestic use. Our results indicate that Israeli and German designers share similar perceptions of visual qualities and most of the robotics roles. However, we found differences in the perception of the COVID-19 officer robot's role and, by that, its most suitable visual design. This work indicates that context and culture play a role in users' perceptions and expectations; therefore, they should be taken into account when designing new SARs for diverse contexts.
Das Ziel der vorliegenden Arbeit ist die Beantwortung der Frage, wie sich eine individuelle Fußbettung auf die Druckverteilung im Fuß und das körperliche Wohlbefinden im Allgemeinen auswirkt. Zu Anfang stehen die Nullhypothesen, dass durch eine solche Einlage keine Veränderungen in der Druckverteilung zu erwarten sind.
Um die Forschungsfrage zu beantworten, wurde eine experimentelle interventionelle Pilotstudie mit einer Kohorte von neun Probanden ohne orthopädische Probleme durchgeführt, die alle eine individuelle Schuheinlage erhielten. Die plantare Druckverteilung im Schuh wurde einmal ohne und einmal mit der Einlage sowohl statisch als auch dynamisch erfasst. Die Ergebnisse wurden anschließend verglichen. Die dynamische Datenerfassung beinhaltete die folgenden Konditionen: geradeaus Gehen, Gehen im Kreis (links- und rechtsherum), Stehen und der Transfer einer Kiste mit sich drehendem Oberkörper. Gleichzeitig wurde das Wohlbefinden der Probanden mit verschiedenen Fragebögen erfasst.
Die Anwendung einer individuellen Einlage zeigte im Bereich des medialen Mittelfußes einen Druckanstieg von über 100%, der Rückfuß wurde während des Stehens und Gehens entlastet. Der Vorfuß wurde während des Stehens teilweise mehr belastet. Diese Veränderungen können unter Umständen auf das Einführen der Längsgewölbestütze in der Einlage zurückgeführt werden. Die Auswertung der Fragebögen zu dieser Studie ergab, dass sich speziell für die Füße das Wohlbefinden leicht zum Schlechteren änderte, andere Bereiche, welche in den Fragebögen eruiert wurden, zeigten keine nennenswerten Veränderungen auf.
Daraus wird geschlossen, dass eine Schuheinlage die Druckverteilung in der Fußsohle stark verändern kann. Weiterführende Studien könnten den Einfluss der Einlage im Allgemeinen und der Wirkungsweise einer Längsgewölbestütze im Besonderen mit kinematischen Daten weiter belegen. Längerfristige Studien könnten die Langzeitwirkung von Einlagen auf das Wohlbefinden genauer erforschen.
Der Bedarf an Bandbreite für Internetanwendungen ist in den letzten Jahren so stark gestiegen, dass Kupferleitungen diesen Anforderungen nicht mehr entsprechen können. Aus Expertensicht ist die Lösung dieses Problems ein optisches Netzwerk aus Lichtwellenleitern (LWL), das bis in die Wohnung zum Endkunden reicht – das sogenannte „Fiber to the Home“ (FttH)-Konzept.
Für Verbindungen über einige hunderte Meter eignen sich Multimode-Lichtwellenleiter (MM-LWL) durch ihre Robustheit und einfache Handhabung ideal. Zudem erlaubt der große Durchmesser des Faserkerns mit 62,5 µm eine sichere, stabile und relativ verlustfreie Verbindung. Neben diesen Vorteilen sind jedoch im letzten Jahrzehnt durch die Erhöhung der Bitrate auch Nachteile sichtbar geworden. So konnten die für niedrige Übertragungsraten genutzten LEDs noch zur Vollanregung der Übertragungsmoden eingesetzt werden. Für höhere Übertragungsraten ist dies jedoch nicht mehr möglich, da sie optisch zu träge sind und somit der schnellen Modulation nicht mehr folgen können. Schnellere Anregungskomponenten, etwa Laserdioden (LD), müssen eingesetzt werden. Durch die spezifische Ausstrahlungscharakteristik der LDs kann jedoch nicht mehr der gesamte MM-LWL-Kern angeregt werden. Dies führt zu unterschiedlichen Modenlaufzeiten im MMLWL, was sich wiederum negativ auf die Übertragungsrate auswirken kann. Dadurch nimmt die Bandbreite rapide ab.
In short-reach connections, large-diameter multimode fibres allow for robust and easy connections. Unfortunately, their propagation properties depend on the excitation conditions. We propose a launching technique using a fibre stub that can tolerate fabrication tolerances in terms of tilts and off-sets to a large extent. A study of the influence of displaced connectors along the transmission link shows that the power distributions approach a steady-state power distribution very similar to the initial distribution established by the proposed launching scheme.
A polarization mode dispersion measurement set-up based on a Mach-Zehnder Interferometer was realized. Measurements were carried out on short high-birefringent fibers and on long standard telecommunication single-mode fibers. In order to ensure high accurate results, special emphasis was placed on the evaluation of the interference pattern. The procedure will be described in detail and practical measurement results will be presented.
The bandwidth behavior of graded-index multimode fibers (GI-MMFs) for different launching conditions is investigated to understand and characterize the effect of differential mode delay. In order to reduce the launch-power distribution the near field of a single-mode fiber is used to produce a controlled restricted launch. The baseband response is measured by observing the broadening of a narrow input pulse (time-domain measurement). The paper verifies the degradation in bandwidth due to profile distortion by scanning the spot of the single-mode fiber with a transversal offset from the center of the test sample. In addition, the impact of the launch-power distribution tuned by different spot-size diameters is demonstrated. Measurements were taken on ‘older’ 50-μm and 62.5-μm GI-MMFs as well as on laser-performance-optimized fibers more recently developed.
Ziel dieser Arbeit ist es, an einem roboter-gestützten Armtrainer (Armeo®Spring) ein standardisiertes kinematische Assessment Verfahren für die motorische Armkoordination zu entwickeln, damit es möglich wird, Personen mit Tetraplegie hinsichtlich ihrer Armkoordination miteinander vergleichen zu können. Intension ist ein Beurteilungsverfahren zur Verfügung zu haben, mit dem man die motorische Armkoordination im Verlauf der Therapie mit kinematischen Parametern beurteilen kann.
Es werden die vorhandenen Assessments des zur Verfügung stehenden Armtrainers überprüft und evaluiert, ob man mit diesen die motorische Armkoordination beurteilen kann. Hierzu wurde zum einen anhand von Empfehlungen aus der Literatur das bestehende Testverfahren (A-GOAL) bewertet und zum anderen wurde eine Untersuchung durchgeführt, bei der der Einfluss von zwei unterschiedlichen Gewichtsentlastungseinstellungen („Roboter-0“ und „Individuell“) auf einen kinematischen Parameter (Handwegquotienten) untersucht wurde.
Es zeigte sich, dass der Armeo®Spring einen hohen Einfluss auf die Bewegungen des Armes hat und es nicht möglich ist den Einfluss der Schwerkraft im Bewegungsbereich vollständig auszugleichen. Bei dem vorhandenen A-GOAL Assessment steht mit dem Handwegquotienten nur ein brauchbarer kinematischer Parameter zur Beurteilung zur Verfügung.
Mit dem vorliegenden roboter-gestützten Armtrainer ist es möglich die Armkoordination zu beurteilen. Allerdings muss hierzu in Zukunft ein Programm geschrieben werden, um aus den Rohdaten weitere kinematische Parameter zu berechnen, damit die motorische Armkoordination umfangreich beurteilt werden kann. Zusätzlich wird vorgeschlagen die Bewertungsaufgabe anzupassen, die angewendete Methode „Individuell“ für die Gewichtsentlastungseinstellungen zu verwenden und die Einflussfaktoren zu berücksichtigen, damit eine standardisierte Messung möglich wird.
Ziel dieser Arbeit ist die Konzeption und Umsetzung einer benutzerfreundlichen Digital Audio Workstation (DAW) speziell für Android Smartphones. Trotz eines breiten Angebots, weisen bestehende Apps zur Musikproduktion entweder eine schlechte Benutzbarkeit durch zu kleine Bedienelemente auf oder sind funktional nicht geeignet um ein professionelles Musikstück zu komponieren. Um ein benutzerfreundliches Konzept zu erarbeiten wurden Interviews mit zielgruppenrelevanten Personen geführt. Mit Hilfe von Usability-Tests wurde das erarbeitete Konzept auf dessen Benutzbarkeit überprüft. Am Ende der Arbeit wurden Personen aus der Zielgruppe, unter Verwendung des meCUE Fragebogens, befragt um deren Erlebnis mit der App zu ermitteln. Die Tests sollen Aufschluss darüber geben, ob das erarbeitete Konzept benutzbar ist.
Durch die Interviews wurde herausgefunden, dass eine benutzerfreundliche DAW umfangreiche kreative Bearbeitungsmöglichkeiten bietet und technische Aspekte der Musikproduktion so stark wie möglich abnimmt, ohne dabei den kreativen Teil zu beeinflussen bzw. diesen abzunehmen.
Die Usability-Tests zeigen, dass es zum gegen Ende der Arbeit noch Probleme mit der Benutzbarkeit gibt, die allerdings weder mit dem Funktionsumfang oder der Größe der Bedienelemente in Zusammenhang stehen. Die Ergebnisse des Fragebogens deuten ebenfalls darauf hin, dass es noch Probleme mit der Benutzbarkeit gibt. Ebenso scheint die visuelle Ästhetik (noch) nicht gegeben. Allerdings scheint die Nützlichkeit der App erfüllt. Das hier erarbeitete Konzept und die gewonnenen Erkenntnisse sind somit eine gute Grundlage für eine Weiterentwicklung.
An isomorphous series of 10 microporous copper-based metal–organic frameworks (MOFs) with the general formulas ∞3[{Cu3(μ3-OH)(X)}4{Cu2(H2O)2}3(H-R-trz-ia)12] (R = H, CH3, Ph; X2– = SO42–, SeO42–, 2 NO32– (1–8)) and ∞3[{Cu3(μ3-OH)(X)}8{Cu2(H2O)2}6(H-3py-trz-ia)24Cu6]X3 (R = 3py; X2– = SO42–, SeO42– (9, 10)) is presented together with the closely related compounds ∞3[Cu6(μ4-O)(μ3-OH)2(H-Metrz-ia)4][Cu(H2O)6](NO3)2·10H2O (11) and ∞3[Cu2(H-3py-trz-ia)2(H2O)3] (12Cu), which are obtained under similar reaction conditions. The porosity of the series of cubic MOFs with twf-d topology reaches up to 66%. While the diameters of the spherical pores remain unaffected, adsorption measurements show that the pore volume can be fine-tuned by the substituents of the triazolyl isophthalate ligand and choice of the respective copper salt, that is, copper sulfate, selenate, or nitrate.
Synthesis and crystal structure of a novel copper-based MOF material are presented. The tetragonal crystal structure of [ ∞ 3 ( Cu 4 ( μ 4 -O ) ( μ 2 -OH ) 2 ( Me 2 trz p ba ) 4 ] possesses a calculated solvent-accessible pore volume of 57%. Besides the preparation of single crystals, synthesis routes to microcrystalline materials are reported. While PXRD measurements ensure the phase purity of the as-synthesized material, TD-PXRD measurements and coupled DTA–TG–MS analysis confirm the stability of the network up to 230 °C. The pore volume of the microcrystalline material determined by nitrogen adsorption at 77 K depends on the synthetic conditions applied. After synthesis in DMF/H2O/MeOH the pores are blocked for nitrogen, whereas they are accessible for nitrogen after synthesis in H2O/EtOH and subsequent MeOH Soxhleth extraction. The corresponding experimental pore volume was determined by nitrogen adsorption to be V Pore = 0.58 cm 3 g - 1 . In order to characterize the new material and to show its adsorption potential, comprehensive adsorption studies with different adsorptives such as nitrogen, argon, carbon dioxide, methanol and methane at different temperatures were carried out. Unusual adsorption–desorption isotherms with one or two hysteresis loops are found – a remarkable feature of the new flexible MOF material.
The newly synthesized Zn4O-based MOF 3∞[Zn4(μ4-O){(Metrz-pba)2mPh}3]·8 DMF (1·8 DMF) of rare tungsten carbide (acs) topology exhibits a porosity of 43% and remarkably high thermal stability up to 430 °C. Single crystal X-ray structure analyses could be performed using as-synthesized as well as desolvated crystals. Besides the solvothermal synthesis of single crystals a scalable synthesis of microcrystalline material of the MOF is reported. Combined TG-MS and solid state NMR measurements reveal the presence of mobile DMF molecules in the pore system of the framework. Adsorption measurements confirm that the pore structure is fully accessible for nitrogen molecules at 77 K. The adsorptive pore volume of 0.41 cm3 g−1 correlates well with the pore volume of 0.43 cm3 g−1 estimated from the single crystal structure.
Interaction and capturing information from the surrounding is dominated by vision and hearing. Haptics on the other side, widens the bandwidth and could also replace senses (sense switching) for impaired. Haptic technologies are often limited to point-wise actuation. Here, we show that actuation in two-dimensional matrices instead creates a richer input. We describe the construction of a full-body garment for haptic communication with a distributed actuating network. The garment is divided into attachable-detachable panels or add-ons that each can carry a two dimensional matrix of actuating haptic elements. Each panel adds to an enhanced sensoric capability of the human- garment system so that together a 720° system is formed. The spatial separation of the panels on different body locations supports semantic and theme-wise separation of conversations conveyed by haptics. It also achieves directional faithfulness, which is maintaining any directional information about a distal stimulus in the haptic input.
Disturbances of the cardiac conduction system causing reentry mechanisms above the atrioventricular (AV) node are induced by at least one accessory pathway with different conducting properties and refractory periods. This work aims to further develop the already existing and continuously expanding Offenburg heart rhythm model to visualise the most common supraventricular reentry tachycardias to provide a better understanding of the cause of the respective reentry mechanism.
Das Softwareunternehmen HRworks implementiert eine Personalverwaltungssoftware unter Verwendung der Programmiersprache Smalltalk und des Model-View-Controller (MVC) Musters. Innerhalb des Unternehmens erfordert jede Model-Klasse des Patterns das Vorhandensein einer korrespondierenden Controllerklasse. Controller verfügen über ein wiederkehrendes Grundgerüst, das bei jeder neuen Implementierung umgesetzt werden muss. Die Unterscheidungen innerhalb dieses Grundgerüsts ergeben sich lediglich aus dem Namen und der spezifischen Struktur der korrespondierenden Model-Klasse. Die vorliegende Arbeit adressiert die Herausforderung der automatischen Generierung dieses Controllergrundgerüsts, wobei die Besonderheiten jeder Model-Klasse berücksichtigt wird. Dies wird durch den gezielten Einsatz von Metaprogrammierung in der Programmiersprache Smalltalk realisiert und durch eine Benutzeroberfläche in der Entwicklungsumgebung unterstützt. Zusätzlich wird der Controller um eine Datentypprüfung erweitert, wofür ein spezialisierter Parser implementiert wurde. Dieser extrahiert aus einem definierten Getter der Model-Klasse den entsprechenden Datentyp des Attributes. Im Ergebnis liefert die Arbeit eine Methodik zur automatisierten Generierung und Anpassung von Controllergrundgerüsten sowie dazugehörigen Teststrukturen basierend auf der jeweiligen Model-Klasse. Zusätzlich wird die Funktionalität der Controller durch eine integrierte Datentypprüfung erweitert.
Die vorliegende Arbeit beschreibt die technischen Hintergründe des Campusradios der Hochschule Offenburg. Gleichzeitig soll sie als Betriebsanleitung für den Betrieb und die Wartung der im Hintergrund arbeitenden Systeme verstanden und genutzt werden.
Insbesondere wird auf die im Zeitraum Wintersemester 2019 bis Sommersemester 2020 ausgeführten Änderungen der Technik Bezug genommen. Zudem soll dieses Werk zukünftigen Redaktionsmitgliedern Einblicke in die Technik eines Webradios gewähren. Ebenso werden verschiedene Workflows und Anleitungen vorgestellt, wie Sendungen (technisch) vorbereitet werden können. Schließlich wird auf die Fragen und aufgetretenen Probleme in Bezug auf technische Einrichtungen, welche der studentischen Radioleitung am Häufigsten gestellt wurden, eingegangen.
Nicht Gegenstand dieser Arbeit sind redaktionelle Abläufe inhaltlicher Natur; ebenso wurden keine neuen Medien wie Jingles oder ähnliche Medien im Rahmen dieser Bachelorarbeit erstellt.
Sponsoring - ein effektives Marketingkommunikationsinstrument am Unternehmensbeispiel Red Bull
(2021)
Die vorliegende Thesis behandelt das Thema Sponsoring. Hierbei werden grundlegende Begriffe des Sponsorings abgegrenzt, näher erläutert und als Instrument in die Marketingkommunikation eingebunden. Darüber hinaus werden anhand des Unternehmens Red Bull verschiedene Beispiele eines Sponsoringengagements aufgezeigt und analysiert. Daraus abgeleitet soll ein Leitfaden Unternehmen bei der Erstellung einer Sponsoringstrategie und einer erfolgreichen Umsetzung unterstützen.
In the modern knowledge-based and digital economy, the value of knowledge is growing relative to other assets and new intellectual property is being created at an ever-increasing rate. Therefore, the ability to find non-trivial solutions, systematically generate new concepts, and create intellectual property rapidly become crucial to achieving competitive advantage and leveraging the intellectual potential of organizations.
Enhancing engineering creativity with automated formulation of elementary solution principles
(2023)
The paper describes a method for the automated formulation of elementary creative stimuli for product or process design at different levels of abstraction and in different engineering domains. The experimental study evaluates the impact of structured automated idea generation on inventive thinking in engineering design and compares it with previous experimental studies in educational and industrial settings. The outlook highlights the benefits of using automated ideation in the context of AI-assisted invention and innovation.
Cross-industry innovation is commonly understood as identification of analogies and interdisciplinary transfer or copying of technologies, processes, technical solutions, working principles or models between industrial sectors. In general, creative thinking in analogies belongs to the efficient ideation techniques. However, engineering graduates and specialists frequently lack the skills to think across the industry boundaries systematically. To overcome this drawback an easy-to-use method based on five analogies has been evaluated through its applications by students and engineers in numerous experiments and industrial case studies. The proposed analogies help to identify and resolve engineering contradictions and apply approaches of the Theory of Inventive Problem Solving TRIZ and biomimetics. The paper analyses the outcomes of the systematized analogies-based ideation and outlines that its performance continuously grows with the engineering experience. It defines metrics for ideation efficiency and ideation performance function.
The paper is addressing the needs of the universities regarding qualification of students as future R&D specialists in efficient techniques for successfully running innovation process. It briefly describes the program of a novel one-semester-course of 150 hours in new product development and inventive problem solving with TRIZ methodology, offered for the master students at the Beuth University of Applied Sciences in Berlin. The paper outlines multi-source educational approach, which includes a new product development project (about 50% of the complete course), theory, practical work, self-learning with the software tools for computer-aided innovation, and demonstrates examples of the students work. The research part analyses the learning experience, identifies the factors that impact the innovation and problem solving performance of the students, and underlines the main difficulties faced by the students in the course. It describes a method for measurement of education efficiency and compares the results with educational experience in the industry. The presented results can help universities to establish the education in new product development or to improve its performance.
Using patent information for identification of new product features with high market potential
(2014)
CONTEXT
The paper addresses the needs of medium and small businesses regarding qualification of R&D specialists in the interdisciplinary cross-industry innovation, which promises a considerable reduction of investments and R&D expenditures. The cross-industry innovation is commonly understood as identification of analogies and transfer of technologies, processes, technical solutions, working principles or business models between industrial sectors. However, engineering graduates and specialists frequently lack the advanced skills and knowledge required to run interdisciplinary innovation across the industry boundaries.
PURPOSE
The study compares the efficiency of the cross-industry innovation methods in one semester project-oriented course. It identifies the individual challenges and preferred working techniques of the students with different prior knowledge, sets of experiences, and cultural contexts, which require attention by engineering educators.
APPROACH
Two parallel one-semester courses were offered to the mechanical and process engineering students enrolled in bachelor’s and master’s degree programs at the faculty of mechanical and process engineering. The students from different years of study were working in 12 teams of 3…6 persons each on different innovation projects, spending two hours a week in the classroom and additionally on average two hours weekly on their project research. Students' feedback and self-assessments concerning gained skills, efficiency of learned tools and intermediate findings were documented, analysed, and discussed regularly along the course.
RESULTS
Analysis of numerous student projects allows to compare and to select the tools most appropriate for finding cross-industry solutions, such as thinking in analogies, web monitoring, function-oriented search, databases of technological effects and processes, special creativity techniques and others. The utilization of learned skills in practical innovation work strengthens the motivation of students and enhances their entrepreneurial competences. Suggested learning course and given recommendations help facilitate sustainable education of ambitious specialists.
CONCLUSIONS
The structured cross-industry innovation can be successfully run as a systematic process and learned in one semester course. The choice of the preferred working teqniques made by the students is affected by their prior knowledge in science, practical experience, and cultural contexts. Major outcomes of the students’ innovation projects such as feasibility, novelty and customer value of the concepts are primarily influenced by students’ engineering design skills, prior knowledge of the technologies, and industrial or business experience.
The comprehensive assessment method includes 80 innovation performance parameters and 10 key indicators of innovation capability, such as innovation process performance, innovating system performance, market and customer orientation, technology orientation, creativity, leadership, communication and knowledge management, risk and cost management, innovative climate, and innovation competences. The cross-industry study identifies parameters critical for innovation success and reveals different innovation performance patterns in companies.
The paper is addressing the needs of the universities regarding qualification of students as future R&D specialists in efficient techniques for successfully running innovation process. In comparison with the engineers, the students often demonstrate lower motivation in learning systematic inventive techniques, like for example TRIZ methodology, and prefer random brainstorming for idea generation. The quality of obtained solutions also depends on the level of completeness of the problem analysis, which is more complex and time consuming in the case of interdisciplinary systems. The paper briefly describes one-semester-course of 60 hours in new product development with the Advanced Innovation Design Approach and TRIZ methodology, in which a typical industrial innovation process for one selected interdisciplinary mechatronic product is modelled.
The paper conceptualizes the systemic approach for enhancing innovative and competitive capacity of industrial companies (named as Advanced Innovation Design Approach – AIDA) including analysis, optimizations and further development of the innovation process and promoting the innovation climate in industrial companies. The innovation process is understood as a holistic stage-gate system comprising following typical phases with feedback loops and simultaneous auxiliary or follow-up processes: uncovering of solution-neutral customer needs, technology and market trends, identification of the needs and problems with high market potential and formulation of the innovation tasks and strategy, idea generation and problem solving, evaluation and enhancement of solution ideas, creation of innovation concepts based on solution ideas, evaluation of the innovation concepts as well as implementation, validation and market launch of chosen innovation concepts. The article presents the current state of innovation research and discusses the actual status of innovation process in the industrial environment. It defines the future research tasks for amplification of the innovation process with self-configuration, self-optimization, self-diagnostics and intelligent information processing and communication.
The internal crowdsourcing-based ideation within a company can be defined as an involvement of its staff, specialists, managers, and other employees, to propose solution ideas for a pre-defined problem. This paper addresses a question, how many participants of the company-internal ideation process are required to nearly reach the ideation limit for the problems with a finite number of workable solutions. To answer the research question, the author proposes a set of metrics and a non-linear ideation performance function with a positive decreasing slope and ideation limit for the closed-ended problems. Three series of experiments helped to explore relationships between the metric attributes and resulted in a mathematical model which allows companies to predict the productivity metrics of their crowdsourcing ideation activities such as quantity of different ideas and ideation limit as a function of the number of contributors, their average personal creativity and ideation efficiency of a contributors’ group.
The effective executing innovation projects requires multiple estimation of market success of new product features in the early stages of customer-centered innovation process such as strategy formulation, evaluation of ideas and concepts and also at a stage close to the market launch. The attempts to integrate customers for estimation of the market success often result in time-consuming customer interviews or lengthy field research. For this reason, industrial companies usually try to skip customer surveys even if they risk that their innovations will fail to bring the anticipated economic outcomes. In many practical cases, the customer surveys are simply not feasible or too expensive. As a result, the internal assessments within companies are frequently the only resource available in innovation process in the industrial environment. The paper discusses the possibilities of the fast identification of promising innovation opportunities and new product features based on the internal competences of companies. It compares the results of customer surveys with the estimation of internal company-experts and analyses the accuracy and validity of the expert assessments. The presented case studies demonstrate the accuracy rate between 43% and 77% for prediction of new product features with high market potential by company-internal experts. The paper proposes the evaluation methods to increase the accuracy rate and outlines that one of the essential requirements for reliable forecasting by the experts is their profound understanding of the customer working process, the ability to estimate the importance of customer needs and to assess the level of customer satisfaction with current products on the market.
The Advanced Innovation Design Approach is a holistic methodology for enhancing innovative and competitive capability of industrial companies. AIDA can be considered as an open mindset, an individually adaptable range of strongest innovation techniques such as comprehensive front-end innovation process, advanced innovation methods, best tools and methods of the TRIZ methodology, organizational measures for accelerating innovation, IT-solutions for Computer-Aided Innovation, and other innovation methods, elaborated in the recent decade in the industry and academia
The European TRIZ Association ETRIA acts as a connecting link between scientific institutions, universities and other educational organizations, industrial companies and individuals concerned with conceptual and practical questions relating to organization of innovation process, invention methods, and innovation knowledge. In the meantime, more than TFC 1000 papers or presentation of scientists, educators, and practitioners from all over the world are available at the official ETRIA website. Numerous research projects were supported or funded by the European Commission.
The proposed method includes identification and documentation of the elementary TRIZ inventive principles from the TRIZ body of knowledge, extension and enhancement of inventive principles by patents and technologies analysis, avoiding overlapping and redundant principles, classification and adaptation of principles to at least following categories such as working medium, target object, useful action, harmful effect, environment, information, field, substance, time, and space, assignment of the elementary inventive principles to the at least following underlying engineering domains such as universal, design, mechanical, acoustic, thermal, chemical, electromagnetic, intermolecular, biological, and data processing. The method includes classification of abstraction level of the elementary principles, definition of the statistical ranking of principles for different problem types, and specific engineering or non-technical domains, definition of strategies for selection of principles sets with high solution potential for predefined problems, automated semantic transformation of the elementary inventive principles into solution ideas, evaluation of automatically generated ideas and transformation of ideas to innovation or inventive concepts.
TRIZ Inventive Principles
(2022)
The analysis of several thousand patents led to the conclusion that inventive engineering problems and technical contradictions in all kinds of industrial sectors could be solved by a limited number of basic Inventive Principles (Altshuller, 1984). The modern Theory of Inventive Problem Solving TRIZ (VDI 4521) contains 40 basic Inventive Principles (IP). These principles are simple to use or modify and can be easily integrated in brainstorming or daily engineer’s work. One established part of industrial practice is the composition of the specific groups of principles for solving different kinds of problems (Livotov, Petrov, 2011). Based on interdisciplinary experience of TRIZ application in the industrial companies in the last 25 years the a general order in the application of 40 Inventive Principles can be recommended for idea generation and problem solving (Livotov, Chandra, Mas'udah et al, 2019). This brochure presents an update of the 40 Inventive Principles extending the original version (Altshuller, 1984) with additional 70 sub-principles, resulting in the advanced set of 160 sub-principles, regarded as elementary inventive operators. These extended version of inventive principles finds its application in the AIDA Automatic IDEA & IP Generator https://www.tris-europe.com/eng/software/innovationssoftware.htm
The modern TRIZ is today considered as the most organized and comprehensive methodology for knowledge-driven invention and innovation. When applying TRIZ for inventive problem solving, the quality of obtained solutions strongly depends on the level of completeness of the problem analysis and the abilities of designers to identify the main technical and physical contradictions in the inventive situation. These tasks are more complex and hence more time consuming in the case of interdisciplinary systems. Considering a mechatronic product as a system resulting from the integration of different technologies, the problem definition reveals two kinds of contradictions: 1) the mono-disciplinary contradictions within a homogenous sub-system, e.g., only mechanical or only electrical; 2) the interdisciplinary contradictions resulting from the interaction of the mechatronic sub-systems (mechanics, electrics, control and software). This paper presents a TRIZ-based approach for a fast and systematic problem definition and contradiction identification, which could be useful both for engineers and students facing mechatronic problems. It also proposes some useful problem formulation tech-niques such as the System Circle Diagram, the enhancement of System Operator with the Evolution Patterns, the extension of MATChEM-IB operator with Infor-mation field and Human Interactions, as well as the Cause-Effect-Matrix.
The research work analyses the relationship of 155 Process Intensification (PI) technologies to the components of the Theory of Inventive Problem Solving (TRIZ). It outlines TRIZ inventive principles frequently used in PI, and identifies opportunities for enhancing systematic innovation in process engineering by applying complementary TRIZ and PI. The study also proposes 70 additional inventive TRIZ sub-principles for the problems frequently encountered in process engineering, resulting in the advanced set of 160 inventive operators, assigned to the 40 TRIZ inventive principles. Finally, we analyse and discuss inventive principles used in 150 patent documents published in the last decade in the field of solid handling in the ceramic and pharmaceutical industries.
As engineering graduates and specialists frequently lack the advanced skills and knowledge required to run eco-innovation systematically, the paper proposes a new teaching method and appropriate learning materials in the field of eco-innovation and evaluates the learning experience and outcomes. This programme is aimed at strengthening student’s skills and motivation to identify and creatively overcome secondary eco-contradictions in case if additional environmental problems appears as negative side effects of eco-friendly solutions.
Based on a literature analysis and own investigations, authors propose to introduce a manageable number of eco-innovation tools into a standard one-semester design course in process engineering with particular focus on the identification of eco-problems in existing technologies, selection of the appropriate new process intensification technologies (knowledge-based engineering), and systematic ideation and problem solving (knowledge-based innovation and invention).
The proposed educational approach equips students with the advanced knowledge, skills and competences in the field of eco-innovation. Analysis of the student’s work allows one to recommend simple-to-use tools for a fast application in process engineering, such as process mapping, database of eco-friendly process intensification technologies, and up to 20 strongest inventive operators for solving of environmental problems. For the majority of students in the survey, even the small workload has strengthened their self-confidence and skills in eco-innovation
Economic growth and ecological problems motivate industries to apply eco-friendly technologies and equipment. However, environmental impact, followed by energy and material consumption still remain the main negative implications of the technological progress in process engineering. Based on extensive patent analysis, this paper assigns more than 250 identified eco-innovation problems and requirements to 14 general eco-categories with energy consumption and losses, air pollution, and acidification as top issues. It defines primary eco-engineering contradictions, in case eco-problems appear as negative side effects of the new technologies, and secondary eco-engineering contradictions, if eco-friendly solutions have new environmental drawbacks. The study conceptualizes a correlation matrix between the eco-requirements for prediction of typical eco-contradictions on example of processes involving solids handling. Finally, it summarizes major eco-innovation approaches including Process Intensification in process engineering, and chronologically reviews 66 papers on eco-innovation adapting TRIZ methodology. Based on analysis of 100 eco-patents, 58 process intensification technologies, and literature, the study identifies 20 universal TRIZ inventive principles and sub-principles that have a higher value for environmental innovation.
Economic growth and ecological problems have pushed industries to switch to eco-friendly technologies. However, environmental impact is still often neglected since production efficiency remains the main concern. Patent analysis in the field of process engineering shows that, on the one hand, some eco-issues appear as secondary problems of the new technologies, and on the other hand, eco-friendly solutions often show lower efficiency or performance capability. The study categorizes typical environmental problems and eco-contradictions in the field of process engineering involving solids handling and identifies underlying inventive principles that have a higher value for environmental innovation. Finally, 42 eco-innovation methods adapting TRIZ are chronologically presented and discussed.
Environmentally-friendly implementation of new technologies and eco-innovative solutions often faces additional secondary ecological problems. On the other hand, existing biological systems show a lesser environmental impact as compared to the human-made products or technologies. The paper defines a research agenda for identification of underlying eco-inventive principles used in the natural systems created through evolution. Finally, the paper proposes a comprehensive method for capturing eco-innovation principles in biological systems in addition and complementary to the existing biomimetic methods and TRIZ methodology and illustrates it with an example.
Sustainable design of equipment for process intensification requires a comprehensive and correct identification of relevant stakeholder requirements, design problems and tasks crucial for innovation success. Combining the principles of the Quality Function Deployment with the Importance-Satisfaction Analysis and Contradiction Analysis of requirements gives an opportunity to define a proper process innovation strategy more reliably and to develop an optimal process intensification technology with less secondary engineering and ecological problems.
In recent years, the application of TRIZ methodology in the process engineering has been found promising to develop comprehensive inventive solution concepts for process intensification (PI). However, the effectiveness of TRIZ for PI is not measured or estimated. The paper describes an approach to evaluate the efficiency of TRIZ application in process intensification by comparing six case studies in the field of chemical, pharmaceutical, ceramic, and mineral industries. In each case study, TRIZ workshops with the teams of researchers and engineers has been performed to analyze initial complex problem situation, to identify problems, to generate new ideas, and to create solution concepts. The analysis of the workshop outcomes estimates fulfilment of the PI-goals, impact of secondary problems, variety and efficiency of ideas and solution concepts. In addition to the observed positive effect of TRIZ application, the most effective inventive principles for process engineering have been identified.