Refine
Year of publication
- 2020 (106) (remove)
Document Type
- Article (unreviewed) (25)
- Part of a Book (24)
- Contribution to a Periodical (12)
- Book (10)
- Other (10)
- Article (reviewed) (6)
- Conference Proceeding (6)
- Report (6)
- Patent (4)
- Working Paper (2)
- Doctoral Thesis (1)
Conference Type
- Konferenzartikel (6)
Language
- German (106) (remove)
Has Fulltext
- no (106) (remove)
Is part of the Bibliography
- yes (106)
Keywords
- Projektmanagement (5)
- Bildungsmanagement (3)
- Künstliche Intelligenz (3)
- Windenergie (3)
- Ablation (2)
- COVID-19 (2)
- Datenmanagement (2)
- Datenqualität (2)
- Digitalisierung (2)
- Emotionsforschung (2)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (43)
- Fakultät Wirtschaft (W) (35)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (22)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (8)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (4)
- INES - Institut für nachhaltige Energiesysteme (3)
- IfTI - Institute for Trade and Innovation (2)
- POIM - Peter Osypka Institute of Medical Engineering (1)
- Rektorat/Verwaltung (1)
Open Access
- Closed Access (64)
- Open Access (26)
- Bronze (4)
Fusion 360 – kurz und bündig
(2020)
Dieses Lehrbuch ermöglicht dem Anfänger in der 3D-Modellierung einen schnellen Einstieg in die Arbeit mit dem cloudbasierten CAD-System Autodesk® Fusion 360TM. Der Schwerpunkt liegt dabei auf den grundlegenden Funktionen zur Modellierung von Einzelteilen und dem Zusammenbau von Produkten, sowie in der Erstellung von einfachen technischen Zeichnungen. Dabei werden bei jedem Schritt die besonderen Anforderungen an eine 3D-Druck-gerechte Gestaltung erläutert und umgesetzt. Somit ist das Ergebnis dieser „Schritt für Schritt“-Anleitung die vollständige Modellierung eines Miniatur-Automobils, das am 3D-Drucker in ein reales Modell umgesetzt werden kann. Das didaktische Konzept ist so ausgelegt, dass alle Schritte für ein Selbststudium geeignet sind. Die vorliegende Auflage wurde komplett überarbeitet, sie basiert auf der neuen Benutzeroberfläche User Interface (UI) und enthält ein neues Kapitel zum CNC-Blechbiegen.
Dieses Lehrbuch ermöglicht dem Anfänger in der 3D-Modellierung einen schnellen Einstieg in die Arbeit mit dem cloudbasierten praxisorientierten CAD-System Onshape. Dabei werden bei jedem Schritt die besonderen Anforderungen an eine 3D-Druck-gerechte Gestaltung erläutert und umgesetzt. Somit ist das Ergebnis dieser „Schritt für Schritt“-Anleitung die vollständige Modellierung eines Miniatur-Automobils, das am 3D-Drucker in ein reales Modell umgesetzt werden kann. Die aktuelle Auflage wurde zugunsten besserer Lesbarkeit in ein größeres Format gebracht, die Inhalte wurden neu gegliedert und aktualisiert und um das Kapitel „Blechbauteile für CNC-Biegen" erweitert.
Zur Herstellung von Spritzgussformeinsätzen kommen in der Regel spanende Verfahren zum Einsatz. In den letzten Jahren hat sich allerdings auch die additive Herstellung dieser Werkzeuge als zweckmäßig erwiesen. In der Produktentwicklung spielt die Agilität heute eine immer wichtigere Rolle. Um mögliche Potentiale des Additive Tooling im Rahmen des Agile Prototyping und um Unterschiede zu den konventionellen Herstellverfahren aufzuzeigen, werden Angebote für die Fertigung mehrerer Formeinsätze durch eine CNC- und HSC-Fertigung, sowie durch additive Herstellung angefragt und hinsichtlich Beschaffungskosten und -zeiten miteinander verglichen. Zudem erfolgt eine Bewertung der technischen Unterschiede. Aus diesen beiden Betrachtungen kann schließlich ein Profil über die drei Herstellverfahren abgeleitet werden, welches bei der anwendungsfallspezifischen Verfahrensauswahl unterstützen soll.
Innovationen sind wichtige Treiber für ökonomisches Wachstum und sind für erfolgreiche Volkswirtschaften von zentraler Bedeutung. In Ländern wie Deutschland, Finnland oder Großbritannien sorgen ein innovationsfreundliches gesellschaftliches Klima, die Entwicklung von Spitzentechnologien an Universitäten und Hochschulen sowie privatwirtschaftliche Innovationstätigkeit für langfristigen Wohlstand. Neben multinationalen Konzernen sind kleine und mittlere Unternehmen (KMU) häufig Treiber von innovativen Ideen.
In dem durchgeführten Verbundvorhaben arbeiteten zum einen die Fachgebiete Geologie/Geothermie sowie Anlagen- und Systemtechnik von geothermischer Kältegewinnung und Kältenutzung der Projektpartner interdisziplinär zusammen, um den aktuellen Wissensstand der Kühlung mittels oberflächennaher Geothermie fachübergreifend zu erfassen, zu bewerten und Schnittstellenprobleme zu bearbeiten. Aus dieser interdisziplinären Betrachtungsweise wurden ganzheitliche Hinweise zur Optimierung des geothermischen Kühlpotenzials sowie Anstöße für technische und planerische Innovationen für die Praxis entwickelt und in diese transferiert.
Zu folgenden Zielen wurden Beiträge erarbeitet:
- Steigerung der Energieeffizienz der Kühlung und Kältebereitstellung
- Nutzung regenerativer Energien zur Kühlung und Kältebereitstellung
- Begrenzung der thermischen Belastung des Untergrunds und des Grundwassers
- Minimierung der Schäden und Risiken durch den Eingriff in den Untergrund
Die Lithium-Ionen-Batterietechnologie ist seit ihrem kommerziellen Durchbruch zu Beginn der neunziger Jahre zum Standard für die portable Energieversorgung geworden. Zunehmend macht sie auch im mobilen und stationären Bereich klassischen Technologien, wie dem Verbrennungsmotor, Konkurrenz. Da in diesen Anwendungsfeldern aber meist größere Energiemengen erforderlich und wesentlich längere Produktlebenszyklen üblich sind, sind einerseits die Sicherheit und andererseits die Alterung der Batterien von herausragendem Interesse. Diese Arbeit konzentriert sich auf die Untersuchung und Modellierung einer Lithium-Eisenphosphat-Zelle. Dabei wird eine Lithiumeisenphosphat-Kathode mit einer Graphit-Anode kombiniert. Dieser Zelltyp eignet sich besonders für stationäre Anwendungen. Trotz eines bisher vergleichsweise geringen Marktanteils lassen sich, wie im Laufe dieser Arbeit ersichtlich wird, die Ergebnisse gut auf den Großteil der kommerziell verwendeten Lithium-Ionen-Zellen abstrahieren. Ziel der Arbeit ist es, mit Hilfe mathematischer Modellierung dieser Lithium-Ionen-Batterie das Verständnis über die komplexen Alterungsmechanismen zu vertiefen, um mit diesen Erkenntnissen Verbesserungsvorschläge zum Aufbau und der Betriebsweise der Batterien zu erarbeiten. Eine Batterie ist ein hochkomplexes physikalisches System, in dem sich die räumlichen Gradienten der physikalischen Größen um viele Größenordnungen unterscheiden können. Auch bei der zeitlichen Betrachtung laufen wichtige Prozesse wie beispielsweise die Ladung, die Alterung oder das thermische Durchgehen auf sehr unterschiedlichen Zeitskalen ab. Dabei finden in der Zelle gleichzeitig, teilweise in gegenseitiger Abhängigkeit, zahlreiche chemische Reaktionen statt. Zur numerischen Simulation bedarf es also eines Modells, das flexibel mit diesen unterschiedlichen Anforderungen umgeht. Die in dieser Arbeit verwendete hauseigene Software DENIS bildet dieses flexible Gerüst, welches sich des numerischen Lösers LIMEX, der elektrochemischen Simulationsumgebung Cantera und der Mathematiksoftware MATLAB bedient. Das Kontinuum-Modell verwendet drei unterschiedliche Skalen entlang der gleichen räumlichen Dimension (sog. 1D+1D+1D oder pseudo-3D-Modell). Durch diese drei miteinander gekoppelten Skalen werden die Temperaturverteilung, die elektrochemischen Vorgänge und die Diffusion von Lithium in die Aktivmaterialien berechnet. Ähnliche, häufig nach John Newman benannte, Modelle lassen sich in großer Vielfalt in der Literatur finden. Eine wichtige Verbesserung des Modells stellt daher vor allem die Erweiterung um die Nebenreaktionen dar. Dabei ist die Bildung der Solid Electrolyte Interface (SEI) von herausragendem Interesse, jedoch auch deren Zersetzung bei zu hohen Temperaturen, die zum thermischen Durchgehen der Batterie führen kann. Durch die Modellierung der SEI-Nebenreaktion gelingt es, die kalendarische Alterung der Zellen in dem für viele kommerzielle Anwendungen relevanten Bereich von 100 % bis 80 % State of health (SOH) zu simulieren. Eine weitere wichtige Modellerweiterung stellt die Berücksichtigung mechanischer Effekte dar; dies führt zu einer Beschreibung der zyklischen Alterung der Zelle. Dabei wird ein realer mechanischer Effekt mit dem bestehenden elektrochemischen Modell verbunden. Grundlegende Hypothese ist hierbei, dass die SEI-Schicht beim Laden der Zelle aufbricht und es damit zu einer erhöhten Reduktion des Elektrolyten kommt. Somit ist das Modell in der Lage, sowohl kalendarische als auch zyklische Effekte zu simulieren, die auf chemischen und mechanischen Ursachen basieren. Die Berücksichtigung des Effektes der Austrocknung der Elektrode durch die Reduktion des Elektrolyten ermöglicht eine Vorhersage des irreversiblen Kapazitätsverlustes bis weit über die 80 % SOH-Grenze hinaus. Durch Hinzufügen einer zweiten SEI-Reaktion kann darüber hinaus das thermische und elektrische Verhalten der Zelle bei erhöhten Temperaturen außerhalb des Betriebsbereichs sowie bei externem Kurzschluss qualitativ und quantitativ gut abgebildet werden. Abweichungen der Modellvorhersage zu experimentellen Werten lassen sich zum Teil mit der Vernachlässigung von weniger relevanten physikalischen und chemischen Vorgängen erklären. Ein weiterer Grund für Abweichungen ist in der Zusammensetzung der experimentellen Daten zu suchen, bei denen die Batterien stets von der gleichen Zellchemie sind, sich jedoch in der exakten Bauform teilweise unterscheiden. Um das an Parametern deutlich überbestimmte Modell zu validieren, werden die Ergebnisse umfangreicher Experimente mit stationären Lithium-Eisenphosphat-Zellen (LFP) verwendet. Neben Lade- und Entladezyklen sind die Elektrochemische-Impedanz-Spektroskopie (EIS) und Alterungsexperimente an baugleichen Zellen durchgeführt worden. Nur mit dieser experimentellen Unterstützung entsteht somit ein konsistentes thermo-elektrochemisches Modell der Zelle. Aufgrund der erweiterten experimentellen Datengrundlage kann somit die Komplexität des Modells erhöht werden. Diese verschiedenen Modellvorhersagen können mit einem einzigen Satz an Parametern gemacht werden. Durch die Kombination und Integration dieser unterschiedlichen Alterungseffekte in ein konsistentes physikalisches System entsteht damit ein Modell, dessen Aussagekraft sich nicht auf einen spezifischen Betriebsbereich der Zelle reduziert. Die Interaktionen der vielen physikalisch-chemischen Effekte sind für verschiedene Betriebszustände analytisch nur schwer abschätzbar. Mit der modellbasierten Abbildung dieser komplexen Interaktionen wird somit ein wissenschaftlicher Mehrwert geschaffen.
Wer sich als Pädagoge und Wissenschaftler mit dem Thema Digitalisierung im Kontext von Unterricht, Lehre und Bildungsprozessen befasst, stellt schnell fest: Kaum jemand realisiert die Tragweite der durch Digitaltechnik und Netzwerke möglichen und von IT-Konzernen forcierten Transformation von Bildungseinrichtungen zu immer stärker automatisierten, kybernetisch gesteuerten Beschulungs- und Prüfanstalten. „It’s the economy, stupid“ wird zum Mantra auch der Bildung. Der Begriff Learning Analytics als Teilaspekt von Big Data Analytics weist ebenso auf Automatisierungstechnik für Lernprozesse wie der Begriff der datengestützten Schulentwicklung (Hartong, Learning Analytics und Big data in der Bildung, 2019). Mit Summit Learning (Facebook), Google Classroom oder Apple Education sind vollautomatisierte Systeme in den USA bereits im Einsatz. Der DigitalPakt Schule schafft die technischen Voraussetzungen für die Beschulung per Netz und Cloud in Deutschland (Lankau, Bildungsmarkt Schule. Tatsächliche Kosten des Digitalpakt Schule und verdeckte Interessen, 2019a).
Die Diskussionen über die Bedeutung und Folgen der Digitalisierung sind kaum noch überschaubar. Einig sind sich die meisten, dass Digitalisierung und die sogenannte „Künstliche Intelligenz“ (sKI) sowohl „alternativlos“ wie entscheidend für die Zukunft seien. Wer bei diesen Techniken nicht an der Spitze stünde, würde wirtschaftlich abgehängt und letztlich zum Verlierer. Die erste Frage ist aber: Wer steht denn an der Spitze und ist es erstrebenswert, sich dazu zu gesellen? Die zweite Frage ist, was sich konkret an technischen Systemen hinter Schlagworten wie Big Data, Künstlicher Intelligenz und autonomen Systemen verbirgt. Nicht zuletzt steht in Frage, welche Konsequenzen diese Systeme für den Einzelnen haben (können und/oder werden).
Computer an allen Schulen (1984), Schulen ans Netz (1996), Digitalpakt Schule (2016): Jede neue Rechnergeneration wird für Schule und Unterricht als notwendig reklamiert. Die Argumente wiederholen sich: PCs, Laptops, heute Tablets seien innovativ, motivationsfördernd und ermöglichten „modernen“ Unterricht. Stand der Wissenschaft ist: Weder Nutzen noch Mehrwert von IT in Schulen sind belegt. Die Digitalisierung dient offensichtlich anderen Interessen. Denn ob Kreidetafel oder Whiteboard: Entscheidend für Lernerfolge sind Lehrpersönlichkeiten, ein gut strukturierter Unterricht und der lernförderliche Umgang miteinander, nicht Medientechnik.
Die wichtigste Erfahrung beim Zeichnen ist der Prozess, mit einem Stift Spuren und Zeichen zu setzen, die direkt beim Zeichnen entstehen. Ob mit Stift auf Papier, mit dem Finger oder einem Stock im Sand: Man lässt sich auf diesen Prozess des Entstehens ein. Es ist ein Wechselspiel von Auge und Hand, mal gewollt und kontrolliert, ein anderes Mal als Spiel aus Neugier, Intuition und Zufall. Wenn es gelingt, den Alltag auszuschließen, ist Zeichnen wie Musizieren oder Tanzen, ein Akt der Poiesis, das Hervorbringen von Werken im autotelischen Zustand. Handeln und Sein ist als Qualität und Erkenntnisform eins oder neudeutsch: Ich bin im Flow.
Die entscheidende Frage bei der Konzeption einer möglichen technischen Infrastruktur für Schulen ist keine technische, sondern eine pädagogische: Was soll denn genau gelernt werden, über Rechner und Netzwerke, am Rechner oder mit dem Rechner? Ist diese Frage geklärt, kann man Hard- und Software dafür zusammenstellen.
Alle drei Anträge argumentieren technikdeterministisch, als sei (Digital)Technik mehr als ein mögliches, nicht notwendiges Hilfsmittel im Unterricht. Seit über 30 Jahren wird jede neue Geräte-Generation (PC, Laptops, heute Tablets) mit identischen Argumenten (innovativ, modern, motivationsfördernd) für den Einsatz im Unterricht reklamiert. Doch entscheidend für Lernerfolge und Bildungsprozesse sind die Lehrer-Schülerbeziehung, die direkte Interaktion zwischen Lehrenden und Lernenden und die Sozial- und Klassengemeinschaft, nicht die technische Ausstattung von Schulen. Lernprozesse in Bildungseinrichtungen beruhen auf dem sozialen Miteinander und wechselseitigem Vertrauen. Lernen ist ein individueller und sozialer Prozess, kein technischer Vorgang. Kein Mensch lernt digital.
Keiner der Anträge unterscheidet nach dem Alter der Schülerinnen und Schüler als dem entscheidenden Kriterium für den Einsatz von Medientechnik im Unterricht. Stattdessen wird technikeuphorisch einer zunehmenden Automatisierung des Beschulens und Testens das Wort geredet (Lernsoftware, Lernmanagementsysteme, Lernprofile u.a.). Stand der Wissenschaft (einschließlich der Erfahrungen mit Covid-19 und erzwungenen Schulschließungen) ist aber, dass Präsenzunterricht das oberstes Primat der Schulen sein muss. Schulen sind die Orte des sozialen Miteinander und Schutzraum gerade für sozial Benachteiligte. Das Ziel sind Lern- und Verstehensprozesse der Schülerinnen und Schüler, die Entwicklung ihrer Persönlichkeit und ihre Bildungschancen, nicht quantitative Vergleiche über die technische Ausstattung von Schulen in anderen Bundesländern oder dem Ausland. Pädagogisch argumentierend würde nicht auf digitale Medien(technik) verkürzt; es würden analoge wie technische Medien gleichwertig einbezogen. Ob und ggf. für was man Digitaltechniken altersangemessen und ohne Rückkanal (!) für Nutzerdaten einsetzen kann, ist hingegen erst durch ergebnisoffene Studien zu belegen. Was in allen Anträgen fehlt, ist daher ein klares Verbot der Profilierung Minderjähriger.
Wer darüber hinaus das Ziel der digitalen Transformation der gesamten Gesellschaft mit dem Ziel der digitalen Organisation aller Lebensbereiche kennt, weiß, dass wir IT erst neu denken und alternative Infrastrukturen aufbauen müssen, bevor Digitaltechnik in Schulen einsetzbar wird. Datensparsamkeit und Dezentralisierung, Hoheit über die eigenen Daten und DSGVO-konforme Systeme sind zukunftsweisende Stichworte für IT in Schulen, nicht EdTech als Big Business der Global Education Industries (GEI).
Als Einstieg in den Diskurs über zivile Netzwerktechnologien, mobile Geräte, Onlinedienste und die Frage, wie sich die „Kirche der Zukunft“ (zumindest aus medienwissenschaftlicher Sicht) positionieren kann, dienen drei Zitate. Die Gegenüberstellung der darin vertretenen Positionen soll den Nutzen und die Folgen der zunehmend vollständigen Durchdringung (fast) aller Lebensbereiche mit Digitaltechnik für den Einzelnen wie für die Gesellschaft aufzeigen.
Unter dem Deckmantel der Covid-19-Pandemie werden soziale Einrichtungen wie Bildungseinrichtungen oder das Gesundheitssystem systematisch auf Digitalisierung getrimmt. Schon Grundschulkinder werden an die Arbeit am Display gewöhnt und Schulen mit Geldern aus dem Digitalpakt Schule technisch aufgerüstet. Lernsoftware, Schulcloud und Learning Analytics erlauben die Verdatung von Schülerbiographien. Digitale Endgeräte als Leihgabe für Schülerinnen und Schüler bereiten den Fernunterricht für die Zeit nach der Pandemie vor. Auf der Strecke bleiben dabei möglicherweise nicht nur Grundrechte, Privatsphäre und letztlich die Autonomie des Menschen, sondern auch das notwendige Vertrauen in politische Entscheidungen, wenn etwa die Digitalisierung zunehmend aller Lebensbereiche gar nicht mehr hinterfragt wird. Dabei reichen bereits vier Forderungen zur IT-Entwicklung, um demokratisch legitimierte Alternativen von Softwarelösungen zu entwickeln, wie der Streit um die Corona-App gezeigt hat.
Im Rahmen des Forschungsprojekts Professional UX entwickelt die Hochschule Offenburg gemeinsam mit dem Softwarehaus Dr. Hornecker in Freiburg eine innovative Systemlösung, die es ermöglicht, anhand von Mimik, Stimme und Blickverlauf beim Nutzer entstehende Emotionen bei der Nutzung interaktiver Anwendungen zu erfassen und zu interpretieren. Ziel der Untersuchung ist es, Indikatoren zu identifizieren, die eine exakte Zuordnung von wahrgenommenen Reizen zu den jeweils ausgelösten Emotionen erlauben. Sobald negative Emotionen wie Ärger oder Unsicherheit auftreten, kann dieser erfasst und im Nachgang der jeweils irritierende Reiz eliminiert werden. Das Projektteam hat einen ersten Prototyp für die Professional UX Systemlösung in Form von Hard- und Software entwickelt, mit dem es möglich ist, UX-Messungen während der User Interaktion durchzuführen und automatisiert mithilfe von KI auswerten zu lassen.
Unternehmen im B2B und B2C stehen zunehmend vor der Herausforderung etablierte Geschäftsmodelle zu überdenken und die Integration neuer Kommunikations- und Vertriebskonzepte in Erwägung zu ziehen. Doch fehlt es zumeist an „digitalen Kompetenzen“, welche in Form neuer Mitarbeiter und Mitarbeiterinnen eingestellt bzw. durch die Hinzuziehung von Dienstleistern eingekauft werden müssen. Diese benötigen aber zunächst Zeit das Selbstverständnis, die Kultur und Vision des betreffenden Unternehmens zu erfassen.
Emotionen sind Teil jedes menschlichen Wesens: Sie begleiten Konsumenten und Konsumentinnen durch alle Alltagssituationen – auch und insbesondere bei Kaufentscheidungen. Jedoch war es bisher nur bedingt möglich, diese Emotionen im Dialogmarketing genau zu erfassen und zu interpretieren. Die innovative Customer Experience Tracking Methode der Hochschule Offenburg ermöglicht eine verzerrungsreduzierte Messung und Auswertung von Kundenemotionen, die vor, während und nach der Benutzerinteraktion mit Dialogmarketingaktivitäten auftreten. Aus den im Labor oder im Feld gewonnenen Untersuchungsergebnissen lassen sich konkrete Handlungsempfehlungen ableiten, um Dialogmarketingangebote im Offline-, Online- oder crossmedialen Bereich optimal auf die Bedürfnisse und Erwartungen der Kunden und Kundinnen auszurichten.
Die Literatur hat in den letzten Jahren einen breiten Diskurs zur Digitalisierung im Rechnungswesen eröffnet. Während die erste Digitalisierungswelle noch grundlegende Digitalisierungsprozesse umfasste, betrifft die zweite Digitalisierungswelle das Unternehmen in seiner Gesamtheit und geht weit über eine digitale Datenverarbeitung hinaus. Digitalisierung reicht daher von der Anwendung grundlegender digitaler Technologien zur Unterstützung von Geschäftsprozessen über Automatisierung betrieblicher Prozesse bis hin zu einer umfassenden digitalen Transformation des gesamten Unternehmens.
Mathematik 1 Beweisaufgaben
(2020)
Die Beweisaufgabensammlung richtet sich an angehende Ingenieure, die die im Rahmen einer Mathematik 1-Vorlesung eingeführten Formeln nicht nur anwenden, sondern selbst herleiten wollen. Zur Unterstützung dienen neben ausführlichen Lösungen die in einem Extrakapitel angegebenen Lösungshinweise: halbfertige Skizzen, Teilergebnisse, Nennung der Beweismethode oder eine Auflistung der relevanten Gleichungen. Bei umfangreicheren Herleitungen ist eine Aufteilung in mehrere Aufgaben vorgenommen worden. Für die 2. Auflage wurden 45 weitere Beweisaufgaben aufgenommen, viele aus dem Bereich der Geometrie, z.B. der Höhensatz des Euklid, Abstandsformeln oder ein Vergleich der verschiedenen Darstellungsarten einer Ebene. Neben der pq-Formel wird nun auch die abc-Formel hergeleitet, die Potenzgesetze werden durch Wurzelgesetze komplettiert, und es wird bewiesen, dass die Kubikwurzel sogar im Sattelpunkt streng monoton steigt. Es wird diskutiert, warum man 0 hoch 0 zu eins definieren sollte, die verschiedenen Darstellungsformen einer Parabel ineinander überführt und gezeigt, woher das Newton-Verfahren kommt.
Die Beweise werden ergänzt durch zwei Formelsammlungen, mit denen sich eine typische Mathematik 1-Klausur lösen lässt. Die Gleichungen und Regeln der Lern-Formelsammlung sind von so elementarer Bedeutung, dass sie jeder Ingenieurstudent auswendig können sollte. Formeln und Lösungsstrategien, die aufgrund ihres etwas anspruchsvolleren Inhalts nicht jeder im Kopf haben muss, finden sich in der Klausur-Formelsammlung.
Im Beitrag wird gezeigt, wie sich die Ackermann’sche Formel zur Polvorgabe bei zeitkontinuierlichen
Ein- und Mehrgrößenzustandsregelungen in einfacher
Weise auf nicht vollständig steuerbare Regelstrecken
erweitern lässt. Das vorgestellte Verfahren basiert
auf einer teilsystemorientierten Zustandstransformation
in Verbindung mit der Einführung zusätzlicher fiktiver Stellgrößen, über die nichtsteuerbare Streckeneigenwerte
formal beeinflusst werden könnten, aber durch Nullsetzen
dieser Stellgrößen nicht beeinflusst werden. Dem
Reglerentwurf vorausgehende Maßnahmen zur Elimination
von nicht steuerbaren Anteilen aus dem Streckenmodell
sind daher nicht erforderlich. Im Vergleich zum Fall
einer vollständig steuerbaren Regelstrecke erfordert die
Anwendung des vorgestellten Verfahrens kaum Mehraufwand,
was am Beispiel eines Eingrößen- und eines Mehrgrößensystems
illustriert wird.
Das vorliegende Buch behandelt lineare zeitdiskrete Regelverfahren und gliedert sich in zwei Teile mit ganz unterschiedlichen thematischen Schwerpunkten. In den ersten sechs Kapiteln steht die Analyse und Synthese von zeitdiskreten Regelungen im Bildbereich im Vordergrund. Im zweiten Teil des Buchs werden im Zeitbereich angesiedelte zeitdiskrete Reglerentwurfsverfahren behandelt. Dort dominieren Zustandsraumverfahren die Erläuterungen.
In der vorliegenden Arbeit werden fotografische Aufnahmen zweier verschiedener Abgüsse von Paganinis rechter Hand vorgestellt und näher beschrieben. Es handelt sich um einen mutmaßlich originalen Bronzeabguss, der vermutlich kurz nach Paganinis Tod auf dessen Totenbett abgenommen wurde, und eine in heutiger Zeit angefertigte Kopie aus Fiberplastik mit goldfarbenem Anstrich. Die Hand ist im proximalen Handgelenk stark abgewinkelt, was dafür spricht, dass die Hand des Toten auf einem Kissen gelegen haben könnte, um den Abguss vorzunehmen. Überdies zeigt sich eine verkrampfte Stellung der Finger und Hand, am ehesten infolge Totenstarre. Man findet zudem arthrotische Veränderungen sowie hervortretende Sehnen und atrophierte Muskulatur. Beim Bronzeabguss sind die beschriebenen Auffälligkeiten deutlicher zu erkennen. Ein 3D-Scan des Bronzeabgusses der rechten Hand Paganinis mit einem Strukturlichtscanner würde die Möglichkeit eröffnen, Messdaten der Hand zu erhalten.
In der vorliegenden Arbeit wurde die von Wilhelm His Sr. angefertigte und im Jahr 1895 publizierte Fotografie des mutmaßlichen Skeletts von Johann Sebastian Bach auf ihre Abbildungsqualität untersucht. Dies erfolgte durch direkte Messungen an einem digitalen Scan der Fotografie. Dabei wurde der von His der Fotografie beigelegte Lineal-Maßstab in mehrere 10-cm-Stücke unterteilt und die Länge dieser Abschnitte im Digitalisat mit dem Messinstrument von Adobe Acrobat ausgemessen. Darüber hinaus wurden die Längen der Femora ermittelt und mit den Maßen verglichen, die 1895 an den tatsächlichen (realen) Knochen ermittelt wurden. In dem Digitalisat entsprachen 190 cm im Lineal 244,48 mm. Der Mittelwert der 19 bestimmten 10-cm-Abschnitte betrug 100,49 mm (Median 100,49 mm, Standardabweichung 0,49 mm). Die historische Femurlänge links betrug 443,5 mm, rechts 451,0 mm. Die im Digitalisat ermittelte Femurlänge betrug links 443,8 mm, rechts 451,1 mm. Zusätzlich wurden die projizierten Centrum-Collum-Diaphysen-Winkel bestimmt. Die Daten lassen den Schluss zu, dass die Oben/unten-Verzerrung sowie die Rechts/links-Verzerrung nicht nennenswert sind und das von His angefertigte Foto mit einer hohen Genauigkeit der Abbildungsqualität und des Linsenapparats der Kamera angefertigt wurde, die es ermöglicht, bestimmte Skelettanteile aussagekräftig zu beurteilen und auszumessen.
Im Archiv für Kriminologie wurden bislang drei Arbeiten zur 3-D-CAD-Rekonstruktion der ersten "Eisernen Hand" des berühmten Reichsritters Gottfried ("Götz") von Berlichingen (1480-1562) vorgestellt. Mittlerweile sind einige neue Gesichtspunkte herausgearbeitet worden, die hier kurz als Ergänzung mitgeteilt werden sollen.
Konstrukteure im Maschinenbau stehen häufig vor der Problemstellung, hochfest vorgespannte Schraubenverbindungen und einen durchgehenden Korrosionsschutz zu vereinen. Die Normen und Richtlinien bieten hierzu Stand heute keine ausreichenden Antworten. Die Hochschule Offenburg befasst sich im Rahmen einer industriellen Gemeinschaftsforschung mit der Fragestellung, welchen Einfluss organische Beschichtungen auf die Vorspannkraft insbesondere bei erhöhten Umgebungstemperaturen haben. In dieser Arbeit werden die ersten Ergebnisse zum Einfluss der Einzelschichtstärke des Beschichtungssystems präsentiert.
Die voranschreitende Digitalisierung ist ein Enabler für Business Analytics wodurch sich wiederum ein weiteres Innovationspotenzial durch dessen Nutzung in der datengetriebenen betrieblichen Entscheidungsunterstützung ergibt. Die Herausforderung besteht nun darin, bereits bei der Planung eines Digitalisierungsprojektes das Potenzial für weitergehende Business Analytics-Anwendungen zu erkennen, um dieses auszuschöpfen. Dabei spielen weniger die Methodenspezialisten, sondern eher die Entscheider in den Fachabteilungen die zentrale Rolle.
„Nichts geschieht ohne Risiko, aber ohne Risiko geschieht auch nichts“, sagte der ehemalige Bundespräsident Walther Scheel. Der Ausspruch sensibilisiert dafür, dass in fast allen Themen und Prozessen Risiken stecken und die Akteure ein kalkulierbares Risiko eingehen sollten, um auch in komplexen Themen einen signifikanten Fortschritt zu erlangen. In unserem Fall sind die Akteure Projektleiter und Projektteammitglieder, die kaum eigene/persönliche Risiken eingehen, sondern Projektrisiken professionell managen müssen. Die Teammitglieder sind dabei von den Projekten selten persönlich bedroht, sondern das Projekt oder das Unternehmen und entsprechend sind die Risiken oft auch deutlich größer, als eine einzelne Person es sich vorstellen oder persönlich verantworten kann.
… nicht nur in der Energiewirtschaft, sondern auch im positiven und wahrsten Sinne des Wortes in der Fachgruppe PM Windenergie. In über 40 Jahren GPM wurde immer wieder deutlich, dass Projekte und Programme in Wirtschaft und Gesellschaft nicht nur begleitet, sondern auch aus der GPM heraus mitgestaltet werden. Die Entwicklung und die Ergebnisse der Fachgruppe Windenergie machen dies besonders deutlich.
Jedes Projektteam braucht engagierte Teammitglieder, der NQSZ 147-04 AA zum Projektmanagement auch
(2020)
Dieses Buch verspricht unter dem Titel „… Wie Unternehmen den Wandel meistern“ Antworten zu geben, aber: Prognosen sind schwierig, vor allem, wenn sie die Zukunft betreffen. Dieses mal Winston Churchill, mal Kurt Tucholsky oder anderen zugeschriebene Zitat macht deutlich, dass jeder Unternehmer – Geschäftsführer, Vorstandsmitglied, Inhaber – die Notwendigkeit des Wandels für sich selbst erkennen und diesen zum richtigen Zeitpunkt in angemessenem Umfang einleiten muss. Dabei besteht die Gesamtheit aller betrieblichen Tätigkeiten zu einem ganz wesentlichen Teil aus Projekten und auch der (mehr oder weniger technologiegetriebene) Wandel des Unternehmens selbst wird ein Projekt sein.
Eine kontinuierliche Überwachung von Ethernet-Leitungne beugt Maschinenausfällen in der Industrie vor. Aktuell fehlen jedoch geiegnete Methoden, um diese Überwachung flächendeckend durchzuführen. Im Projekt Ko²SiBus wurde deshalb ein kostengünstiges Verfahren zur kontinuierlichen Überwachung von Ethernet-Leitungen entwickelt.
Die transösophageale Neurostimulation ist eine neue Therapieform und könnte unter anderem zur Schmerzlinderung während einer transösophagealen Linksherzstimulation angewendet werden. Sie ist in die Kategorie der Rückenmarksstimulation (SCS) einzuordnen, die die meist verwendete Technik der Neurostimulation ist. Die derzeit auf dem Markt vorhandenen Ösophaguskatheter werden bei einer elektrophysiologischen Untersuchung mit Ablation und transösophagealer Echokardiographie zur Temperaturüberwachung eingesetzt. Das Ziel dieser Arbeit war, das vorhandene Offenburger Herzrhythmusmodell, um die Wirbelsäule zu erweitern, einen neuen Ösophagus-Elektroden- Katheter für die transösophageale elektrische Stimulation des Rückenmarks zu modellieren und mittels 3D-Computer-Simulationen auf Ihre Wirksamkeit zu untersuchen.
Das Monitoring von Industrieanlagen stellt in der Wirtschaft sicher, dass hoch-automatisierte Prozesse reibungslos ablaufen können. Meistens steht hier das Monitoring der Anlagen selbst im Mittelpunkt, die Kommunikationsleitungen für den Datenaustausch auf Ethernet-Basis (z.B. Profinet) sind gegenwärtig noch nicht Teil einer kontinuierlichen Überwachung. Zwar werden auch hier die physischen Verbindungen überprüft, jedoch geschieht häufig dies nur zum Zeitpunkt der Inbetriebnahme, wenn die Anlage noch nicht in das Gesamtsystem integriert ist oder während eines Wartungszyklus, wenn die Maschine für die Dauer der Wartung aus dem Betriebsablauf genommen wird. Dies führt dazu, dass insbesondere heute, wo vor allem Ethernet zunehmend als Basis für die industrielle Kommunikation herangezogen wird, Maschinenausfälle aufgrund fehlender Kabelüberwachung immer wahrscheinlicher werden. Um dem entgegenwirken zu können, wurde im Projekt Ko2SiBus ein neues Messverfahren konzipiert, implementiert und validiert, das kostengünstig in neue oder bestehende Systeme integriert werden kann. Um die Tauglichkeit zu zeigen, wurden die Projektergebnisse in Prototypen und Demonstratoren implementiert, die sowohl als Stand-Alone aber auch als Integrationslösungen dienen können.
Die industrielle Kommunikation war früher von relativ eingeschränkten, geschlossenen Feldbussystemen geprägt. Mit der zunehmenden Öffnung von Automatisierungsnetzen durch die horizontale und vertikale Integration in Produktionsanlagen entstehen gefährliche Angriffsflächen, die zum Diebstahl von Produktionsgeheimnissen, der Manipulation oder dem kompletten Lahmlegen der Produktionsprozesse führen können. Hieraus ergeben sich grundlegend neue Anforderung an die Datensicherheit, denen mit innovativen Lösungsansätzen begegnet werden muss.
Ziel des Forschungsvorhabens „SecureField“ war es, die Umsetzbarkeit und Anwendbarkeit des Ansatzes „(D)TLS-over-Anything“ zu untersuchen und nachzuweisen, sowie einen Werkzeugkasten zur Definition und Implementierung entsprechender Sicherheitslösungen vorzubereiten. Als langjährig etablierter Standard im IT-Umfeld stellte sich das (Datagram) Transport Layer Security ((D)TLS) Protokoll in Kombination mit einer industrie- bzw. automatisierungskompatiblen Public-Key-Infrastruktur (PKI) als äußerst vielversprechende Möglichkeit dar, Datensicherheit auch im OT-Umfeld zu erzielen. Hierbei sollten insbesondere KMU adressiert werden, für welche eigene Entwicklungsarbeiten in diesem Umfeld häufig zu aufwändig und technisch sowie wirtschaftlich zu riskant sind.
Mit „SecureField“ konnten Ergebnisse auf mehreren Ebenen erzielt werden. Zunächst konnte im Projektverlauf ein umfassendes und generisches Konzept zur Ende-zu-Ende-Absicherung von Kommunikationspfaden und -protokollen im industriellen Umfeld erarbeitet werden. Dieses Konzept besteht aus einem generischen Kommunikationsmodell sowie aus einem generischen Authentifikationsmodell.
Um medizinische Behandlungsverfahren in der Praxis besser verstehen und anwenden zu können, gewinnt die Visualisierung der Prozesse an immer größerer Bedeutung. Durch Anwendung der Computer-Simulationssoftware CST können elektromagnetische und thermische Simulationen zur Analyse verschiedener Herzrhythmusstörungen durchgeführt werden. Eine weitere Form der Visualisierung erfolgt durch haptische, dreidimensionale Druckmodelle. Diese Modelle können mit einem generativen Herstellungsverfahren, wie z. B. einem 3D-Drucker, in kürzester Zeit hergestellt werden.
Innovation ist die Triebfeder wirtschaftlicher Entwicklung. Niemand hat das so früh erkannt und so klar formuliert wie Joseph Schumpeter: „Der fundamentale Antrieb, der die kapitalistische Maschine in Bewegung setzt und hält, kommt von den neuen Konsumgütern, den neuen Produktions- oder Transportmethoden, den neuen Märkten, den neuen Formen der industriellen Organisation, welche die kapitalistische Unternehmung schafft.“
Schlussbericht IntelliKOMP
(2020)
Im Rahmen des Verbundprojektes IntelliKOMP sollten smarte Werkzeughalter und Spannfutter für Werkzeugmaschinen im Hinblick auf Industrie 4.0 entwickelt werden. Durch eine hochintegrierte Elektronik in den peripheren Maschinenkomponenten soll mittels Sensoren eine Datenerfassung, -verarbeitung und drahtlose -übertragung erfolgen. Durch diese Daten soll bspw. eine prädiktive Wartung ermöglicht werden.
In der Forschungsgruppe um Prof. Dr. Thomas Wendt werden Themen in unterschiedlichsten Bereichen von Automatisierungstechnik über funktionale Sicherheit bis hin zur 3D-gedruckten Elektronik / Sensorik behandelt. Insgesamt arbeiten vier Doktoranden und vier Mitarbeiter an der Weiterentwicklung der verschiedenen Technologien, die in diesem Artikel zusammengefasst dargestellt sind.
Digitale Geschäftsmodelle zeichnen sich oft durch die spezifische Nutzung von proprietären Daten oder Algorithmen aus. Wettbewerbsvorteile von Firmen mit digitalen Geschäftsmodellen sind dann charakterisiert durch Merkmale von erfolgsrelevanter Information und Aspekten von deren Offenlegung − oder bewusst gewählter Intransparenz − die intrinsisch zu asymmetrischer Information führen. Management und Personal der Firma kennen die Erfolgsaussichten und die relevanten Risikofaktoren dann besser als mögliche Kapitalgeber.
Das Buch bietet eine fundierte Einführung in die Chronologie bekannter Angriffe und Verwundbarkeiten auf mobile Systeme und dessen konzeptionelle Einordnung der letzten zwei Dekaden. So erhält der Leser einen einmaligen Überblick über die Vielfältigkeit nachweisbar ausgenutzter Angriffsvektoren auf verschiedenste Komponenten mobiler drahtloser Geräte sowie den teilweise inhärent sicherheitskritischen Aktivitäten moderner mobiler OS. Eine für Laien wie Sicherheitsarchitekten gleichermaßen fesselnde Lektüre, die das Vertrauen in sichere mobile Systeme stark einschränken dürfte.
Der Inhalt
Verwundbarkeit von 802.15.4: PiP-Injektion
Verwundbarkeit von WLAN: KRACK-Angriff auf WPA2
Verwundbarkeit von Bluetooth: Blueborne und Co.
Verwundbarkeiten von NFC und durch NFC
Angriffe über das Baseband
Android Sicherheitsarchitektur
Horizontale Rechteausweitung
Techniken zu Obfuskierung und De-Obfuskierung von Apps
Apps mit erhöhten Sicherheitsbedarf: Banking Apps
Positionsbestimmung durch Swarm-Mapping
Seitenkanäle zur Überwindung des ‚Air-gap‘
Ausblick: 5G Sicherheitsarchitektur
Die Zielgruppen: Studierende der Informatik, Wirtschaftsinformatik, Elektrotechnik oder verwandter Studiengänge Praktiker, IT-Sicherheitsbeauftragte, Datenschutzbeauftragte, Entscheidungsträger, Nutzer drahtloser Geräte, die an einem ‚Blick unter die Motorhaube‘ interessiert sind.
Das Standardlehrbuch zum internationalen Steuerrecht
Kenntnisse im internationalen Steuerrecht werden in der steuerlichen Ausbildung immer wichtiger. Mit dem „Wilke“ sichern Sie sich einen umfassenden und fundierten Einstieg in diese komplexe Materie. Leicht verständlich und anschaulich vermittelt dieses Standardlehrbuch Ihnen alle relevanten Grundlagen des internationalen Steuerrechts.
Der Aufbau des Buchs orientiert sich dabei sowohl an den Bedürfnissen der Ausbildung als auch denen der Praxis. Als idealer Begleiter unterstützt es Sie in jeder Phase Ihrer beruflichen Entwicklung – von den ersten Schritten in der Steuerberater-Ausbildung bis hin zur erfolgreich abgeschlossenen Weiterbildung zum Fachberater für Internationales Steuerrecht.
Die 15. Auflage berücksichtigt die Entwicklung auf dem Gebiet des internationalen Steuerrechts in Gesetzgebung, Rechtsprechung, Literatur und Verwaltung bis Ende März 2020.
Rechtsstand: 1.4.2020