Abstracts
Keynotes
Are You Ready for AI? Is AI Ready for You?
9:10–9:40
AI, or artificial intelligence, is powering a massive shift in the roles that computers play in our personal and professional lives. Most technical organizations expect to gain or strengthen their competitive advantage through the use of AI. But are you in a position to fulfill that expectation, to transform your research, your products, or your business using AI?
Richard Rovner looks at the techniques that compose AI (deep learning, computer vision, robotics, and more), enabling you to identify opportunities to leverage it in your work. You will also learn how MATLAB® and Simulink® are giving engineers and scientists AI capabilities that were previously available only to highly-specialized software developers and data scientists.

Richard Rovner, Vice President of Marketing, MathWorks
Künstliche Intelligenz für Intelligente Technische Systeme
9:40–10:10
Intelligente technische Systeme wie z.B. Industrie 4.0 Produktionsanlagen zeichnen sich durch Autonomie und Lernfähigkeit aus. Solche Fähigkeiten setzen aber die Verwendung von Methoden des Maschinellen Lernens und der Künstlichen Intelligenz in der Automation voraus. D.h. es bedarf in der Automation eines Paradigmenwechsels, weg vom manuellen Engineering und hin zu intelligenten, kognitiven Systemen.
In dem Vortrag werden Methoden des Maschinellen Lernens und der Künstlichen Intelligenz vorgestellt und ihrer Eignung für den Anwendungsfall Industrie 4.0 analysiert. Dies geschieht anhand von realen Anwendungsfällen, u.a. aus der SmartFactoryOWL. Beispiele sind Predictive Maintenance, Alarm-Management, Diagnose und Optimierung.
Der Vortrag präsentiert Anforderungen an die Künstlichen Intelligenz aus diesen technischen Domänen und diskutiert den aktuellen Stand der Entwicklung.

Prof. Dr. Oliver Niggemann, Stellvertretender Leiter des Fraunhofer Anwendungszentrums Industrial Automation IOSB-INA
Was ist neu in MATLAB und Simulink
10:10–10:40
Learn about the new capabilities in the latest releases of MATLAB® and Simulink® that will help your research, design, and development workflows become more efficient. MATLAB highlights include updates for writing and sharing code with the Live Editor, developing and sharing MATLAB apps with App Designer, and managing and analyzing data. Simulink highlights include updates to the Simulation Manager that allow you to run multiple simulations in parallel and new smart editing capabilities to build up models even faster. There are also new tools that make it easier to automatically upgrade your projects to the latest release.
Michael Glaßer, MathWorks
1.1 Industrie 4.0
Das virtuelle Walzwerk: Weg zum Cyber-Physical System
11:15–11:45
Die Achenbach Buschhütten GmbH & Co. KG ist ein Unternehmen aus dem Bereich der Aluminiumwalzwerke. Zur laufenden Qualitätskontrolle des Automatisierungscodes und Test neuer Funktionen wurde ein Simulink® Modell des Walzwerks entwickelt. Abseits der elektrischen, mechanischen und hydraulischen Komponenten bildet dieses auch den Umformprozess an sich ab. Hierzu gehören u. A. Modelle der Bandtemperatur, Walzendurchbiegung und des Walzspaltprofils. Damit wird eine Möglichkeit geschaffen das Modell mit virtuellen Coils zu beschicken und deren Qualität nach Durchlauf des Prozesses hinsichtlich vielfältiger Gütekriterien (z.B. Bandplanheit, Banddickengenauigkeit) zu bewerten. Der Einfluss regelungstechnischer Optimierungsmaßnahmen zur Steigerung der Güte ist somit direkt evaluierbar. Auch kritische dynamische Vorgänge während des Anfahrens und Anhaltens der Anlage sind in dem Simulink Modell abgebildet, welches auf einer M1 Steuerung in Echtzeit parallel zum Automatisierungscode der Anlage abgearbeitet wird.
Das Projekt wurde dahingehend weiterentwickelt, dass Messwerte zu jedem Zeitpunkt mit einer realen Anlage austauschbar sind. Somit können die im Zuge von Industrie 4.0 gewonnene Messwerte direkt im virtuellen Walzwerk eingespielt und der aktuelle Zustand der realen Anlage detailliert bewertet werden.
Dr. Maksim Klinkov, Achenbach Buschhütten
Predictive Maintenance mit MATLAB: Time Series Production Data Analysis
11:45–12:15
Anhand eines Beispiels aus dem Produktionsalltag zeigen wir eine effiziente Methode zur Echtzeit- Überwachung einer großen Zahl von Prozessparametern.
Im Rahmen moderner Produktionsüberwachung werden heute oft große Mengen an produktionsrelevanten Prozessparametern digital erfasst. In einer Serienfertigung wiederholen sich immer dieselben Produktionstakte. So entstehen Datenpakete, die für jeden Produktionstakt und jeden beobachteten Prozessparameter eine Zeitreihe enthalten. Bei korrektem Ablauf der Produktion weisen die Zeitreihen aus unterschiedlichen Produktionstakten eine hohe Ähnlichkeit auf, Abweichungen deuten hingegen auf Verschleiß hin.
Im Rahmen des hier vorgestellten Projektes sollen die Zeitreihen einer großen Anzahl von Prozessparametern beobachtet und Abweichungen vom idealen Sollzustand erkannt werden. Die Herausforderung liegt dabei in der Vielfältigkeit und Komplexität der verschiedenen Zeitserien, welche unterschiedliche Formmerkmale aufweisen.
Es wird eine Methode vorgestellt, die in der Lernphase komplexe Zeitreihen auf eine kleine Zahl aussagekräftiger Kennzahlen charakterisiert und diese einschließlich der typischen Abweichungsbereiche bestimmt. Die einzelnen Kennzahlen werden hinsichtlich ihrer Aussagekraft und Robustheit bewertet und ausgewählt.
In der Überwachungsphase werden die Kennzahlen jedes Produktionstaktes mit der Idealform verglichen, sodass statistisch signifikante Abweichungen sehr einfach identifiziert werden können.
Dr. Irina Ostapenko, Dr. Türck Ingenieurbüro
Jessica Fisch, Daimler
Industrial IoT: Integration von ThingSpeak und PC-basierter Steuerungstechnik
12:15–12:45
In diesem Vortrag diskutieren wir die enge Systemintegration von der (shop floor) Fertigung - Echtzeitsteuerung mit TwinCAT® 3 - bis zur MathWorks Iot PlatformThingSpeak. Daher werden verschiedene Aspekte der Integration von PC-based Control mit ThingSpeak™, die auf unterschiedliche Anwendungsfälle abzielen, sowie die Kosten für die Datenübernahme aufgezeigt.
Zunächst stellen wir die direkte Kommunikation aus TwinCAT 3 heraus über MQTTT zu ThingSpeak vor. ThingSpeak implementiert ein MQTTT-Gate, das direkt aus der Echtzeitumgebung heraus angesprochen werden kann. Die Datenvorverarbeitung und -kompression kann in TwinCAT 3 mit Hilfe von SPS-Bibliotheken, C/C++ und natürlich integrierten MATLAB® und Simulink®-Modulen realisiert werden. Diese Vorverarbeitung ist unerlässlich, denn der Datendurchsatz in einer Maschinensteuerung erreicht leicht wesentlich höhere Dimensionen, als dies bei einem Cloud-System der Fall sein sollte (d.h. aus wirtschaftlichen Gründen). Ein einfaches Beispiel zeigt, wie man Daten in ThingSpeak publiziert, eine MATLAB Funktion auslöst und das Ergebnis der ausgelagerten Berechnung abonniert. Wird keine automatisierte Reaktion gewünscht bzw. gewünscht, können ThingSpeak Charts über iframes in das TwinCAT 3 HMI der Maschine integriert werden, um den Maschinenbediener zu informieren.
Zweitens stellen wir Ihnen vor, wie Sie MATLAB als Intermediate Gateway zwischen TwinCAT 3 und ThingSpeak einbinden können. Da jede Beckhoff-Maschinensteuerung ein Industrie-PC (IPC) mit Windows-Betriebssystem ist, ist es möglich, eine MATLAB Compiler™ Runtime neben der TwinCAT Runtime direkt auf demselben (auch auf einem anderen) Hardware-Gerät zu hosten. Zwischen beiden Laufzeiten können Daten übertragen werden, z.B. über ADS oder OPC-UA. Somit kann der MATLAB Compiler Runtime als asynchrone Laufzeit für die Vorverarbeitung von Daten fungieren und Daten über die Rest-API an ThingSpeak weiterleiten.
Beide Integrationswege ermöglichen es, die Rechenleistung an übergeordnete Systeme auszulagern. Wenn eine Berechnung asynchron zur Echtzeit ausgeführt werden kann (oder muss), z.B. ein Condition Monitoring oder eine Optimierungsfunktion, kann diese Berechnung an einen MATLAB Compiler Runtime oder ThingSpeak ausgelagert werden, um die Hardwarekosten in der Fertigung zu reduzieren.
Dr. Fabian Bause, Beckhoff
Dr. Rainer Mümmler, MathWorks
2.1. Einführung und Postersession
Fit für die MATLAB EXPO: Eine kurze Einführung in MATLAB
11:15–11:45
In diesem Vortrag laden wir Sie ein zu einer Einführung in MATLAB®, die high-level Programmiersprache und interaktive Entwicklungsumgebung. Als Plattform für numerische Berechnungen, Visualisierungen und Anwendungsentwicklung stellt MATLAB das Fundament dar für sämtliche Projekte, die auf der MATLAB EXPO vorgestellt werden. Wir zeigen Ihnen wie Sie schnell und einfach unterschiedliche Ideen ausprobieren, Zusammenhänge in Ihren Daten erkennen und Ihre Ergebnisse dokumentieren und weitergeben können. Sie erhalten einen grundlegenden Einblick, in die Funktionsweise und Anwendungsgebiete. Die Präsentation richtet sich sowohl an Teilnehmer der Konferenz, die bisher keinen Kontakt zu MATLAB hatten, als auch an solche, die Ihren generellen Überblick auffrischen wollen.
Dr. Jacob Palczynski, MathWorks
3.1. Bild- und Signalverarbeitung
matRad: ein open-source Planungsystem für strahlentherapeutische Krebsbehandlungen
11:15–11:45
Ziel der Strahlentherapie ist es durch ionisierende Strahlung das Wachstum eines Tumors innerhalb eines Patienten bei möglichst geringer Schädigung von umliegendem Normalgewebe zu kontrollieren. Vor dem Beginn einer strahlentherapeutischen Behandlung steht jedoch ein virtueller Planungsprozess um für jeden individuellen Patienten die optimale Therapie zu bestimmen. Dafür wird die innerhalb des Patienten deponierte Strahlungsenergie mit physikalischen Dosisberechnungsalgorithmen simuliert und mathematischen Methoden optimiert. Das Resultat dieses Prozess, der sog. Bestrahlungsplan, ist zentrale Grundlage für klinische Therapieentscheidungen.
Im klinischen Routinebetrieb werden für diesen computer-gestützten Prozess geschlossene Softwarelösungen von zertifizierten Herstellern verwendet, welche die Weiterentwicklung, Forschung und Lehrmöglichkeiten in diesem Bereich stark einschränken. Um diese Lücke zu schließen wurde in unserer Forschungsgruppe am Deutschen Krebsforschungszentrum eine Bestrahlungsplanungssoftware namens matRad (MATLAB® und radiation) entwickelt. matRad ist komplett in MATLAB implementiert. Die Software bildet die Pipeline von Patientendaten-Import, Dosisberechnung bis hin zur Dosisoptimierung ab und kann sowohl über ein Skripting Interface als auch eine graphische Nutzeroberfläche flexibel für Forschung und Lehre eingesetzt werden. Eine kliniknahe Nutzung am Heidelberger Ionenstrahl-Therapiezentrum wird derzeit erprobt.
Wir haben unser Software Paket unter der GNU General Public License (GPLv3) auf dem öffentlichen Versionsverwaltungssystem GitHub zur Verfügung gestellt. Darüber hinaus haben wir die Funktionsweise von matRad mit einem klinisch zertifizierten System validiert und die Ergebnisse im Medical Physics Journal als Open Access Artikel veröffentlicht. Derzeit wird matRad weltweit an 19 Forschungs- und Lehrinstituten im Bereich der Strahlentherapie verwendet.
Hans-Peter Wieser, DKFZ Deutsches Krebsforschungszentrum
Mark Bangert, DKFZ Deutsches Krebsforschungszentrum
Deep Learning zur bilddatenbasierten Erkennung von Kochprozessen
11:45–12:15
In dem Beitrag wird die bilddatenbasierte Erkennung von Kochprozessen mittels Deep Learning vorgestellt. Das entwickelte System führt eine Positionserkennung (Detektion) sowie eine Klassifikation des Kochguts durch. In Kombination mit einem Radarsensor, welcher Füllstände und Bewegungen messen kann, ist eine Überwachung von Kochvorgängen mög- lich. Das Gesamtsystem soll ein Überkochen oder Anbrennen bei Kochvorgängen verhindern. Da der Datensatz zur Detektion relativ wenige Bilder enthält, erfolgt bei der Detektion (Posi- tionsbestimmung) mit den Detektionsnetzwerken YOLO bzw. SSD eine Vorklassifikation in die vier Klassen Kochen, Braten, geschlossenes oder leeres Kochbehältnis. Anschließend er- folgt die Klassifikation des Kochguts mit einem separaten neuronalen Netzwerk zur Essens- klassifikation (in MATLAB®). Das separate Netzwerk klassifiziert die zuvor detektierten Bildausschnitte und kann zwischen 16 verschiedenen Klassen unterscheiden. Die neuronalen Netzwerke zur Detektion erreichen eine mean Average Precision (mAP) von 85,62% (YOLO) und 90,01% (SSD). Der Klassifikator zur Essenserkennung, welcher in MATLAB trainiert wurde, erreicht eine Genauigkeit von 72,5% (AlexNet), 78,9% (VGG-16) und 82,6% (VGG-19).
Marco Altmann, Hochschule Heilbronn
Inline Charackterisierung von Gips und Anhydrit
12:15–12:45
Gips und Anhydrit sind als Bestandteile von Estrich, Mörtel und Fertigprodukten wie Faser- und Wandbauplatten wesentliche Rohstoffe für das Bauwesen. Für die Verwendung in Veredelungsprodukten muss beispielweise der Gipsstein jedoch eine entsprechend hohe Reinheit aufweisen. Beide Rohstoffe kommen bedingt durch die Lagerstättengenese in der Natur oftmals gemeinsam vor und müssen für die gezielte Weiterverarbeitung voneinander unterschieden werden. Allerdings weisen Gips (CaSO4•2H2O) und Anhydrit (CaSO4) ähnliche optische, wie chemische Eigenschaften auf. Chemisch unterscheiden sie sich nur durch das im Gips gebundene Kristallwasser.
Das bisher vorherrschende Verfahren zur Charakterisierung beider Rohstoffe beinhaltet eine zeitintensive Untersuchung im Labor. Eine derartige Analyse dauert mindestens 15 Minuten und wird nur wenige Male pro Tag durchgeführt. Schwankungen in der Materialzusammensetzung auf dem Förderband lassen sich auf diese Weise nicht oder nicht rechtzeitig erfassen. Dieses Verfahren ermöglicht keine direkte Prozesskontrolle und -steuerung.
Die Verwendung der Acoustic Emission (AE) Technologie erlaubt eine Materialcharacterisierung auch innerhalb des Aufbereitungsprozess und in Echtzeit. Unterläuft ein Material Änderungen in seinem Gefüge werden elastische Wellen freigesetzt. Diese hochfrequenten Wellen können mittels eines Acoustic Emission Sensors aufgezeichnet und somit digital analysiert werden. Vergangene Versuche haben gezeigt, dass sich die beim Aufprall von Gips und Anhydrit auf eine Prallplatte freigesetzten AE Signale hinreichend unterscheiden, um über diese Signale Rückschlüsse auf das anstehende Material zu treffen.
Gerhard Möllemann, RWTH Aachen University
4.1. Luft- und Raumfahrt
Die Entwicklung von Experimentfunktionen für den DLR-Forschungshubschrauber ACT/FHS
11:15–11:45
Das Deutsche Zentrum für Luft- und Raumfahrt e.V. betreibt mit dem ACT/FHS einen einzigartigen Flugversuchsträger im Bereich der Hubschraubertechnologie. Im Rahmen dieses Vortrages wird zuerst das System ACT/FHS mit seinen Exerimentalkomponenten vorgestellt. Aufbauend auf dieser Systembeschreibung wird dann der Entwicklungsprozess der Experimentsoftware erläutern. Der Software-Entwicklungsprozess basiert auf MATLAB® und Simulink®. Dieses problemorientierte Entwicklungswerkzeug bietet den Ingenieuren eine optimale Umgebung, um die benötigten Experimentfunktionen zu erstellen. Zur Integration der Experimentfunktionen in das Echtzeitsystem des ACT/FHS wird ein modifizierter Real-Time-Workshop angewendet, der aus dem zugehörigen Simulink Modell C-Quellcode erstellt, welcher anschließend kompiliert und in das ACT/FHS-Experimentalsystem eingebunden wird. Basierend auf diesen Rapid-Prototyping Ansatz können vom DLR selbst entwickelte Experimentfunktionen unter realen Bedingungen im Flugversuch erprobt werden. Am Ende des Vortrags werden dann einige aktuelle Anwendungen exemplarisch vorgestellt.
Martin Gestwa, Deutsches Zentrum für Luft- und Raumfahrt
Simulation einer präzisen und sicheren Landung nahe eines Geysires auf dem Saturnmond Enceladus
11:45–12:15
Enceladus ist ein vielversprechender Hotspot für die Astrobiologie im Sonnensystem. Ein Konzept, das an der Universität der Bundeswehr München im Rahmen des DLR-geförderten Enceladus Explorer-Projekts (EnEx) untersucht wurde, zielte darauf ab, einen Lander in der Nähe einer der Geysire auf dem Grund eines Tiger-Stripe-Canyons am Südpol des Saturnmondes Enceladus zu platzieren. Ein Raumfahrzeug, das in der Nähe eines Geysires landet und eine Schmelzsonde einsetzt, um relativ flaches flüssiges Wasser im Eis zu untersuchen, könnte nach Lebenszeichen suchen. Der Lander muss in einem außergewöhnlich herausfordernden Gelände sehr anspruchsvolle Anforderungen an Landungsgenauigkeit und Zuverlässigkeit erfüllen. Um diese anspruchsvolle Landung durchzuführen, wäre ein ausgeklügeltes Leit-, Navigations- und Kontrollsystem (engl. GN&C) erforderlich. Damit der Lander mit der erforderlichen Genauigkeit innerhalb des engen Canyon-Bodens landen kann, kann eine Terrain Relative Navigation (TRN)-Funktion Sensoren wie optische und thermische Kameras, LIDAR usw. verwenden, um relativ zu erkannten Geländemerkmalen zu navigieren. Um eine sichere Landung in gefährlichem Terrain zu gewährleisten, muss eine Hazard Detection and Avoidance (HDA) Funktion in der Lage sein, um den ursprünglich geplanten Landeplatz zu beurteilen und gegebenenfalls ein Retargeting an einen anderen sicheren Ort zu kommandieren. Die Guidance-Funktion muss dann eine machbare Flugbahn und einen Schubbogen zu dem neu ausgewählten Landeplatz berechnen. Um zu bestätigen, dass die Landung die Genauigkeits- und Zuverlässigkeitsanforderungen erfüllt, haben wir in MATLAB® ein Tool entwickelt, um den Betrieb des autonomen Landing GN&C-Systems zu simulieren. In diesem Vortrag ich beschreibe das Tool und seine Bestandteile. Ich demonstriere dann, dass die Genauigkeits- und Sicherheitsanforderungen erfüllt werden, um auf einem angemessen realistischen, einem Canyon nachempfundenen simulierten Terrain zu landen.
Konstantinos Konstantinidis, Universität der Bundeswehr München
Entwicklung von mechatronischen Systemen in der Luft- und Raumfahrt
12:15–12:45
Mechatronic systems include a wide range of components, including motors, op-amps, and shaft encoders. Simulating these components together with mechanical and control systems is critical to optimizing system performance. To ensure that testing is efficient, MathWorks offers a number of ways to easily balance the trade-off of model fidelity and simulation speed. The ability to generate C code from the model enables engineers to use Model-Based Design for the entire system (plant and controller).
Eva Pelster, MathWorks
1.2. Systemverifikation und funktionale Sicherheit
Model-Based Design and Integration Testing of Oil and Gas Drilling Tools
14:00–14:30
Drilling tools developed for the oil and gas market are often developed using a classical approach characterized by a certain separation of the disciplines and a late system level integration. System level verification is often not performed before running a prototype in a test well—a substantial timely and financial effort. Major design loops can be the outcome. At the same time, thorough verification of the tools is mandatory because failures in the commercial application are extremely costly and potentially dangerous. With time to market and reliability being major drivers, methods are required to integrate and test tools on the system level early, flexibly, and safely.
The application of Model-Based Design helps shift system level tests towards the early project phases. It enables more complete and automated testing at reduced cost. While a final demonstration in a test well may still be required, it can be conducted with an extensively tested tool, preventing major development loops. The executable model is further an effective tool for collaboration. It can be shared across disciplines to refine requirements and even train and collect feedback from the application engineers.
A practical development project of a drilling tool is discussed, which is one of the first in a series of developments at BHGE, utilizing Model-Based Design of the control functions including model-in-the-loop (MIL) and hardware-in-the-loop (HIL) tests. Topics discussed include a plant and functional model, lessons learned, a successful field application, as well as a vision for the future.
Björn Beckmann, Baker Hughes a GE Company
Verwendung des MATLAB und Simulink PLC Coder für sicherheitsgerichtete IEC61131 Steuerungen bei Magirus GmbH
14:30–15:00
Neben der rein funktionalen Software eines Steuergerätes sind in den vergangenen Jahren zahlreiche Anforderungen bezogen auf die Sicherheitsfunktionen im gesamten Lebenszyklus einer Software hinzugekommen. Die Sicherheitsfunktionen sind aber nicht nur bei der Softwareentwicklung zu betrachten, sondern ziehen sich vielmehr durch alle Abteilungen des Unternehmens. Im Rahmen der Steuerungstechnik-Neuentwicklung bei MAGIRUS wurde diesem Fakt besondere Aufmerksamkeit gewidmet. Neben der Einführung eines Product Lifecycle Management Tools (PLM-Tools) wurde auch bei der Auswahl der Hardware besonderes Augenmerk auf die Erfüllung der Sicherheitsanforderungen gelegt. Bei der Definition der Toolchain zur Softwareerstellung wurden der Sicherheitsgedanke fort- und moderne Methoden wie Modellierung, Simulation und Codegenerierung eingeführt. Der Simulink PLC Coder™ von MATLAB® ist hier das entscheidende Bindeglied zwischen Dokumentation im MATLAB Modell und Codierung in CoDeSYS.
Die Fallstudie beschreibt die Zusammenhänge der einzelnen Tools und insbesondere die Besonderheiten und Anpassungen des Simulink PLC Coder für die Verwendung bei sicherer und nicht sicherer Steuerungssoftware.
Kai Kriegl, MAGIRUS
ExCuSe: Eine Methode zur modellbasierten Sicherheitsanalyse von Simulink und Stateflow Modellen
15:00–15:30
Funktionale Sicherheit ist ein wichtiger Entwurfstreiber bei der Auslegung technischer Systeme. Neben konventionellen Methoden zur Sicherheitsanalyse wie der Fehlerbaumanalyse (FTA) und der Fehlermoden und -Effekt Analyse (FMEA) gewinnen modellbasierte Ansätze in jüngerer Zeit sowohl akademisch als auch in der industriellen Anwendung zunehmend an Bedeutung.
An der Technischen Universität München wurde eine Methode zur Integration modellbasierter Analyse funktionaler Sicherheit in die Simulink® Modellierungsumgebung entwickelt. Die vorgestellte Methode basiert auf dem Simulink Design Verifier™ und erlaubt die automatische Berechnung von Minimalschnitten (MCS, Minimal Cut Sets) aus Simulink und Stateflow® Modellen. Hierzu werden diese zunächst durch die Injektion von Fehlermodellen erweitert, wobei die Fehlerinjektion entworfen wurde, um einerseits die Topologie des ursprünglichen Modells so wenig wie möglich zu beeinflussen und andererseits größtmögliche Modellierungsfreiheit bei der Definition von Fehlermodellen zu gewähren. Minimal Cut Sets stellen ein wesentliches Zwischenergebnis der qualitativen und quantitativen Analyse von Fehlerbäumen dar, da aus Ihnen die üblichen Zuverlässigkeitskenngrößen für das Gesamtsystem berechnet werden können. Um dies zu ermöglichen können bei der Definition von Fehlermodellen zusätzlich deren probabilistische Attribute spezifiziert werden.
Julian Rhein, Technische Universität München
2.2. Akademische Lehre mit Low-Cost Hardware
Model. Code. Fly. Repeat.: Erfolgreich Flugregelung lehren mit Model-Based Design
14:00–14:30
Die Vorlesung "Modellbasierte Entwicklung mit MATLAB® und Simulink®" im dualen Studiengang "Aeronautical Engineering" der Universität der Bundeswehr München bietet den Studenten die Möglichkeit, ihre bereits in anderen Vorlesungen erworbenen Kenntnisse der Flugmechanik und Flugregelung an einem wirklichen, fliegenden System praktisch anzuwenden und zu vertiefen.
Die Schritte Systemmodellierung und Reglerentwurf zur frühen Validierung von Anforderungen durch Simulation sind hierbei nur ein Aspekt der Vorlesung. Die Umsetzung des Reglers auf eine fliegende Hardware vom Typ PixHawk erfolgt mittels automatischer Seriencodegenerierung. Somit können sich die Studierenden auf die eigentliche Problemlösung konzentrieren, ohne sich in die Untiefen der C-Programmierung von Mikrocontrollern begeben zu müssen.
Die frühe und konsequente Anwendung von Verifikations- und Validierungsmethoden auf Modell- und Codeebene sorgen dafür, dass der Flugregler schnell und fehlerfrei auf dem fliegenden System in der Praxis erprobt werden kann. Darüber hinaus sorgen diese Themen auch auch für eine entsprechende Praxisrelevanz.
Prof. Dr. Stephan Myschik, Universität der Bundeswehr München
Entwicklung eines praktischen Robotik-Lehrplans mit modularen Aktuatoren
14:30–15:00
Die Integration von praktischem Lernen mit Theorie und traditionellen Vorträgen führt zu mehr engagierten und motivierten Studenten, besserem Wissenserhalt und einem tieferen Verständnis der theoretischen Konzepte. Für die besten Ergebnisse in einer solchen Integration muss man (a) die Konzepte, die mit den praktischen Übungen gelehrt werden, genau widerspiegeln und (b) sicherstellen, dass das Erlernen eines notwendigen unterstützenden Rahmens für die Labore nicht vom primären Inhalt ablenkt. Für die Robotik ist dies eine besonders schwierige Herausforderung, da typische Plattformen entweder (a) sehr eingeschränkt in ihren Fähigkeiten ("Spielzeug") sind und daher nicht an die Kurskonzepte angepasst werden können, oder (b) sehr komplex sind und durch eine hohe Lernkurve die Internalisierung des Kursmaterials beeinträchtigen. In den letzten Jahren haben wir gemeinsam mit der Carnegie Mellon University einen Bachelor-Robotik-Kurs entwickelt, der versucht diese Herausforderungen durch eine Kombination aus MATLAB und modularen Roboteraktuatoren zu bewältigen. In diesem Vortrag werden wir unsere bisherigen Lehren und Erfahrungen vorstellen.
Florian Enner, HEBI Robotics
Signale und Rauschen in den Geowissenschaften: Das U Potsdam MATLAB und LEGO MINDSTORMS Praktikum
15:00–15:30
Die Kurse zur geowissenschaftlichen Datenverarbeitung gibt es seit mehr als zwanzig Jahren; seit mehr als zehn Jahren mein Buch "MATLAB® Recipes for Earth Sciences, 4th Edition" (Springer). Das Problem bei der Anleitung von Studierenden der Anwendung von unterschiedlichen Methoden der Datenanalyse war stets, dass die Kursteilnehmer/innen kein Verständnis für die Daten selbst entwickelten. Ich selbst hatte dieses Problem in der eigenen Forschung nicht, da es meine eigenen Messwerte waren, die ich analysierte. Ich kenne die Grenzen der Genauigkeit und Richtigkeit der Messwerte, ich kenne die vermessenen geowissenschaftlichen Untersuchungsobjekte. Die Erweiterung der Kurse um das Messverfahren selbst scheiterte schlicht am Aufwand, den wir trieben, um an unsere geowissenschaftlichen Proben und Messwerte zu kommen. Die Messanordnungen sind teuer und gross, die eigentlich Messung oft kostspielig. Vor einiger Zeit entstand die Idee, einige der typischen Messverfahren in den Geowissenschaften auf die Größe eines Seminarraums, eines Schreibtischs zu reduzieren. Bei dem Versuch, die Messanordnungen ohne grossen Aufwand zu gestalten und zu bauen, kam LEGO® MINDSTORMS® zu Hilfe, zusammen mit dem LEGO MINDSTORMS EV3 Support für MATLAB—und dem sehr erfahrenen MathWorks-Mitarbeiter Dr. Sebastian Gross.
Inzwischen ist ein umfangreiches Praktikum mit Infrarot- und Ultraschallsensoren, Spektral- und Thermalkameras, Smartphones—und kistenweise LEGO-Steinen entstanden. Das Praktikum wurde rasch von der Pressestelle der Universität entdeckt und wird von der Universitätsleitung sowie dem Dekanat gefördert. Die Kurse sind voll, immer Freitagnachmittags wird geplant, gebaut, programmiert und gemessen, bevor die nun selbst gewonnenen Messwerte dafür verwendet werden, wo früher der Kurs bekannt: Bei der geowissenschaftlichen Datenanalyse.
Prof. Dr. Martin Trauth, Universität Potsdam
3.2. Mechatronische Systeme
Digitaler Zwilling eines Tripod-Roboters in der Verpackungstechnik
14:00–14:30
- Aufgabenstellung
- Die zentrale Aufgabe des Projekts stellt die Simulation des Manipulationsprozesses von Gebinden auf einem Transportband durch einen Tripod-Roboter dar.
- Die Gebinde sollen durch den Tripod-Roboter zu vorgegebenen Positionen auf dem Transportband bewegt werden, so dass die Anordnung der Gebinde auf einer Palette in einem festgelegten Lagen-Schema realisiert werden kann.
- Ziele
- Ermitteln der zeitlichen Verläufe der von den Servo-Motoren aufzubringenden
- Drehmomenten für die Positionierung der Gebinde
- Berücksichtigung der Reibung zwischen den Gebinden und dem Transportband
- Berechnung der Gelenkreaktionen für die Unterarme und Ermitteln des kritischen
- Betriebspunkts hinsichtlich der Belastungen der Unterarme
- Vorgehen
- Modellierung der Kinematik des Tripod-Roboters mithilfe des Imports von
- CAD-Einzelkörper-Modellen in Solid-Blöcken aus SolidEdge
- Definition der Antriebe für die Bewegung des Greifers auf den vorgegebenen Trajektorien
- Integration einer Fest-Los-Lagerung im Modell für die Simulation der Führung
- zwischen den Klemmleisten und der Grundplatte des Greifers
- Modellierung des Stroms an Gebinden durch einen Variable-Mass-Block
- Berücksichtigung der Reibung zwischen den Gebinden und des Transportbands durch
- Sphere-to-Plane-Contacts
- Anwendung eines Flexible-Body-Blocks für die Festigkeitsberechnung der Unterarme
Benedikt Böttcher, Krones
Prädiktive Wartung eines digitalen Zwillings
14:30–15:00
Accurately predicting when operational equipment requires maintenance is a critical task. Performing it too frequently is wasteful whereas too infrequently can lead to catastrophic failure. In this talk, Steve Miller will develop simulations and apply machine learning techniques to improve predictive maintenance of a hydraulic pump. Measured field data is used to tune a model and create a digital twin. A variety of failure scenarios that are otherwise too expensive and time-consuming to conduct on the hardware are simulated. The simulation results are used to train a machine learning algorithm, enabling us to correctly identify the root cause of pump failures.
Steve Miller, MathWorks
SCHERDEL SpringDesigner: Moderne GUIs und strukturmechanische Simulationen technischer Federn
15:00–15:30
Technische Federn sind geometrisch betrachtet weitaus komplexer, als man in erster Linie vermuten mag. Eine rein lineare Betrachtungsweise federnder Elemente ist für den heutigen Stand der Technik ungenügend. Um Kraft- und Spannungsreaktionen technischer Federn realistisch zu betrachten, unterliegt der Berechnungsansatz bei SCHERDEL stets der eigentlichen Federgeometrie – mitsamt allen geometrischen Nichtlinearitäten. Da die virtuelle Unterstützung für den modernen Entwicklungsprozess ohnehin undenkbar ist, kann dieser geometrische Ansatz einen weiteren Vorteil in der Prozesskette darstellen.
Dies führt allerdings zu neuen Herausforderungen für die Software der Applikationsingenieure. So werden spezielle Tools benötigt, die geometrisch relevante Eigenschaften der Federn bis ins kleinste Detail zu modellieren vermögen. Daneben werden nichtlineare, strukturmechanische Berechnungsgrundlagen erforderlich, welche die zuvor ausgelegten nichtlinearen Geometrien abbilden können.
Seit nunmehr 10 Jahren wird bei SCHERDEL die Softwarefamilie SpringDesigner entwickelt. Die Software trennt sich bewusst vom linear-analytischen Ansatz für technische Federn und bietet eine Fülle an Funktionen, die unter anderem mit MATLAB® realisiert wurden.
Der Vortrag zeigt Beispiele aus der GUI Entwicklung mit Schwerpunkt Interaktivität. Federgeometrien können einerseits parametrisch, als auch per Drag'n'Drop manipuliert werden. Daneben werden sowohl statische als auch transiente strukturmechanische Berechnungen von Federn dargestellt. Für den verketteten virtuellen Entwicklungsprozess werden zudem Schnittstellen aufgezeigt, die kommerzielle Finite-Elemente-Tools oder kommerzielle Mehrkörper-Simulationsprogramme anbinden.
Johannes Blödt, SCHERDEL
4.2. Risikoberechnungen und Integration in Software-Architekturen
Risikomanagement und Risk Analytics (RMA) Dienstleistungen für die Finanzindustrie
14:00–14:30
KPMG startete die Entwicklung eines Risk-Analytics-Rechenkerns für die Berechnung unterschiedlicher Risikokennzahlen, z.B. historische, parametrischer und Monte-Carlo basierter Value-at-Risk (VaR), Stressed/Conditional VaR, Sensitivitätskennzahlen und anderen Reporting relevanten Kennzahlen, vor mehr als sieben Jahre. Steigende finanzmathematische und regulatorische Anforderungen an das tägliche Risiko und Performance Management verlangen schnelle, flexible, effiziente und fehlerfreie Umsetzung sowie einfache Integration in das bestehende Service- und Systemumfeld. Wir stellen den operativen Prozess für RMA Outsourcingdienstleistungen innerhalb des Risk Advisory Team vor und zeigen auf, wie das Quant Team und MATLAB® in den Prozess integriert sind.
Ein Anwendungsbeispiel aus dem Risk Analytics Bereich ist die Bewertung und Sensitivitätsanalyse der Bewertungsergebnisse basierend auf externen Markdaten. Wir zeigen darüber hinaus auf, wie die aktuelle Bewertungsverfahren unter der Verwendung der Monte-Carlo Simulation in eine moderne Software-Architektur integriert werden können.
Dr. Ewgenij Hübner, KPMG Luxemburg
Einsatz von MATLAB Anwendungen im Risikomanagement eines Energieversorgers: Counterparty Risk Management
14:30–15:00
Seit mehr als zehn Jahren setzen die Leipziger Stadtwerke MATLAB® erfolgreich im Risikomanagement ein. Die Anwendungen bedienen vor allem Fragestellungen rund um die Kontrahentenrisiko- und Marktpreisrisikomessung und reichen von der Berechnung reportingrelevanter Kennzahlen (Value at Risk, Profit at Risk), über die Durchführung von ad-hoc Analysen bis hin zur Bereitstellung von kompilierten Routinen, zur Unterstützung bei der Bearbeitung standardisierter Aufgabenstellungen.
Am Beispiel der Kontrahentenrisikomessung soll gezeigt werden, wie verschiedene Systeme (SQL-Datenbanken, Excel®) mit selbstentwickelten, MATLAB basierten, Anwendungen zusammenspielen und einen echten Mehrwert für die klassischen Fragestellungen des Risikomanagements liefern.
Diese Fragestellungen setzen sich aus drei Teilen zusammen: der individuellen Limitierung von Geschäftsaktivitäten mit Handelspartnern, der ständigen Überwachung von Schwellwerten zur aktiven Portfoliosteuerung und der regelmäßigen Berechnung von Stresstests.
Bei der Berechnung der inviduellen Handelspartnerlimite wird auf eine selbsterstellte MATLAB Routine mit grafischer Oberfläche zurückgegriffen. Die Stammdaten je Handelspartner werden aus einer vorgelagerten SQL-Datenbank importiert und auf dieser Basis wird iterativ die optimale Allokation des Risikokapitals auf die Handelspartner (und mithin die Limite) ermittelt.
Die Berechnung der Risikokennzahlen zur kontinuierlichen Überwachung erfolgt vollständig automatisiert durch eine kompilierte MATLAB Routine. Hier wird auf Basis aktueller Geschäftsabschlüsse der Credit Value at Risk und der Conditional Value at Risk durch eine Monte Carlo Simulation ermittelt. Darüber hinaus verwenden wir Forecast-Rechnungen und ermitteln die typischen Portfoliokennzahlen (z. B. den Anteil der größten N Handelspartner am Gesamtportfolio) zur aktiven Steuerung. Die Berechnung der Stresstests erfolgt ebenfalls durch eine Monte Carlo Simulation in MATLAB.
Sebastian Böhm, Stadtwerke Leipzig
Skalierung von MATLAB Analytik mit Kafka und Cloud Services
15:00–15:30
As the size and variety of your engineering data has grown, so has the capability to access, process, and analyze those (big) engineering data sets in MATLAB®. With the rise of streaming data technologies and large-scale cloud infrastructure, the volume and velocity of this data has increased significantly, and this has motivated new approaches to handle data-in-motion. This presentation and demo highlights the use of MATLAB as a data analytics platform with best-in-class stream processing frameworks and cloud infrastructure to express MATLAB based workflows that enable decision-making in “near-real-time” through the application of machine learning models. It demonstrates how to use MATLAB Production Server™ to deploy these models on streams of data from Apache® Kafka®. The demonstration shows a full workflow from the development of a machine learning model in MATLAB to deploying it to work with a real-world sized problem running on the cloud.
Christoph Stockhammer, MathWorks
1.3. Simulation von Maschinen und Anlagen
Virtuelle Inbetriebnahme von Sondermaschinen unter Verwendung von Simscape Methoden
16:00–16:30
Aufgrund der hohen Komplexität von Walzwerksanlagen ist es nicht möglich, die Maschinen schon während der Herstellung einem vollständigen Funktionstest zu unterziehen. Die Mechanik sowie die Steuerungs- und Regelungsprogramme können erst während der Inbetriebnahme getestet und auf ihre korrekte Funktionsweise überprüft werden. Treten während der Inbetriebnahme Fehler auf, ist es aufgrund der internationalen Kundenstandorte oftmals schwierig, schnell zu reagieren. Steigende Kosten sowie längere Inbetriebnahmezeiten sind die Folge.
Um das Fehlerrisiko zu minimieren, wird ein digitaler Zwilling der Anlage erstellt. Dieser ermöglicht es, Automatisierungsprogramme parallel zur laufenden Entwicklung der Mechanik zu testen und so gleichzeitig die Lieferzeit zu verkürzen und die Fehlerwahrscheinlichkeit an der realen Maschine zu senken.
Die Achenbach Buschhütten GmbH & Co KG erstellt den digitalen Zwilling auf Basis der 3D CAD Konstruktionsdaten und integriert diese in Simulink® mit Hilfe der Simscape Multibody™. Die in den Konstruktionsdaten vorhandenen Schwerpunkts- und Massenträgheitsdaten ermöglichen ein exaktes Abbild der Starrkörpermechanik. Weitere Simscape™ Toolboxen gestatten es, das mechanische Modell, bspw. um hydraulische Komponenten zu erweitern. Durch die hohe Flexibilität der Toolboxen lässt sich der Fokus der Simulation auf die jeweilige Problemstellung anpassen. Das physikalische Modell wird mit Hilfe der MATLAB® und Simulink Coder™ auf eine Steuerung kompiliert und läuft dort in Echtzeit. Das bietet den Vorteil, dass die Schnittstellen der Steuerungsprogramme zu der virtuellen und der realen Maschine identisch sind.
Die Komplettierung des Modells erfolgt durch Ergänzung von Sensorfunktionen und Kollisionsmechanismen wiederum unter Verwendung der 3D Konstruktionsdaten. Eine für diesen Zweck optimierte Rendering-Engine bildet die Geometriedaten ab und kommuniziert über eine UDP Verbindung mit der Steuerung.
Dennis Preljevic, Achenbach Buschhütten
Roger Feist, Achenbach Buschhütten
Auslegung der Tintenversorgung einer industriellen Ink-Jet-Druckmaschine mittels Simscape
16:30–17:00
Die Tintenversorgung einer industriellen Ink-Jet-Druckmaschine hat die Aufgabe, Tinte für die Ink-Jet-Druckköpfe bereitzustellen. Um die hohen Anforderungen an Druck, Volumenstrom und Temperatur einzuhalten, wird Simscape™ in der Entwicklungsphase eingesetzt, um das mechatronische System aus Hydraulik, Pumpen, Sensoren und Regelung auszulegen. In diesem Beitrag wird das Vorgehen bei Modellaufbau und -Analyse erläutert und auf spezielle Fragestellungen eingegangen, was die Handhabung von Simscape in Kombination mit MATLAB® und Simulink® angeht.
Dr.-Ing. Nicklas Norrick, Heidelberger Druckmaschinen
Hybride Materialfluss- und Energiesimulation eines Aluminium-Schmelz- und Druckgussbetriebs
17:00–17:30
Die Bedeutung industrieller Energieeffizienz hat speziell in Deutschland infolge der Energiewende und der steigenden Konkurrenz durch die Globalisierung stark zugenommen. Das Energie- und Kosteneinsparungspotenzial ist dabei in energieintensiven Branchen, wie z. B. der Aluminium-Schmelz- und Druckgussindustrie besonders hoch. Die Umsetzung von Energiesparmaßnahmen ist mit weitreichenden Eingriffen in den Betriebsablauf verbunden, die die Planungssicherheit des Betriebs gefährden. Simulationsgestützte Voruntersuchungen bieten Schmelz- und Druckgussbetrieben die Möglichkeit, Maßnahmen im Voraus zu beurteilen, ohne die Produktion zu beeinflussen.
Für den Betrieb eines industriellen Kooperationspartners wurde ein hybrides, den Materialfluss und den Energieverbrauch der Schmelzöfen abbildendes Simulationsmodell entwickelt und mit Produktionsdaten validiert. Das Materialflussmodell ist imstande, aus aktuellen Simulationsdaten und verschiedenen intralogistischen Steuerungsstrategien Aufträge für die Komponenten des Betriebs zu erzeugen. Das Energiemodell der Schmelzöfen erlaubt eine präzise Untersuchung der thermodynamischen Vorgänge im Schmelzbetrieb. Durch eine bidirektionale Kopplung der ereignisorientierten (Materialfluss) und kontinuierlichen Systeme (Energiemodell) können ihre gegenseitige Beeinflussung und die resultierenden Auswirkungen auf betriebliche Kennzahlen (Energieverbrauch, OEE, Produktionsssicherheit) untersucht werden.
Dies ermöglicht eine schnelle und risikofreie Analyse intralogistischer Optimierungsmaßnahmen im Betrieb. So zeigen sich für den Partnerbetrieb aufgrund optimierter Stapleraufträge Senkungen des Energieverbrauchs innerhalb der Schmelzöfen von bis zu 20 %.
Andreas Buswell, Hochschule Ansbach
2.3. Wissenstransfer mit MATLAB
Mathematik und MATLAB in der interdisziplinären akademischen Lehre
16:00–16:30
Seit mehreren Jahren biete ich den regulären Pflichtkurs "Computational Modeling" für Studierende der "Liberal Arts and Sciences" an. Der Studiengang, welcher von der Fakultät für Philosophie (Universität Freiburg) angeboten wird, bietet den Studierenden einen außergewöhnlich hohen Grad an Freiheit, Fächer aus unterschiedlichen Themengebieten zu belegen und diverse Vertiefungsrichtungen zu wählen.
Im Kurs vermittle ich den Studierenden die Grundlagen mathematischer Modellierung mit MATLAB®, und führe sie in diverse Anwendungsgebiete ein. Im Verlauf eines Semesters lehre ich die Studierenden, damit wirtschaftliche, biologische, technische und andere Systeme zu simulieren. Inhalte sind etwa:
- Wirtschaftliche Systeme: Zinsrechnung, Kosten- und Leistungsrechnung;
- Biologische Systeme: Populationsmodelle mit Simulink und MATLAB, Schwarmsimulationen;
- Technische Systeme: einfache mechanische und elektronische Modelle;
- Automatensysteme, Neuronale Netze, Bild- und Stimmenerkennung, Boids;
- Mathematik und Kunst.
Im Gegensatz zur klassischen ingenieurstechnischen Lehre muss dabei ein besonderer Fokus auf die Interdisziplinarität gelegt werden. Im Vortrag will ich zeigen, wie MATLAB als Werkzeug hierfür dienlich sein kann.
Dr. Reto Schölly, Albert-Ludwigs Universität Freiburg
Physik-Grundkurs mit dem MATLAB Live Editor
16:30–17:00
Die Gesetze der Physik müssen unabhängig vom Kontext und frei von Willkür sein. Auf dieser Grundlage werden die wesentlichen Inhalte unserer Physik-Grundkurse entwickelt. Die einzelnen Teilgebiete ergeben sich so in einem neuen Zusammenhang.
Als verbindende Größe erweist sich die Wirkung, die als Skalarprodukt von Orts- und Impulsvektoren die grundlegende Invariante ist. Die klassische Mechanik folgt als Wirkung auf Objekte, die Quantenmechanik als Wirkung auf Detektoren. Die Feldgleichungen der Elektrodynamik und der Gravitation ergeben sich aus der Kontinuität der Impulsgradienten, welche ja unmittelbar beobachtbar sind.
Die Darstellung erfolgt im MATLAB® Live Editor, so dass Ableitungen und Musterbeispiele symbolisch mit der entsprechenden Toolbox behandelt werden können. So wird der Fokus auf die Physik nicht durch unübersichtliche Berechnungen gestört.
Insgesamt ergibt sich eine moderne Darstellung der physikalischen Grundlagen, sowohl was die Gesetze betrifft, als auch den mathematischen Umgang mit ihnen.
Physikalische Themen sind: Raum und Zeit, Relativitätstheorie, Dynamik im Allgemeinen, klassische Mechanik, Quantenmechanik, Elektrodynamik und Chaostheorie.
Symbolisch bearbeitete Rechenbeispiele sind: Wegintegral, Oberflächenintegral, Lorentz-Transformation und Zwillings-Paradox, Kepler-Bahnen und Rollenpendel, Quanteninterferometer, Quantenmechanische Bindungs- und Streuprobleme, Helmholtz-Spule und Hertzscher Dipole, Billard und Duffing-Oszillator.
Von der Möglichkeit zur Animation dynamischer Abläufe wird reichlich Gebrauch gemacht.
Dr. Kurt Bräuer, Eberhard Karls Universität Tübingen
MATLAB for Engineers at Universities: From the Basics to Professional Use in Research and Industry
17:00–17:30
MATLAB® ist als führende Programmiersprache im Bereich des „Scientific Computing“ ein unabdingbares Werkzeug für jeden Ingenieur und Studenten der Ingenieurwissenschaften. An der OTH Amberg-Weiden wurde ein modulübergreifender, innovativer MATLAB-Kurs für Studenten der Ingenieurswissenschaften, unabhängig von der spezifischen Fachrichtung, entwickelt; die Kursschwerpunkte beziehen sich auf die Datenanalyse, Signal- und Bildverarbeitung sowie Machine Learning.
Dieser Kurs deckt nicht nur Grundlageninhalte ab, sondern soll auch anwendungsorientiert, Inhalte aus verschiedenen Lehrveranstaltungen aufgreifen und mit MATLAB veranschaulichen. Zusammenfassend kann man das didaktische Lehrkonzept einfach charakterisieren: Keine passive Lehre, sondern aktives Ausprobieren und Mitgestallten durch die Studierenden. Neben der Bearbeitung von anwendungsorientierten Übungsaufgaben, wird auch auf den Mathworks MATLAB Onramp-Kurs zurückgegriffen. Zur Erstellung wurde auch auf zahlreiche Mathworks Webinare zurückgegriffen. Dieses Semester wurden die Studenten zusätzlich in ein laufendes Forschungsprojekt eingebunden. Dieses Projekt beschäftigt sich mit der Einflussanalyse ionisierter Strahlung auf aktive medizinische Implantate. In Zusammenarbeit mit Siemens® Healthcare wurden mit Hilfe von MATLAB verschiedene elektronische Schaltungen unter Röntgenstrahlung bestrahlt und auf Ihre Funktionalität analysiert. Dadurch konnte nicht nur der Einsatz von MATLAB im Forschungsbetrieb gezeigt werden, sondern auch Erkenntnisse für das Projekt gewonnen werden.
Der Kurs wird zu Semesterbeginn als Präsenzveranstaltung integriert. Im kommenden Jahr wird das Kurskonzept als vhb (virtuelle Hochschule Bayern) Kurs angeboten, und für jeden Studenten online zur Verfügung gestellt. Eine Kombination als Blended Learning Veranstaltung, die e-Learning Konzepte und Lehrinhalte für Präsenzveranstaltungen kombiniert, ist ebenso denkbar.
Manuel Stich, Ostbayerische Technische Hochschule Amberg-Weiden (OTH)
Anne Slawig, Ostbayerische Technische Hochschule Amberg-Weiden (OTH)
Prof. Dr. Ralf Ringler, Ostbayerische Technische Hochschule Amberg-Weiden (OTH)
3.3. Mobilität
Anwendungen in der Verkehrsunfallforschung zur Verbesserung der Fahrzeugsicherheit
16:00–16:30
In den letzten 15 Jahren hat sich die Zahl der Verkehrstoten in Deutschland von etwa 6.800 auf knapp 3.200 kontinuierlich reduziert, obwohl die Anzahl der polizeilich erfassten Verkehrsunfälle etwa konstant blieb. Dies ist neben infrastrukturellen Veränderungen vor allem ein Resultat einer verbesserten passiven und aktiven Fahrzeugsicherheit, zu der Untersuchungen und Analysen von Verkehrsunfällen entscheidend beigetragen haben. Unter anderem erhebt die Verkehrsunfallforschung an der TU Dresden (VUFO) dafür seit 1999 im Rahmen der German In-Depth Accident Study (GIDAS) jährlich etwa 1.000 Verkehrsunfälle und zeichnet in einer Naturalistic Driving Study (NDS) kritische Situationen auf.
Um diese Tendenz weiterzuführen und den steigenden Anforderungen in der Entwicklung und Absicherung von zukünftigen Fahrerassistenzsystemen bis hin zum hoch- und vollautomatisierten Fahren gerecht zu werden, ist es wichtig statistische und simulative Analysemethoden effizient zu nutzen und neue Ansätze zu entwickeln und zu kombinieren.
In diesem Vortrag werden konkrete Anwendungen in der Verkehrsunfallfoschung mit der Unterstützung von MATLAB® und Simulink® und den passenden Toolboxen zur Verbesserung der Fahrzeugsicherheit und der zukünftigen Absicherung des hochautomatisierten / autonomen Fahrens vorgestellt. Dies umschließt unter anderem:
- Statistische Unfallanalysen und mathematische Modelle mit der Database und der Statistics and Machine Learning Toolbox™
- Verkehrsunfallsimulation und Erstellung einer Pre-Crash-Matrix (PCM) mit MATLAB und Simulink (externer Solver)
- Wirksamkeitsanalysen und Effizienzbewertungen von Advanced Driver Assistance Systems (ADAS) mit MATLAB und Simulink
- Algorithmenbasierte Verarbeitung von Realfahrszenarien (NDS-Daten) für simulative Anwendungen mit der Computer Vision System Toolbox™, Automated Driving System Toolbox™, Signal Processing Toolbox™ und Mapping Toolbox™
Florian Spitzhüttl, Verkehrsunfallforschung an der TU Dresden
Virtueller Prototyp in Simulink zur Verkürzung von Entwicklungszeiten
16:30–17:00
Die moderne Fahrzeugentwicklung macht den Einsatz eines leistungsfähigen Simulationsmodells unverzichtbar. Gerade bei der Auslegung von Elektrofahrzeugen, können mit dem Einsatz von Simulationswerkzeugen gute Prognosen über Fahrleistungen, Verbräuche und Reichweiten des Fahrzeugs getroffen werden. Ebenso kann durch ein präzises Gesamtfahrzeugmodell eine Auslegung des Kühlsystems und eine Ableitung von Betriebsstrategien für die spätere Applikation erfolgen.
Die e.GO Mobile AG hat diesen virtuellen Prototyp in Simulink® mit den wichtigsten Komponenten wie der Batterie, dem Inverter und der elektrischen Maschine aufgebaut, um so ihre Entwicklungszeiten weiter zu verkürzen und bezahlbare Elektromobilität auf die Straße zu bringen.
Alexander Weis, e.go Mobile
Automatisiertes Fahren: entwickelt mit MATLAB und Simulink
17:00–17:30
ADAS and autonomous driving technologies are redefining the automotive industry, changing all aspects of transportation, from daily commutes to long-haul trucking. Engineers across the industry use Model-Based Design with MATLAB® and Simulink® to develop their automated driving systems. This talk demonstrates how MATLAB and Simulink serve as an integrated development environment for the different domains required for automated driving, including perception, sensor fusion, and control design.
This talk covers:
- Perception algorithm design using deep learning
- Sensor fusion design and verification
- Control algorithm design with Model Predictive Control Toolbox™
Gaurav Tomar, MathWorks
4.3. Technologie-Trends
Hardware und Software Co-Design für die Steuerung von Motoren
16:00–16:30
Electric motors are everywhere and are finding new applications every day. The technology to control motors is also evolving to be based on new platforms, such as Xilinx® Zynq®, that combine embedded processors with the programmable logic of FPGAs.
In this talk, you will learn how C and HDL code generation are used to produce implementations on Xilinx Zynq SoCs. You will also explore practical methods for developing motor controllers targeting Zynq SoCs, including the use of new HDL debugging capabilities.
Alexander Schreiber, MathWorks
Verbesserte Modellqualität durch automatisierte Verifikation
16:30–17:00
Years of engineering expertise and best practices form the basis for the industry standards used in developing high integrity and mission critical systems. The standards include proven guidelines which can improve the quality of any design. Learn how you can take advantage of best practices from standards such as ISO 26262, DO-178/DO-331, IEC 61508, MISRA®, and others to find errors earlier in your process and improve the quality of your Simulink® models.
Adam Whitmill, MathWorks
Deep Learning: leicht gemacht mit MATLAB
17:00–17:30
Deep learning can achieve state-of-the-art accuracy for many tasks considered algorithmically unsolvable using traditional machine learning, including classifying objects in a scene or recognizing optimal paths in an environment. Gain practical knowledge of the domain of deep learning and discover new MATLAB® features that simplify these tasks and eliminate the low-level programming. From prototype to production, you’ll see demonstrations on building and training neural networks and hear a discussion on automatically converting a model to CUDA® to run natively on GPUs.
Jérémy Huard, MathWorks

Richard Rovner
Vice President of Marketing, MathWorks
Richard Rovner is vice president of marketing for MathWorks, leading a worldwide organization of 300 people responsible for all aspects of marketing: strategic planning, product and technology strategy, market analysis, partner management, digital marketing, corporate communications, and field marketing. Before joining MathWorks in this role in 2001, Rich held senior marketing and sales positions at SAS. Rich spent the first part of his career as what is now called a data scientist, working for over 10 years in applications such as computer vision and image processing, machine learning, simulation, and statistical analysis. He has a B.S. in applied mathematics from Carnegie Mellon University and an M.S. in computer science from George Washington University.

Prof. Dr. Oliver Niggemann
Stellvertretender Leiter des Fraunhofer Anwendungszentrums Industrial Automation IOSB-INA
Prof. Dr. Oliver Niggemann, geboren 1971, ist seit 2008 Professor für Technische Informatik am Institut für industrielle Informationstechnik inIT der Hochschule Ostwestfalen-Lippe in Lemgo.
Prof. Niggemann studierte bis 1997 Informatik an der Universität Paderborn, wo er 2001 auch mit dem Thema "Visual Data Mining of Graph-Based Data" promovierte. Anschließend arbeitete er als Software-Entwickler und Software-Projektleiter bei der Firma Acterna in der Telekommunikationsbranche. Bis 2008 war als Lead-Produktmanager bei der Firma dSPACE tätig. Dort verantwortete er den Produktbereich System and Function Design Tools. Prof. Niggemann war aktiv im AUTOSAR-Gremium tätig und war bis 2008 Beiratsvorsitzende des s-labs der Universität Paderborn.
2008 folgte er dem Ruf auf die neu eingerichtete Professur für Technische Informatik an der Hochschule Ostwestfalen-Lippe, wo er sich mit der Anwendung von Methoden der künstlichen Intelligenz auf die industrielle Automation beschäftigt. Seit 2008 ist er Vorstandsmitglied des Instituts für industrielle Informationstechnologien (kurz: inIT - Institut Industrial IT).
Prof. Niggemann ist ebenfalls stellvertretende Leiter des Fraunhofer Anwendungszentrums Industrial Automation IOSB-INA in Lemgo. Er ist außerdem der wissenschaftlicher Leiter des Graduiertenzentrum.OWL der Hochschule OWL und einer der beiden Leiter des Internationalen Promotionskollegs “ISA - lntelligente Systeme in der Automatisierungstechnik.
Prof. Niggemann ist Autor/Co-Autor von diversen Veröffentlichungen und Mitglied in zahlreichen Programmkomitees. Prof. Niggemann leitet diverse Forschungsprojekte zum Thema Industrie 4.0, u.a. im Spitzencluster Intelligente Technische Systeme it’s OWL, und arbeitet zu diesem Thema auch in Organisationen wie z.B. der GMA (VDI/VDE-Gesellschaft Mess- und Automatisierungstechnik) oder der Plattform Industrie 4.0.