Interview zur EMO 2017: Der Umgang mit Big Data

Big Data und die Ingenieure: Hass oder Liebe?

Seite: 2/3

Anbieter zum Thema

Herr Königs, Sie sind einer der Informatiker: Wie gehen Sie in der Welt des Maschinenbaus vor?

M. Königs: Man lernt in der praktischen Anwendung sehr schnell, dass die Datenqualität aufgezeichneter Signale ausschlaggebend für den Erfolg einer Analys ist. Es steckt nämlich entgegen der Meinung vieler nicht immer alles in den Daten. So liefern Messsysteme einer Werkzeugmaschine zwar Positionsdaten, allerdings geben diese den realen Werkzeugpfad während einer Fräsbearbeitung nur näherungsweise wieder. Auf Abdrängungseffekte in Folge von Prozesskräften oder geometrisch-kinematische Ungenauigkeiten der eingesetzten Werkzeugmaschine etwa kann in der Regel nicht zurückgeschlossen werden. Durch das Modellwissen können die reinen Signaldaten mit diesen fehlenden Informationen angereichert werden. Erst dieser veredelte Datensatz eignet sich zum Beispiel zur Prognose von erzielten Werkstückqualitäten noch während der Bearbeitung.

Wie umgehen mit den riesigen Datenmengen? Industrie 4.0 führt zu gläsernen Produktionsstätten, die dank der Zunahme an Sensorik und leistungsfähiger Auswerteelektronik Big Data erzeugen. Doch wie lassen sich die wertvollen Rohdaten etwa einer Werkzeugmaschine erfassen – lässt sich eine ältere Maschine ohne Sensorik nachrüsten?

A. Epple: Es gibt Forschungsprojekte, die sich damit beschäftigen, wie ältere Maschinen nachgerüstet werden können. Wir verfolgen darüber hinaus derzeit auch Ansätze, welche zunächst die in der Maschine verbaute Sensorik nutzen. Neben dem Motorstrom erfasst jede Maschine auch aktuelle Achspositionen.

In der Regel sind direkte und indirekte Wegmesssysteme verbaut. Mit diesen Signalen können wir beispielsweise die Ratterneigung prozessparallel ermitteln. Auch die Prozesskräfte und Komponentenlasten für Ansätze im Predictive Maintenance lassen sich bestimmen. Dies gilt für ältere und für neue Maschinensysteme.

Big ist aber nicht immer „beautiful“: So ergibt die 100prozentige Datenerfassung der Arbeit eines Bearbeitungszentrums in Echtzeit (35 Kennwerte pro Millisekunde) pro Jahr bereits ein Datenvolumen von 5,8 Terabytes. Wie fischen sie hier die interessanten Fakten heraus?

M. Königs: Für die Extraktion von interessanten Informationen und Kennwerten nutzen wir sowohl statistische Methoden (Machine Learning) als auch eigens entwickelte Algorithmen, die die Integration von Experten- bzw. Domänenwissen ermöglichen. Generell ist es aber richtig, dass bei kontinuierlicher Datenerfassung eine grosse Datenmenge anfällt. Nun gibt es Ansätze, nicht permanent mit maximaler Abtastrate alle Daten zu erfassen, sondern nur zu bestimmten Zeiten, nach bestimmten Events - z.B. Übertreten eines Schwellenwerts – oder für bestimmte Prozesse. Andere Ansätze komprimieren die Datenmenge durch Kennwertbildung. Wieder andere Ansätze nutzen bewusst die hohe Datenmenge, um mit entsprechenden mathematischen Algorithmen Muster zu erkennen. Es ist stark anwendungsabhängig, welcher Ansatz der erfolgversprechendste ist.

Lässt sich diese Datenmenge noch mit üblicher Hardware bewältigen oder ist ein Supercomputer – Stichwort Quantenrechner – gefragt?

M. Königs: Die aktuelle Technik reicht – richtig eingesetzt – in unseren Disziplinen meist aus, wenn Einzel- oder Teil-Modelle von Experten entwickelt werden.

Die breite, disziplinübergreifende Verschaltung und Anwendung dieser Modelle bringt die aktuell verfügbare Hardware jedoch schnell an ihre Grenzen. Eine auf diese Bedürfnisse ausgerichtete Cloud-Umgebung, in der sowohl statistisch als auch physikalisch motivierte Einzelmodelle gekoppelt und mit bedarfsgerecht bereitgestellten Rechenressourcen ausgeführt werden können, kann hier die benötigte Konnektivität und Rechenleistung bereithalten. Ich glaube aber nicht, dass sich eine solche Umgebung nur mit Quantenrechnern umsetzen lässt.

Wissenschaftler vom Fraunhofer IPK meinten, es sei sinnvoller, vor dem Speichern in der Nähe der Maschine eine intelligente Vorauswahl zu treffen, bevor dann ein reduzierter Datensatz – Stichwort Smart Data – in die Clou wandert. Was halten Sie von diesem Ansatz?

A. Epple: Der Idee kann ich grundsätzlich folgen. Auch am WZL beschäftigen wir uns mit der lokalen Datenvorverarbeitung und -interpretation und somit der Veredlung der Daten zu smarten Daten in unmittelbarer Nähe des Maschinensystems. Die Vorteile dieser lokalen Datenvorverarbeitung liegen auf der Hand. Allerdings gibt es auch Firmen, die alle Rohdaten ungefiltert in einem zentralen System – etwa einer Cloud – speichern und verarbeiten.

(ID:44715521)