Offene Big Data-Plattformen für die vernetzte Produktion

Von Ralf Keuper

Auf dem Weg zur Industrie 4.0 müssen die Unternehmen noch einige Hürden nehmen. Eine davon ist, die Maschinendaten herstellerunabhängig in Plattformen zu integrieren und in Echtzeit zu visualisieren. Ohne diese Voraussetzung können die erhofften Mehrwerte aus den Daten, die in den Unternehmen während der Produktion anfallen, nicht realisiert werden1)Offene Big-Data-Plattform für Industrie 4.0 Anforderungen, Architektur, Anwendung.

Datenintegration

In den Unternehmen wird eine Fülle an Daten erzeugt (Sensor-, Prozess-, Energie-, Nutzungs- und Geschäftsdaten), die aus unterschiedlichen Quellen (Maschinen, Anlagen, Komponenten) stammen. Häufig werden verschiedene Applikationen wie MES, ERP und PLM eingesetzt, die nicht in der Lage sind, ihre Daten direkt auszutauschen. Es fehlen gemeinsame Schnittstellen und Datenmodelle. Obendrein müssen die verschiedenen Kommunikationsprotokolle (Profinet, EtherCAT, Profibus) berücksichtigt werden. An der Implementierung von Konnektoren und Konvertern führt daher kein Weg vorbei. Damit entsteht ein hoher Aufwand für die Zusammenführung, Aufbereitung und Validierung der Daten  – gemeinhin als Data Engineering bezeichnet2)Data Engineering – Grundlagen, Aufgaben und Bedeutung. Erst wenn diese Arbeit erledigt ist, können die Data Scientists mit ihrer Arbeit beginnen und durch die Erstellung von Abfragen bzw. Algorithmen einen Mehrwert aus den Daten generieren, z.B. für die Fertigungsoptimierung, Fehlervorhersage oder die Vermeidung von Maschinenausfällen.

Standards

Standards tragen dazu bei, den Aufwand für das Data Engineering zu reduzieren und den Datenaustausch zwischen Maschinen unterschiedlicher Hersteller zu erleichtern. Hierbei übernimmt OPC-UA (Open Platform Communications Unified Architecture) eine Schlüsselfunktion3)Industrie 4.0 Kommunikation mit OPC UA. An der Formulierung war das Fraunhofer IOSB-INA in Lemgo maßgeblich beteiligt.

OPC UA bietet die Möglichkeit, Geräte- und Fähigkeitsbeschreibungen in Form von Informationsmodellen zu erstellen. Branchenspezifische Informationsmodelle werden als „Companion Specification“ bezeichnet.

Der Werkzeugkasten OPC UA
für die Industrie-4.0-Kommunikation

OPC UA ermöglicht somit eine einheitliche Kommunikation zwischen Anlagen, Maschinen und Komponenten unterschiedlicher Hersteller. Ziel ist es, Wissen in formalisierter Form für Maschinen bereitzustellen und so Plug & Play zu ermöglichen.

Da die Maschinen in den Unternehmen ihren Zweck bislang erfüllt haben, besteht kein Interesse, sie mit der Einführung einer Big-Data-Plattform auszutauschen. Beim Aufbau wird daher der Brownfield-Ansatz bevorzugt. Dabei werden die Daten aus den bestehenden Alt-Systemen gesammelt, ohne die verwendeten Automatisierungslösungen in ihrer Leistungsfähigkeit zu mindern.

I4.0 Gateway

Für einen derartigen Retrofit-Ansatz kann ein  I4.0 Gateway eingesetzt werden. Aufgabe des Gateways ist es, die Daten aus modernen IIoT-Geräten, jedoch ebenso aus Steuerungen und anderen Automationskomponenten zu sammeln und in standardisierter Form für die weitere Verarbeitung verfügbar zu machen; es fungiert als Vermittler zwischen den Maschinen und höher gelagerten Verarbeitungssystemen.

Aufbau des I4.0-Gateways. Quelle: Offene Big-Data-Plattform für Industrie 4.0. Anforderungen, Architektur, Anwendung

Das I4.0 Gateway verfügt auf einer Seite über Konnektoren zu IIoT-Geräten und klassischen industriellen Kommunikationsprotokollen, wie z.B. PROFINET oder Modbus, und auf der anderen Seite über eine standardisierte I4.0 – Kommunikation mittels Verwaltungsschale, dem Digitalen Zwilling der Industrie 4.0.

Projekt 'Technische Infrastruktur für Digitale Zwillinge (TeDZ)'
Ziel des Projekts ist die Entwicklung und Erprobung einer technischen Infrastruktur für digitale Zwillinge. Diese interoperable durchgängige Infrastruktur soll den Zugriff auf die digitalen Beschreibungen und Teilmodelle von Maschinen, Produkten und Betriebsmitteln sowie deren Interaktion über den gesamten Lebenszyklus effizient ermöglichen. Dadurch können voraussichtlich Einsparpotenziale von über 50 Prozent realisiert werden. Die technische Infrastruktur basiert auf Informationsmodellen, Schnittstellen und geeigneten Kommunikationsprotokollen. Dabei werden Anforderungen aus den Bereichen Energie- und Fertigungstechnik sowie existierende Industrie 4.0-Standards und IT-Systeme, wie zum Beispiel PLM-, ERP-, MES- oder PIM- und Simulations-Systeme, berücksichtigt.

Datenplattformen aufbauen und betreiben

M.Sc. Florian Pethig (Fraunhofer IOSB-INA Lemgo)

Die Unternehmen können bei der Vernetzung ihres Maschinenparks aus einer Fülle integrierter Lösungen und Plattformen, wie Mindsphere, Azure, ADAMOS und Predix, wählen. Jedoch besteht hier die Gefahr eines Vendor-Lock-In. Einmal integriert, ist der Wechsel auf eine andere Plattform nur mit hohem Aufwand umzusetzen. Für die mittelständischen Unternehmen keine verlockende Perspektive. Daher empfiehlt Florian Pethig (Foto) von der Forschungsgruppe Big Data Plattformen des Fraunhofer IOSB-INA in Lemgo den Aufbau eigener Datenplattformen oder den Einsatz von Hybriden, d. h. einer Kombination aus eigenen Datenplattformen und Standard- bzw. Branchenlösungen.

Big Data Cluster

Das Bindeglied zwischen der Datenintegration und der Datenanalyse ist der Big Data Cluster.

Ein wichtiger Baustein für den Datentransfer ist Apache Kafka, eine freie Software, die vor allem zur Verarbeitung von Datenströmen dient. Entwickelt wurde Apache Kafka ursprünglich von LinkedIn. Der große Vorteil von Apache Kafka besteht darin, dass es ein verteiltes System ist, das sowohl skalierbar wie auch fehlertolerant ist. Das macht es für Big Data – Anwendungen besonders geeignet.

Für die Datenspeicherung empfiehlt sich der Einsatz moderner NoSQL-Datenbanken, wie z. B. die dokumentenorientierte MongoDB, der Key-Value-Store Cassandra oder die Zeitreihendatenbank influxDB. Letzere ermöglicht, eine kontinuierliche Abfolge von Werten abzubilden und auszuwerten, um damit Trends zu erkennen und Prognosen ableiten zu können. Zeitreihendatenbanken haben gegenüber den klassischen relationalen Datenbanken den Vorteil, dass sie in der Lage sind, große Mengen an Daten u.a. über Datenkompressionsverfahren effizient zu speichern, ohne ihre Kohärenz bzw. den Kontext dabei zu zerstören.

Die Datenverarbeitung in Echtzeit erfolgt im Cluster auf Basis der Lambda-Architektur4)Von Lambda zu Kappa: Ein Leitfaden zu Echtzeit-Big Data-Architekturen. Die Lambda-Architektur dient dazu, Lesevorgänge und Updates mit niedriger Latenz linear skalierbar und fehlertolerant zu bewältigen. Die Daten werden dabei zeitgleich in den Speed- und Batch-Layer übertragen. Während der Batch-Layer Berechnungen auf den dauerhaft gespeicherten Daten durchführt, wendet der Speed Layer schnelle Algorithmen auf die aktuellen Daten an. Der Batch-Layer wird mittels Apache Spark, der Speed Layer über Kafka Streams in die Plattform integriert.

Datenanalyse und Echtzeitvisualisierung

Eine große Bedeutung hat die Visualisierung der aus den Daten gewonnenen Informationen, da hier die Mehrwerte sichtbar und nachvollziehbar werden. Hierfür bietet sich das Open Source Tool Grafana an. Damit lassen sich die Daten aus verschiedenen Systemen auslesen und z. B. mittels Liniendiagrammen in Echtzeit darstellen. Weiterhin kann die Datenanalyse zur Überwachung von Maschinen- und Anlagedaten anhand von Key Performance Indicators (KPI) verwendet werden. KPIs geben beispielsweise Auskunft über Soll- und Ist-Produktionszeiten, Teilmengen oder Lagerbestände. Ferner helfen sie bei der Nachverfolgung der Produktion und der Kalkulation von Kosten in Echtzeit. Darüber hinaus können Algorithmen auf die Daten angewendet werden, um Abhängigkeiten zwischen Daten sowie das Verhalten von Maschinen in der Fabrik automatisch zu analysieren.

Fazit

Schon heute lässt sich in der Industrie eine Akzentverschiebung vom Produkt hin zum Service feststellen. Der alte Slogan “Ship and forget” hat sich überlebt. Die Maschinen, Geräte und Komponenten werden über ihren gesamten Lebenszyklus begleitet. Fortlaufend teilen sie ihren Zustand über die von ihnen generierten oder von ihnen erfassten Daten mit. Innerbetrieblich ebenso wie extern beim Kunden geben die Maschinen Auskunft über mögliche Fehler oder baldigen Wartungsbedarf. Die Reaktionszeiten werden kürzer, was wiederum die Datenanalyse in Echtzeit erfordert. Diese wiederum kann nur dann die gewünschten Informationen liefern, wenn die Daten in ausreichender Menge und Qualität vorliegen. Ohne einheitliche Standards und Informationsmodelle bleibt dies Utopie.

Es wird deutlich, dass die vernetzte Produktion ohne das Zusammenspiel der verschiedenen Komponenten, Akteure und Technologien nicht funktionieren kann. Die Unternehmen müssen dazu das nötige Know How entweder selber entwickeln, zukaufen oder durch Kooperationen mit anderen Unternehmen und wissenschaftlichen Institutionen erarbeiten.

Die Produktion wird noch informationsintensiver. Informationen erlangen den Status handelbarer Güter. Die Frage nach der Schöpfung von Informationen und Wissen stellt sich neu. Wie Herbert Zech in Information als Schutzgegenstand betont, hat die Tatsache, dass die Informationen immer unabhängiger von Träger-, Sender-, Empfänger- und Objektbezügen geworden sind, zu einer Aufwertung der Syntaktischen Informationen geführt. Die Kopplung codierter Information an Menschen als den einzigen Empfängern wurde zunächst mit den automatischen Webstühlen und schließlich durch den Einsatz von Software für die Kommunikation zwischen Maschinen aufgehoben. In der Industrie 4.0 strebt man nun durch den Einsatz semantischer Informationsmodelle, die formalisiertes Wissen enthalten, danach, eine automatische Interpretierbarkeit durch Maschinen zu ermöglichen. Das ist eine neue Dimension. Erst mit Big Data Plattformen ist in der Industrie diese relativ neue Form der Informationsverarbeitung und Wissensgenerierung im großen Stil möglich, was wiederum großen Einfluss auf die Entwicklung neuer Produkte, Services und Geschäftsmodelle haben wird.

References   [ + ]

Dieser Beitrag wurde unter Industrial Internet der Dinge, Industrie 4.0, Maschinendaten / M2M-Kommunikation, Standards/Protokolle, Technik und Gesellschaft veröffentlicht. Setze ein Lesezeichen auf den Permalink.