Optimierung der Produktion mit Data Mining

Aktuell werden produzierende Unternehmen mit Begriffen überschwemmt, die Effizienz propagieren. Was halten diese Versprechen in der Praxis? Welche Voraussetzungen müssen geschaffen werden, um beispielsweise Vorhersagen für mögliche Produktionsstörungen treffen zu können? Wie lassen sich aus diesen Vorhersagen automatisiert zuverlässige Entscheidungen für die Produktionssteuerung ableiten? Diesen Fragen sind wir in einem Projekt zur Überwachung und Kontrolle der Produktion mit Industriekameras nachgegangen.

Die Kamerabilder werden von einem Produktionssteuerungssystem interpretiert, das daraufhin Entscheidungen trifft. Die Bildinformationsqualität der eingesetzten Kameras kann sich jedoch ändern. Dies wiederum kann zu fehlerhaften Entscheidungen bei der Produktionssteuerung führen. Ziel des Projektes war es, rechtzeitig zu erkennen, wann sich die Bildinformationsqualität ändert, um falsche Entscheidungen zu verhindern.

Datengrundlage bildeten von Industriekameras aufgenommene Bilder eines Produktionsschritts. Zudem hatten wir die Möglichkeit, diese Bildinformationen mit Daten aus den Produktionsplanungs- und Produktionsteuerungssystemen zu verknüpfen. Die Bilddatenmenge war gigantisch: mit mehreren Terabyte wähnten wir uns für Datenanalysen gut gerüstet.

Im ersten Schritt sammelten wir alle Daten aus den unterschiedlichsten Datenquellen. Um den großen Datenmengen gerecht zu werden, entschieden wir uns für die verteilte NoSQL Datenbank Cassandra. Ein solcher Schritt wird als ETL-Prozess (Extraction Transformation Loading) bezeichnet. Anschließend mussten wir überprüfen, ob die gesammelten Daten in ausreichender Menge und Qualität vorliegen, so dass wir zuverlässige Voraussagen über die Entwicklung der Bildinformationsqualität treffen können. Für die Überprüfung der Qualität der Daten setzten wir Data Mining Algorithmen zur Beschreibung der Daten ein. Um Data Mining Algorithmen anwenden zu können, müssen die Daten nach unterschiedlichen Gesichtspunkten verknüpft und klassifiziert werden. Dies ist ein weiterer ETL-Prozess und beinhaltet die feature-basierte Extraktion.

Die daraus entstandenen Modelle halfen uns, die Daten zu verstehen, fehlende Daten zu identifizieren und die Datenqualität zu bestimmen. Wir stellten ernüchternd fest, dass wir uns weiterer Informationsquellen bedienen mussten, um die gewünschte Qualität der Daten zu erreichen. Aus diesem Grund wiederholten wir den Schritt, bis wir unser Qualitätsziel erreichten.

Im letzten Schritt bereiteten wir die Daten für vorhersagebasierte Data Mining Algorithmen vor. Auch für diesen Schritt probierten wir unterschiedlichste Algorithmen aus und entschieden uns schließlich für die Modelle, die die zuverlässigsten Aussagen vorhersagten.

Der entscheidende Faktor für erfolgreiche Data Mining Projekte ist aus meiner Sicht die vorliegende Datenqualität und -menge. Wurde hier bereits im Vorfeld viel in die unternehmensweite Vereinheitlichung der Daten investiert, können vermutlich mit adäquatem Aufwand Vorhersagen getroffen werden. In allen anderen Fällen sollten zunächst Projekte initiiert werden, die sich auf die Erhöhung der Qualität und Vereinheitlichung der Daten stützen. Aber auch diese Projekte können vom Data Mining profitieren.

Zurück