QUALITÄTSMANAGEMENT BLOG

Wie kann Big Data dazu beitragen, das QM der Zukunft zu verbessern?

Wir befinden uns derzeit in einem tiefgreifenden Umbruch der Industrialisierung. Digitale Transformation und Industrie 4.0 sind Schlagworte, die diesen Wandel bezeichnen, ebenso Big Data.

Die Digitalisierung im produzierenden Gewerbe schreitet mit zunehmender Geschwindigkeit voran. Mensch und Maschine vernetzen sich immer mehr, Industrie 4.0 wird Wirklichkeit. Wertschöpfung findet in immer stärkerem Maße vernetzt statt. Analysen auf Basis von Big Data sind eine der wichtigsten Vorgehensweisen in dieser Industrie 4.0. Big Data bezeichnet Datenmengen, für deren Verarbeitung digitale Methoden nötig sind. Dies liegt an der Menge oder der Art der erhobenen Daten. Big-Data-Analysen sind jenseits der produzierenden Industrie häufig fester Teil des Geschäftsmodells. In der Finanzbranche ist es etwa Standard, mittels Big-Data-Analysen Trends am Markt zu identifizieren. Auch im Handel kommen derartige Verfahren zum Einsatz, um etwa bessere Kundenprofile zu entwickeln.

Elektroindustrie ist Vorreiter

Das produzierende Gewerbe in Deutschland nutzt Big-Data-Verfahren vor allen Dingen für Qualitätsmanagement. Bei knapp sieben von zehn Unternehmen, die Industrie 4.0-Ansätze verfolgen, kommt Big Data zur Anwendung. Diese Firmen werten in großem Umfang bei der Herstellung generierte Daten aus, um die Qualität der Produkte zu überwachen und zu sichern. Die Elektronindustrie nimmt bei diesem Ansatz die Rolle des Vorreiters ein. Drei Viertel der Unternehmen nutzen hier Big Data zum Qualitätsmanagement. In der Maschinenbauindustrie hingegen kommt Big Data fast ebenso häufig bei der Produktentwicklung zum Einsatz wie beim Qualitätsmanagement.

Ungenutzte Potenziale

Big Data-Verfahren sind zweifelsohne auf dem Vormarsch. Allerdings besteht hier auch noch Potenzial. Denn selbst Unternehmen, die Big Date anwenden, nutzen nicht alle Möglichkeiten des Ansatzes aus. Nur in seltenen Fällen greifen Firmen etwa auf die durch Big Data gewonnenen Infos zurück, um den Ursachen für Qualitätsprobleme auf den Grund zu gehen. Zwar hat sich die Erkenntnis ausgebreitet, dass valide Daten die Basis sind, um Probleme mit der Qualität zu identifizieren und zu lösen. Doch die Unternehmen nutzen die bei der Herstellung gewonnenen Informationen bislang nur zu einem geringen Teil. Nicht selten begnügen sich Unternehmen damit, zu dokumentieren, wenn Messdaten von festgelegten Zahlen oder Standards abweichen. Dies ist nur die erste Stufe von mehreren Analysemöglichkeiten bei Big Data. Sie wird auch als Descriptive Analytics bezeichnet. Zumindest stellen die Unternehmen hierbei Transparenz im Herstellungsverfahren her. Allerdings ist es auf dieser Stufe noch nicht möglich, Ursache-Wirkungs-Beziehungen zu untersuchen. Dies ist der Inhalt der so genannten Diagnostics Analytics.

Häufig mangelnde IT-Voraussetzungen

Einen Schritt weiter gehen die Ansätze der Predictive oder Prescriptive Analytics im Big-Data-Ansatz. Hierbei wird angestrebt, mögliche Probleme bereits vor dem Entstehen zu erkennen oder aufgetretene Schwierigkeiten automatisch zu beheben. Dieser ambitionierte Ansatz setzt zwingend voraus, dass das Unternehmen Kenntnisse über Ursache-Wirkungs-Zusammenhänge hat. Noch ausgefeilter ist der Ansatz der Manufacturing Analytics. Hierbei basiert das komplette Qualitätsmanagement auf den Erkenntnissen von Big Data. Allerdings sind viele Unternehmen aktuell noch nicht in der Lage, dieses Verfahren anzuwenden. Es fehlt ihnen an Wissen und den nötigen technischen Voraussetzungen wie ausreichende Datenbankstrukturen und Software. Häufig setzen diese Unternehmen noch traditionelle QM-Systeme ein, die aber mit steigender Produktkomplexität nicht mehr ausreichend leistungsfähig sind.

So nutzen Sie Ihre Produktionsdaten effektiv

In einem immer härter werdenden Wettbewerb ist es fahrlässig, die Unternehmensdaten nicht effektiv zu erheben und auszuwerten. Grundlage für die auf Big-Data-Verfahren basierenden Industry- Analytics-Verfahren ist, dass alle relevanten Maschinen und Produktionsgeräte mit Internet-of-Things-Komponenten ausgerüstet sind. In manchen Fällen müssen hierzu die bereits existierenden Sensoren angepasst werden. In der Regel fallen nötige Justierungen jedoch unkompliziert aus. Wenn diese Voraussetzungen vorliegen, kann mit dem systematischen Erfassen und Auswerten der Daten begonnen werden. Hierbei werden die Daten zunächst gesammelt und dann in eine zentrale Datenbank transferiert. Um den Big-Data-Prozess zielführend zu gestalten, müssen diese Faktoren beachtet werden:

  • Umfang: Welche Menge an Daten soll insgesamt gesammelt und gespeichert werden?
  • Unterschiedlichkeit: Wie groß sind die Unterschiede zwischen den Daten, die erfasst und dokumentiert werden sollen?
  • Geschwindigkeit: Wie schnell werden Daten erzeugt und übertragen?
  • Validität: Wie ist es um die Datenqualität bestellt? Wie genau und zuverlässig sind sie?
  • Wert: Welchen Wert stellen die gesammelten Daten für die Produktion und die Wertschöpfung dar?

Es ist nicht neu, erzeugte Daten zu speichern und in umfangreiche Berichte zu transferieren. Interessant für das Qualitätsmanagement wird es ab dem Zeitpunkt, wo auch sehr kleine Änderungen der Daten dokumentiert und durch künstliche Intelligenz oder statistische Verfahren ausgewertet werden. Hierbei werden Algorithmen des Data-Mining angewendet. Diese Verfahren sind in der Lage, Muster in Daten zu erkennen, die sich wiederholen. Bei den Verfahren der Industry Analytics besteht nun die Möglichkeit, alle betrieblichen Abläufe umfassend darzustellen. Früher war nur eine Dokumentation und Analyse einzelner, limitierter Datensätze möglich.

Zurück

Hier bloggt Ihre Redaktion.