Gruselgeschichten aus dem Qualitätswesen

Gruselgeschichten aus dem Qualitätswesen

Pünktlich zu Halloween möchte ich ein paar Themen teilen, bei denen es mir eiskalt den Rücken runterläuft. Diese fünf Beispiele stammen alle aus der Welt der Datenanalyse im Qualitätswesen – und lassen mich mehr schaudern als jeder Horrorfilm.

31. Oktober 2024 um 07:30 Uhr von Daniel Fügner
  • 3


1. Mangelnde Datenhygiene – Das Gift in den Zahlen

Es gibt kaum etwas Gruseligeres, als wenn Daten analysiert werden, ohne dass sich jemand Gedanken über ihre Qualität gemacht hat. So entstehen scheinbare Effekte, die entweder verschleiern oder künstlich erzeugen, was nicht da ist. Plötzlich basieren wichtige Entscheidungen auf einer verzerrten Realität. Besonders gruselig ist es, wenn auf eine gründliche Messsystemanalyse verzichtet wird, nur weil das Messgerät teuer war oder kürzlich kalibriert wurde. Zahlreiche Experimente enden in einer Sackgasse, weil man den Datenhygiene-Grusel nicht ernst genommen hat.

2. Ineffiziente Versuchsdurchführung – Das Schreckgespenst der Einzelfaktoren

Es ist ein Relikt aus vergangenen Zeiten: Nur einen Parameter pro Versuch zu ändern, um "auf Nummer sicher" zu gehen. In der heutigen Welt bedeutet das, den Wettbewerb schon verloren zu haben, bevor man überhaupt angefangen hat. Noch schlimmer ist es, wenn Experimente komplett ignoriert werden und stattdessen einfach willkürlich festgelegt wird, dass etwas "schon passen wird" – ein Garant für zukünftige Katastrophen. 

3. Zu niedriger Stichprobenumfang – Die Falle der Illusion

Manchmal sind Stichprobenumfänge schlichtweg festgelegt – immer 5 oder 10. Fehlt ein Finger, reicht es eben auch mal mit 4 oder 9. Das Ergebnis? Stets "alles in Ordnung" und keinerlei Auffälligkeiten. Doch die Wirklichkeit sieht anders aus: Wer wirklich Informationen aus einem System ziehen will, muss bereit sein, den entsprechenden Aufwand zu investieren.

4. "Das haben wir schon immer so gemacht" – Die Geister der Vergangenheit

Es gibt sie überall: Diejenigen, die glauben, mit veralteten Methoden aktuelle Probleme lösen zu können. Doch so wie ein Schlüssel nur das richtige Schloss öffnet, so erfordern moderne Herausforderungen auch moderne Lösungen. Die sture Haltung, an alten Vorgehensweisen festzuhalten, führt geradewegs in die Sackgasse – oder wie Einstein es ausdrückte: "Die Definition von Wahnsinn ist, immer wieder das Gleiche zu tun und andere Ergebnisse zu erwarten."

5. Prozessfähigkeitsanalyse ohne Verteilungsbetrachtung – Der Fluch der Ignoranz

Die Statistische Prozessregelung (SPC) ist eine der Grundpfeiler des Lean Manufacturing. Ohne jegliche Verteilung als Basis sind hunderte Datenpunkte notwendig, um eine Fehlerquote im Prozentbereich zu bewerten – und Millionen, wenn es um ppm geht. Doch wer bei der verteilungsgebundenen Analyse nur an die Normalverteilung denkt, läuft Gefahr, den eigentlichen Zustand des Prozesses komplett zu verkennen. Ignoriert man die Vielfalt möglicher Verteilungen, entstehen Prozessfähigkeitswerte, die nichts mit der Wirklichkeit zu tun haben. Die Folge: teure Rückrufaktionen oder sinnlose Optimierungsmaßnahmen, die mehr Schaden anrichten als Nutzen bringen.

Hast du auch schon einen Schauer über den Rücken laufen gespürt? Wenn nicht, dann gruselt es mich jetzt vor deinen Prozessen!

 

H A P P Y   H A L L O W E E N !



Kommentare

Bisher hat niemand einen Kommentar hinterlassen.

Kommentar schreiben

Melde Dich an, um einen Kommentar zu hinterlassen.

Teilen

Weitere Inhalte

LeanSimulation
LeanSimulation

Veränderungen in Geschäftsprozessen scheitern oft weniger an dem Verständnis von Prozessen oder der Akzeptanz der technischen Abläufe, als an den Menschen, die sich nicht mitgenommen fühlen.