Falsche Datenart – Schlechte Analyse – Kostspielige Entscheidung

Falsche Datenart – Schlechte Analyse – Kostspielige Entscheidung

Bevor eine Methode gewählt wird, muss die Art der Daten klar sein. Fehlerdaten (gut/schlecht) werden nicht zu stetigen Werten, nur weil man sie als Prozent ausdrückt – sie bleiben Attributdaten. Wer sie in Regelkarten oder zur Cpk-Bestimmung wie stetige Größen behandelt, produziert zwangsläufig Fehler. Zählen oder messen? Erst wenn das beantwortet ist, lässt sich die passende Analysemethode auswählen. Genau darum geht es in diesem Artikel.

Autor: Daniel Fügner

21. Januar 2026 um 04:30 Uhr von European Six Sigma Club Deutschland e. V.
  • 5


Skalentypen

Nominaldaten unterscheiden Kategorien ohne Reihenfolge – etwa Fehlercode A/B/C, Lieferant X/Y oder ja/nein. Sie entstehen durch Klassifikation, zum Beispiel per Sichtprüfung, Prüfautomat oder Dropdown. Analytisch arbeiten wir hier mit Anteilen, Raten und passenden Konfidenzintervallen; bei zwei Klassen liegt die Binomiallogik nahe, bei mehreren die Multinomiallogik, bei seltenen Ereignissen pro Fläche oder Zeit oft Poisson. Für die Prozessüberwachung heißt das praktisch: p/np- bzw. c/u-Charts statt Karten für stetige Messwerte.

Ordinaldaten ordnen, ohne exakte Abstände zu liefern – klassische Beispiele sind Schulnoten, Prioritäten (H/M/L) oder Likert-Skalen. Sie entstehen durch Einstufung und verlangen robuste Auswertungen. Median und Perzentile sagen meist mehr als ein Durchschnittswert à la 3,7; wer modellieren will, nutzt ordinale Verfahren und benennt die Grenzen der Skala offen, statt Scheinpräzision zu erzeugen.

Intervallskalen erlauben sinnvolle Differenzen, haben aber einen willkürlichen Nullpunkt, wie bei Grad Celsius. Sie entstehen durch Messung auf gleichabständigen Skalen und verhalten sich häufig annähernd normal – oder lassen sich per Transformation gut handhaben. Entscheidend ist, in Differenzen zu denken; Verhältnisaussagen wie „doppelt so warm“ sind hier unlogisch und führen in die Irre.

Verhältnisskalen bieten den höchsten Freiheitsgrad: Es gibt einen echten Nullpunkt, etwa bei Zeit, Masse, Länge, Drehmoment oder Kosten. Gemessen wird mit kalibrierten Instrumenten; viele Größen sind näherungsweise normalverteilt, Zeiten und Lebensdauern dagegen häufig rechtsschief (lognormal oder Weibull). Verhältnisse und Raten sind sinnvoll interpretierbar, und viele Fähigkeits- und Regressionsmethoden setzen genau diese Skalenlogik voraus.

Zählen vs. Messen

Ob wir zählen (Attribut) oder messen (Variabel), prägt die gesamte Analyse. Zählprozesse folgen typischerweise Binomial oder Poisson; Messprozesse liefern stetige Größen – vorausgesetzt, die Auflösung ist fein genug und quantisiert die Streuung nicht weg. 

Messsystem & Datenqualität

Ein gutes Messsystem macht Analysen möglich, ein schwaches macht sie bedeutungslos. Startpunkt ist die Auflösung: Als Faustregel sollte die Anzeige mindestens ein Zehntel der Toleranz abbilden, besser feiner. Sonst glättet die Skala die Streuung, und Cp/Cpk wirken blendend, ohne Substanz. Ebenso wichtig sind Wiederholbarkeit und Reproduzierbarkeit. Für stetige Merkmale zeigt eine Gage-R&R-Untersuchung, wie viel der beobachteten Varianz durch das Messsystem entsteht; für attributive Entscheidungen prüft eine Attribute-Agreement-Analyse Trefferraten, Fehlklassifikationen und die Übereinstimmung (zum Beispiel Kappa). Dazu kommen Bias, Linearität und Stabilität: Weicht das System systematisch von der Referenz ab? Bleibt der Bias über den Messbereich konstant? Driften Messwerte über die Zeit – etwa durch Temperatur, Verschleiß oder Software-Updates?

Informationsgehalt – was geht verloren, was bleibt?

Mit jeder Reduktion der Skala schrumpft der Informationsgehalt. Nominaldaten erlauben lediglich ein „gleich/ungleich“ und tragen deshalb am wenigsten bei; Ordinaldaten fügen eine Rangordnung hinzu, aber keine belastbaren Abstände. Erst Intervallskalen ermöglichen sinnvolle Differenzen, während Verhältnisskalen zusätzlich echte Verhältnisse zulassen. Praktisch bedeutet das: Aus kontinuierlichen Messwerten durch Grenzprüfung ein bloßes Pass/Fail zu machen, reduziert die Aussagekraft drastisch. Effekte, die in Messdaten klar sichtbar wären, verschwinden in Attributdaten im Rauschen – mit der Folge, dass für dieselbe Zielgenauigkeit deutlich größere Stichproben nötig werden. Umgekehrt gewinnt man durch bessere Messauflösung real mehr Information: Aus stufigen Anzeigen wird wieder eine brauchbar stetige Skala; Modelle stabilisieren sich, Fähigkeitszahlen werden belastbarer, Regelkarten senden weniger Fehlalarme. Wer Analysen plant, sollte deshalb bewusst entscheiden, auf welcher Skalenhöhe er arbeiten will – und wenn möglich messen statt nur klassifizieren.

Fazit

Die wichtigste statistische Entscheidung passiert vor der Methode: Welche Daten habe ich – und wie sind sie entstanden? Wer sauber zwischen nominal, ordinal, intervall und verhältnis unterscheidet, Zählen von Messen trennt, den Informationsgehalt bewusst nutzt, Zeitabhängigkeiten erkennt und sein Messsystem prüft, entscheidet schneller und belastbarer.

 



Kommentare

Bisher hat niemand einen Kommentar hinterlassen.

Kommentar schreiben

Melde Dich an, um einen Kommentar zu hinterlassen.

Teilen

Weitere Inhalte

Kennst Du schon LeanHospital?

  • Robuste Unternehmen oder Handelskriege
  • Blicke in die Zukunft
  • Demokratische Dispute oder populistische Hetze
LiveStream vom LATC2026
LiveStream vom LATC2026

Alle Vorträge der Hauptbühne im LiveStream!