
Falsche Datenart – Schlechte Analyse – Kostspielige Entscheidung
Bevor eine Methode gewählt wird, muss die Art der Daten klar sein. Fehlerdaten (gut/schlecht) werden nicht zu stetigen Werten, nur weil man sie als Prozent ausdrückt – sie bleiben Attributdaten. Wer sie in Regelkarten oder zur Cpk-Bestimmung wie stetige Größen behandelt, produziert zwangsläufig Fehler. Zählen oder messen? Erst wenn das beantwortet ist, lässt sich die passende Analysemethode auswählen. Genau darum geht es in diesem Artikel.
Autor: Daniel Fügner
Skalentypen
Nominaldaten unterscheiden Kategorien ohne Reihenfolge – etwa Fehlercode A/B/C, Lieferant X/Y oder ja/nein. Sie entstehen durch Klassifikation, zum Beispiel per Sichtprüfung, Prüfautomat oder Dropdown. Analytisch arbeiten wir hier mit Anteilen, Raten und passenden Konfidenzintervallen; bei zwei Klassen liegt die Binomiallogik nahe, bei mehreren die Multinomiallogik, bei seltenen Ereignissen pro Fläche oder Zeit oft Poisson. Für die Prozessüberwachung heißt das praktisch: p/np- bzw. c/u-Charts statt Karten für stetige Messwerte.
Ordinaldaten ordnen, ohne exakte Abstände zu liefern – klassische Beispiele sind Schulnoten, Prioritäten (H/M/L) oder Likert-Skalen. Sie entstehen durch Einstufung und verlangen robuste Auswertungen. Median und Perzentile sagen meist mehr als ein Durchschnittswert à la 3,7; wer modellieren will, nutzt ordinale Verfahren und benennt die Grenzen der Skala offen, statt Scheinpräzision zu erzeugen.
Intervallskalen erlauben sinnvolle Differenzen, haben aber einen willkürlichen Nullpunkt, wie bei Grad Celsius. Sie entstehen durch Messung auf gleichabständigen Skalen und verhalten sich häufig annähernd normal – oder lassen sich per Transformation gut handhaben. Entscheidend ist, in Differenzen zu denken; Verhältnisaussagen wie „doppelt so warm“ sind hier unlogisch und führen in die Irre.
Verhältnisskalen bieten den höchsten Freiheitsgrad: Es gibt einen echten Nullpunkt, etwa bei Zeit, Masse, Länge, Drehmoment oder Kosten. Gemessen wird mit kalibrierten Instrumenten; viele Größen sind näherungsweise normalverteilt, Zeiten und Lebensdauern dagegen häufig rechtsschief (lognormal oder Weibull). Verhältnisse und Raten sind sinnvoll interpretierbar, und viele Fähigkeits- und Regressionsmethoden setzen genau diese Skalenlogik voraus.
Zählen vs. Messen
Ob wir zählen (Attribut) oder messen (Variabel), prägt die gesamte Analyse. Zählprozesse folgen typischerweise Binomial oder Poisson; Messprozesse liefern stetige Größen – vorausgesetzt, die Auflösung ist fein genug und quantisiert die Streuung nicht weg.
Messsystem & Datenqualität
Ein gutes Messsystem macht Analysen möglich, ein schwaches macht sie bedeutungslos. Startpunkt ist die Auflösung: Als Faustregel sollte die Anzeige mindestens ein Zehntel der Toleranz abbilden, besser feiner. Sonst glättet die Skala die Streuung, und Cp/Cpk wirken blendend, ohne Substanz. Ebenso wichtig sind Wiederholbarkeit und Reproduzierbarkeit. Für stetige Merkmale zeigt eine Gage-R&R-Untersuchung, wie viel der beobachteten Varianz durch das Messsystem entsteht; für attributive Entscheidungen prüft eine Attribute-Agreement-Analyse Trefferraten, Fehlklassifikationen und die Übereinstimmung (zum Beispiel Kappa). Dazu kommen Bias, Linearität und Stabilität: Weicht das System systematisch von der Referenz ab? Bleibt der Bias über den Messbereich konstant? Driften Messwerte über die Zeit – etwa durch Temperatur, Verschleiß oder Software-Updates?
Informationsgehalt – was geht verloren, was bleibt?
Mit jeder Reduktion der Skala schrumpft der Informationsgehalt. Nominaldaten erlauben lediglich ein „gleich/ungleich“ und tragen deshalb am wenigsten bei; Ordinaldaten fügen eine Rangordnung hinzu, aber keine belastbaren Abstände. Erst Intervallskalen ermöglichen sinnvolle Differenzen, während Verhältnisskalen zusätzlich echte Verhältnisse zulassen. Praktisch bedeutet das: Aus kontinuierlichen Messwerten durch Grenzprüfung ein bloßes Pass/Fail zu machen, reduziert die Aussagekraft drastisch. Effekte, die in Messdaten klar sichtbar wären, verschwinden in Attributdaten im Rauschen – mit der Folge, dass für dieselbe Zielgenauigkeit deutlich größere Stichproben nötig werden. Umgekehrt gewinnt man durch bessere Messauflösung real mehr Information: Aus stufigen Anzeigen wird wieder eine brauchbar stetige Skala; Modelle stabilisieren sich, Fähigkeitszahlen werden belastbarer, Regelkarten senden weniger Fehlalarme. Wer Analysen plant, sollte deshalb bewusst entscheiden, auf welcher Skalenhöhe er arbeiten will – und wenn möglich messen statt nur klassifizieren.
Fazit
Die wichtigste statistische Entscheidung passiert vor der Methode: Welche Daten habe ich – und wie sind sie entstanden? Wer sauber zwischen nominal, ordinal, intervall und verhältnis unterscheidet, Zählen von Messen trennt, den Informationsgehalt bewusst nutzt, Zeitabhängigkeiten erkennt und sein Messsystem prüft, entscheidet schneller und belastbarer.
Weitere Inhalte
Kennst Du schon LeanHospital?
-
Robuste Unternehmen oder Handelskriege
-
Blicke in die Zukunft
-
Demokratische Dispute oder populistische Hetze
Weitere Inhalte auf LeanPublishing

Über Kennzahlenmanie: Ihre Daten sind wahrscheinlich falsch!
„Das Wesentliche ist für die Augen unsichtbar“, heißt es in „Der kleine Prinz“ von Antoine de Saint-Exupéry. Das gleiche lässt sich auch über Big Data und Analysetools sagen. Im Datenfieber …

Statistische Versuchsplanung (DoE): Du kannst nicht verbessern, was du nicht kontrollierst
Es war ein klassischer Fall aus dem Unternehmensalltag: Ein Kunde wandte sich an mich, weil die Ergebnisse seiner Datenauswertung einfach keinen Sinn ergaben. „Können Sie mal drüberschauen?“ …

Was steckt in meinen Daten? – Über Datenarten, Informationsgehalt und die Tücken der Stichprobengröße
Nicht alle Daten sind gleich. Und nicht jede Auswertung erzählt eine zuverlässige Geschichte – besonders dann, wenn wir uns über die Grundlagen nicht im Klaren sind. Wer Daten analysieren will, …

#JanineFragtNach bei Conny Dethloff
#JanineFragtNach bei Conny Dethloff, Business Intelligence Division Manager bei der OTTO GmbH & Co. KG und außerdem schreibender Mathematiker und Organisationsforscher.







Kommentare
Bisher hat niemand einen Kommentar hinterlassen.
Kommentar schreiben
Melde Dich an, um einen Kommentar zu hinterlassen.
Teilen