Was steckt in meinen Daten? – Über Datenarten, Informationsgehalt und die Tücken der Stichprobengröße

Was steckt in meinen Daten? – Über Datenarten, Informationsgehalt und die Tücken der Stichprobengröße

Nicht alle Daten sind gleich. Und nicht jede Auswertung erzählt eine zuverlässige Geschichte – besonders dann, wenn wir uns über die Grundlagen nicht im Klaren sind. Wer Daten analysieren will, sollte sich zuerst eine einfache, aber zentrale Frage stellen: Welche Art von Information liegt eigentlich vor – und wie viel sagt sie aus?

22. April 2025 um 04:30 Uhr von Daniel Fügner
  • 2


Die vier Datenarten – und was sie leisten können

In der Statistik unterscheiden wir vier zentrale Datenarten: nominal, ordinal, intervall- und verhältnisskaliert.

Nominale Daten sind reine Kategorien – etwa „i.O.“ / „n.i.O.“, Farben oder Produktvarianten. Sie lassen keine Reihenfolge zu und enthalten nur sehr begrenzte Information. Ordinale Daten wie Schulnoten oder Ranglisten erlauben zumindest eine Reihenfolge, aber die Abstände zwischen den Stufen sind nicht genau definiert.

Intervallskalierte Daten, zum Beispiel Temperatur in Celsius, ermöglichen die Interpretation von Abständen zwischen Werten. Doch ohne einen absoluten Nullpunkt sind Verhältnisaussagen – wie „doppelt so warm“ – nicht sinnvoll. Erst verhältnisskalierte Daten, wie Zeit, Gewicht oder Länge, erlauben das gesamte Spektrum statistischer Analysen, inklusive Mittelwerte, Streuungen und Verhältnisbildungen.

Bewertungssysteme – als ich plötzlich besser wurde

Wie sehr ein Bewertungssystem unsere Wahrnehmung beeinflusst, habe ich selbst in der Schule erlebt. In der 10. Klasse gab es klassische Noten: Eine „2“ deckte beispielsweise alles von 80 % bis 94 % ab – ein enormer Bereich. Als ich in die Oberstufe wechselte, änderte sich das System auf eine 15-Punkte-Skala: Für 85 % gab es nun 13 Punkte – was einer 1- entsprach. Bei einer Quote von 88 % bekam ich in der Sekundarstufe I also eine mittlere 2 und in der Sekundarstufe II eine 1-. Das zeigt sehr gut, wie Schulnoten Leistungen zwar ranken können – als Absolutmaß aber schwierig sind.

Informationsgehalt und Stichprobengröße – Qualität braucht Tiefe

Daten mit niedriger Informationsdichte – wie nominale Merkmale – benötigen oft große Stichproben, um statistisch belastbare Aussagen zu treffen. Ein „i.O.“ / „n.i.O.“ liefert pro Beobachtung nur ein Bit an Information. Will man Veränderungen im Prozess erkennen, braucht man viele solcher Datenpunkte, um ein klares Bild zu bekommen.

Bei verhältnisskalierten Daten ist das anders. Man stelle sich eine Produktionslinie vor, bei der der Ausschuss bislang nur als „unter 2 %“ oder „über 2 %“ dokumentiert wurde. Die Daten wirken stabil. Doch sobald man die exakten Ausschussprozente aufzeichnet, zeigt sich ein kontinuierlicher Anstieg von 0,8 % auf 1,9 %. Formell ist noch alles „im Rahmen“ – faktisch steht man am Rande einer kritischen Entwicklung. Eine feinere Skala offenbart, was grobe Klassifizierungen verstecken.

Fazit: Verstehen, was Daten wirklich sagen

Daten sind nicht gleichbedeutend mit Erkenntnis. Erst wenn wir ihre Struktur und ihren Informationsgehalt verstehen, können wir sinnvolle Schlüsse ziehen. Wer seine Daten richtig einordnet, wählt die passenden Analysemethoden, spart Zeit und Ressourcen – und erkennt Veränderungen, bevor sie zur Krise werden.

Denn am Ende entscheidet nicht nur, wie viele Daten wir haben – sondern vor allem, wie viel sie uns sagen.

 

 



Kommentare

Bisher hat niemand einen Kommentar hinterlassen.

Kommentar schreiben

Melde Dich an, um einen Kommentar zu hinterlassen.

Teilen

Weitere Inhalte

LeanHospital
LeanHospital

Krankenhäuser bauen keine Autos - oder warum Patienten auf kein Fließband passen!