Stochastik
in der Schule


Gauss 3D

Kurzfassungen
9. Jahrgang 1989

 

Heft 1

H. G. Schönwald Wieviel Formalismus ist didaktisch sinnvoll?
5-9
H. G. Schönwald Über die Frage, warum nach einer '6' beim Würfeln die anderen Augenzahlen nicht wahrscheinlicher fallen werden
10-13
A. M. Sykes Wahrscheinlichkeit im Einheitsquadrat
14-23
R. M. Lynch Vom Mittelwert zur Varianz: Eine Betrachtung zur Fehlerfortpflanzung
24-27
F. Lopez-Real Die Statistik des sicheren Reisens
28-32
J. Zawojewski, J. Nowakowski und R. F. Boruch Romeo und Julia: Schicksal, Zufall oder freier Wille?
33-40
A. Müller Parameterfreie Verfahren zur Beurteilung von zwei abhängigen Stichproben im Unterricht
41-54
Heft 2

T. Shilgalis Kumulative Verteilungsfunktionen
3-9
S. Goodchild Zum Schülerverständnis von Mittelwerten
10-17
I. Cook Schätzen des Medians bei gruppierten Daten
18-21
I. H. W. Grant Rekursionen zur Methode der kleinsten Quadrate
26-30
J. Kowszun Zugang zur linearen Regression mit Mikrocomputern über Verteilungstafeln
31-39
K. Sandrock Ein häufiger Patzer bei einfacher linearer Regressionsanalyse
40-47
Heft 3 Schwerpunkt: 'Explorative Datenanalyse'

M. Borovcnik Eine Einführung in die explorative Datenanalyse
5-20
G. Nordmeier 'Erstfrühling' und 'Aprilwetter' - Projekte in der explorativen Datenanalyse
21-42
L. Glickman Warum man historische Notizen in den Stochastik-Unterricht einbauen sollte
43-46
J. K. Brewer Analogien und Parabeln im Statistik-Unterricht
47-49
O. D. Anderson Ist alles normalverteilt?
50-53

Heft 1
H. G. Schönwald: Wieviel Formalismus ist didaktisch sinnvoll?
Macht eine Vereinfachung die mitzuteilende Idee noch deutlich? Paßt die formale Darstellung einer Sache im Bewußtsein der Schüler zum Inhalt? Schüler sollen den Sinn einer Sache immer im Auge behalten. Der Autor gibt Beispiele für vernünftigen Einsatz von Formalismus.

H. G. Schönwald: Über die Frage, warum nach einer '6' beim Würfeln die anderen Augenzahlen nicht wahrscheinlicher fallen werden
Fehlvorstellungen sind auch emotional verhaftet, weshalb ein rationales Argument allein nicht hilft. Nach Meinung des Autors muß es intuitionsnah ausgemalt sein. Er illustriert seine Haltung mit Überlegungen, wie Wahrscheinlichkeiten und relative Häufigkeiten zusammenhängen.

A. M. Sykes: Wahrscheinlichkeit im Einheitsquadrat
Die Vielfalt von Zufallsvariablen und der damit zusammenhängenden Begriffe wie Dichtefunktion, Verteilungsfunktion etc. verwirrt. Der Autor schlägt daher Zufallsgrößen auf dem Einheitsquadrat vor, die geometrisch interpretierbar sind. Die Verteilungsfunktion bestimmt man dann durch Auffinden von bestimmten Teilmengen im Einheitsquadrat, die Dichtefunktion ergibt sich als Ableitung der Verteilungsfunktion.

R. M. Lynch: Vom Mittelwert zur Varianz: Eine Betrachtung zur Fehlerfortpflanzung
Die Varianz wird als mittlere quadratische Abweichung vom Mittelwert eingeführt. Zur leichteren Berechnung aber verwendet man eine andere Darstellung, nämlich als mittleres Quadrat minus Quadrat des Mittelwerts. Algebraisch sind die Formeln äquivalent, sie reagieren jedoch ganz unterschiedlich auf Fehler. Betrachtet man nur einen Fehler im Mittelwert, so wird dieser wesentlich mehr verstärkt, wenn man die Formel zur leichteren Berechnung verwendet.

F. Lopez-Real: Die Statistik des sicheren Reisens
Sind Flugzeuge wirklich das sicherste Verkehrsmittel? Wie soll man die Sicherheit eines Verkehrsmittels erfassen? Der Autor zeigt durch Verwendung mehrerer Kennziffern, daß die unterschiedlichsten Ansichten mit gutem Grund vertreten werden können.

J. Zawojewski, J. Nowakowski und R. F. Boruch: Romeo und Julia: Schicksal, Zufall oder freier Wille?
Die Verkettung des Handlungsablaufes in Shakespeares Drama kann in einem Baumdiagramm dargestellt werden. Je nach Zusammenfassung der Wahlmöglichkeiten und deren Interpretation als Schicksal, Zufall oder freier Wille kann man unterschiedliche Wahrscheinlichkeiten annehmen und gelangt so zu einer Wahrscheinlichkeit für den gesamten Ablauf. Man kann eine philosophische Diskussion über Schicksal oder Zufall anschließen. Die berechneten Wahrscheinlichkeiten machen klar, daß der Ablauf auch als zufallsbestimmt gedeutet werden kann.

A. Müller: Parameterfreie Verfahren zur Beurteilung von zwei abhängigen Stichproben im Unterricht
Zwei 'Behandlungen' werden dabei am selben Objekt durchgeführt. Zu prüfen ist die Hypothese, ob die Behandlungen gleichwertig sind. Beachtet man nur das Vorzeichen der Differenz, so hat man den Vorzeichentest, reiht man die Beträge der Differenzen nach Rängen, so kommt den negativen und den positiven Differenzen je eine Rangsumme zu, die mit dem Wilcoxon-Vorzeichen-Rang-Test beurteilt werden kann. Wird die Summe der Differenzen genommen, so ist man beim exakten Test von Fisher. Neben der Darstellung der Verfahren werden auch methodologische Hinweise gegeben. Das konkrete Beispiel ist mit Schülern bearbeitet worden.

Heft 2
T. Shilgalis: Kumulative Verteilungsfunktionen
Verteilungsfunktionen sind kompliziert, sie stellen eine Summenfunktion bzw. eine Integralfunktion dar. Der Autor wertet aus Computersimulationen die empirische Verteilungsfunktion aus und vergleicht diese graphisch mit der theoretischen Verteilungsfunktion. Dazu muß er die verschiedensten Verteilungen wie auch die Exponentialverteilung simulieren können. Er bietet die Programme dazu an.

S. Goodchild: Zum Schülerverständnis von Mittelwerten
Der Autor berichtet von einer Studie über das, was 13- bis 14jährige Schüler äußern, wenn sie dem Begriff 'Mittelwert' in einer alltäglichen Situation begegnen. Während die Schüler den Mittelwert berechnen können, ist ihr inhaltliches Verständnis davon sehr gering. Insbesondere werden die Schwankungen des Mittelwerts bei Summation über mehrere Datensätze hinweg einfach addiert. Nach Ansicht der Autoren sollte man im Unterricht Aufgaben einbauen, in denen man eine unbekannte Datenserie aufgrund von Parametern wie dem Mittelwert einschätzen muß.

I. Cook: Schätzen des Medians bei gruppierten Daten
Bei gruppierten Daten funktioniert die gewöhnliche Berechnung des Medians als Wert mit dem Rang (n+1)/2 nicht. Das wird gezeigt, anschließend wird die richtige Formel abgeleitet.

N. R. Farnum: Eine Kurzformel zur Berechnung der mittleren absoluten Abweichung
Der Autor beweist eine Kurzformel für den Mittelwert der absoluten Abweichungen. Sie erlaubt die Berechnung mit wesentlich weniger Operationen. Er verweist darauf, daß z.B. in der Lagerhaltung die mittlere absolute Abweichung häufig der Varianz vorgezogen wird.

I. H. W. Grant: Rekursionen zur Methode der kleinsten Quadrate
Die Berechnung der Parameter der Regressionsgeraden kann mitunter aufwendig werden. Der Autor gibt einen rekursiven Zugang, der erlaubt, aus der bekannten Regressionsgeraden bei n Punkten die neue Lage der Geraden auszurechnen, wenn ein weiterer Datenpunkt hinzukommt. In der Praxis kann das erheblich Zeit sparen, wenn man mehrdimensionale Probleme behandelt.

J. Kowszun: Zugang zur linearen Regression mit Mikrocomputern über Verteilungstafeln
Der Autor beschreibt einige Übungen mit Spreadsheets. Trägt die erste Spalte die Daten, so kann man z.B. in der zweiten die absoluten oder quadrierten Abweichungen von einem Bezugspunkt eintragen und den Bezugspunkt variieren lassen. So erfährt man interaktiv, welcher Wert diese Spalte minimiert. Wiederholt man diese Übung mit zwei Datenspalten x und y und einer Spalte mx+c mit Parametern m und c, so kann man die Abweichungen der Spalten y und mx+c in eine weitere Spalte eintragen lassen. Wieder kann man mit den Werten von m und c spielen, bis man möglichst geringe Abweichungssummen erhält. Von diesen Erfahrungen ausgehend versucht der Autor dann systematisch auf die Formeln für die Regressionsparameter hinzuarbeiten.

K. Sandrock: Ein häufiger Patzer bei einfacher linearer Regressionsanalyse
Hat man ausreichend Daten, so kann man die Voraussetzungen des linearen Modells, insbesondere auch die Linearität des Zusammenhangs anhand der Residuen überprüfen. Sind wenige Daten vorhanden, so bleibt es dem Gespür des Statistikers über, Abweichungen vom Modell zu erkennen. Der Autor diskutiert ein Beispiel, in dem die Kosten einer Produktion vordergründig bestens linear von der Temperatur des Prozesses abhängen, der Korrelationskoeffizient beträgt -0.977. Betrachtet man allerdings die Serie von Differenzenquotienten von Kostenabnahme und Temperaturzunahme, so zeigt sich ein Trend. Letztlich kann man erkennen, daß man bis dato nur Daten aus dem abfallenden Bereich einer Parabel abgedeckt hat. Trotz des hohen Korrelationskoeffizienten ist ein lineares Modell also völlig unpassend.

Heft 3: Schwerpunkt 'Explorative Datenanalyse'
M. Borovcnik: Eine Einführung in die explorative Datenanalyse
Die üblichen Techniken der Explorativen Datenanalyse (EDA) werden anhand von Fallstudien dargestellt. Diese Bindung von Techniken an den Kontext ermöglicht gleichzeitig, eine ganz wesentliche Eigenheit der EDA zu vermitteln. Ihr eigentlicher Sinn besteht nämlich nicht in neuen oder anderen Techniken zur Darstellung von Daten sondern in einer innovativen Art, mit Situationen umzugehen. Die Analyse von Daten erfolgt nämlich interaktiv, nie vollständig getrennt vom Umfeld der Daten.

G. Nordmeier: 'Erstfrühling' und 'Aprilwetter' - Projekte in der explorativen Datenanalyse
An Unterrichtsbeispielen mit Klimadaten wird gezeigt, daß sich Begriffe, Diagrammformen und Methoden der Explorativen Datenanalyse besonders gut für eine sachangemessene und zugleich schülergerechte statistische Auswertung mit anschließender Interpretation eignen. Der Aufsatz enthält Vorschläge für einen fächerübergreifenden Unterricht im 9. und 10. Jahrgang.

L. Glickman: Warum man historische Notizen in den Stochastik-Unterricht einbauen sollte
Aus der Geschichte der Ideen kann man nach Meinung des Autors sehr viel lernen. Er stellt das Problem von de Méré in dieser Sicht dar.

J. K. Brewer: Analogien und Parabeln im Statistik-Unterricht
Begriffe, die schwierig zu verstehen sind, kann man mitunter durch einen bildhaften Vergleich mit vertrauteren Situationen erläutern. Der Autor gibt einige solcher Parabeln zum Testen von Hypothesen.

O. D. Anderson: Ist alles normalverteilt?
Während die Verteilung von beobachteten Variablen oft doch recht deutlich von der Normalverteilung abweicht, ist letztere meist für Mittelwerte in guter Näherung adäquat. Dies wird in der Beurteilenden Statistik etwa für die Berechnung von Vertrauensintervallen ausgenützt.