|
Stochastik in der Schule |
|
Kurzfassungen 9. Jahrgang 1989 |
|
Macht eine Vereinfachung die mitzuteilende
Idee noch deutlich? Paßt die formale Darstellung einer Sache im Bewußtsein der
Schüler zum Inhalt? Schüler sollen den Sinn einer Sache immer im Auge behalten.
Der Autor gibt Beispiele für vernünftigen Einsatz von Formalismus.
Fehlvorstellungen sind auch emotional
verhaftet, weshalb ein rationales Argument allein nicht hilft. Nach Meinung des
Autors muß es intuitionsnah ausgemalt sein. Er illustriert seine Haltung mit
Überlegungen, wie Wahrscheinlichkeiten und relative Häufigkeiten
zusammenhängen.
A. M. Sykes:
Wahrscheinlichkeit im Einheitsquadrat
Die Vielfalt von Zufallsvariablen und der
damit zusammenhängenden Begriffe wie Dichtefunktion, Verteilungsfunktion etc.
verwirrt. Der Autor schlägt daher Zufallsgrößen auf dem Einheitsquadrat vor,
die geometrisch interpretierbar sind. Die Verteilungsfunktion bestimmt man dann
durch Auffinden von bestimmten Teilmengen im Einheitsquadrat, die
Dichtefunktion ergibt sich als Ableitung der Verteilungsfunktion.
R. M. Lynch: Vom
Mittelwert zur Varianz: Eine Betrachtung zur Fehlerfortpflanzung
Die Varianz wird als mittlere quadratische
Abweichung vom Mittelwert eingeführt. Zur leichteren Berechnung aber verwendet
man eine andere Darstellung, nämlich als mittleres Quadrat minus Quadrat des
Mittelwerts. Algebraisch sind die Formeln äquivalent, sie reagieren jedoch ganz
unterschiedlich auf Fehler. Betrachtet man nur einen Fehler im Mittelwert, so
wird dieser wesentlich mehr verstärkt, wenn man die Formel zur leichteren
Berechnung verwendet.
F. Lopez-Real: Die
Statistik des sicheren Reisens
Sind Flugzeuge wirklich das sicherste
Verkehrsmittel? Wie soll man die Sicherheit eines Verkehrsmittels erfassen? Der
Autor zeigt durch Verwendung mehrerer Kennziffern, daß die unterschiedlichsten
Ansichten mit gutem Grund vertreten werden können.
J. Zawojewski, J. Nowakowski und R. F. Boruch: Romeo und Julia: Schicksal, Zufall oder freier
Wille?
Die Verkettung des Handlungsablaufes in
Shakespeares Drama kann in einem Baumdiagramm dargestellt werden. Je nach
Zusammenfassung der Wahlmöglichkeiten und deren Interpretation als Schicksal,
Zufall oder freier Wille kann man unterschiedliche Wahrscheinlichkeiten
annehmen und gelangt so zu einer Wahrscheinlichkeit für den gesamten Ablauf.
Man kann eine philosophische Diskussion über Schicksal oder Zufall anschließen.
Die berechneten Wahrscheinlichkeiten machen klar, daß der Ablauf auch als
zufallsbestimmt gedeutet werden kann.
Zwei 'Behandlungen' werden dabei am selben
Objekt durchgeführt. Zu prüfen ist die Hypothese, ob die Behandlungen gleichwertig
sind. Beachtet man nur das Vorzeichen der Differenz, so hat man den
Vorzeichentest, reiht man die Beträge der Differenzen nach Rängen, so kommt den
negativen und den positiven Differenzen je eine Rangsumme zu, die mit dem
Wilcoxon-Vorzeichen-Rang-Test beurteilt werden kann. Wird die Summe der
Differenzen genommen, so ist man beim exakten Test von Fisher. Neben der
Darstellung der Verfahren werden auch methodologische Hinweise gegeben. Das
konkrete Beispiel ist mit Schülern bearbeitet worden.
T. Shilgalis: Kumulative
Verteilungsfunktionen
Verteilungsfunktionen sind kompliziert,
sie stellen eine Summenfunktion bzw. eine Integralfunktion dar. Der Autor
wertet aus Computersimulationen die empirische Verteilungsfunktion aus und
vergleicht diese graphisch mit der theoretischen Verteilungsfunktion. Dazu muß
er die verschiedensten Verteilungen wie auch die Exponentialverteilung
simulieren können. Er bietet die Programme dazu an.
S. Goodchild: Zum
Schülerverständnis von Mittelwerten
Der Autor berichtet von einer Studie über
das, was 13- bis 14jährige Schüler äußern, wenn sie dem Begriff 'Mittelwert' in
einer alltäglichen Situation begegnen. Während die Schüler den Mittelwert
berechnen können, ist ihr inhaltliches Verständnis davon sehr gering. Insbesondere
werden die Schwankungen des Mittelwerts bei Summation über mehrere Datensätze
hinweg einfach addiert. Nach Ansicht der Autoren sollte man im Unterricht
Aufgaben einbauen, in denen man eine unbekannte Datenserie aufgrund von
Parametern wie dem Mittelwert einschätzen muß.
I. Cook: Schätzen des
Medians bei gruppierten Daten
Bei gruppierten Daten funktioniert die
gewöhnliche Berechnung des Medians als Wert mit dem Rang (n+1)/2 nicht. Das wird
gezeigt, anschließend wird die richtige Formel abgeleitet.
N. R. Farnum: Eine Kurzformel zur
Berechnung der mittleren absoluten Abweichung
Der Autor beweist eine Kurzformel für den
Mittelwert der absoluten Abweichungen. Sie erlaubt die Berechnung mit
wesentlich weniger Operationen. Er verweist darauf, daß z.B. in der
Lagerhaltung die mittlere absolute Abweichung häufig der Varianz vorgezogen
wird.
I. H. W. Grant: Rekursionen zur Methode der kleinsten
Quadrate
Die Berechnung der Parameter der
Regressionsgeraden kann mitunter aufwendig werden. Der Autor gibt einen
rekursiven Zugang, der erlaubt, aus der bekannten Regressionsgeraden bei n
Punkten die neue Lage der Geraden auszurechnen, wenn ein weiterer Datenpunkt
hinzukommt. In der Praxis kann das erheblich Zeit sparen, wenn man
mehrdimensionale Probleme behandelt.
J. Kowszun: Zugang zur
linearen Regression mit Mikrocomputern über Verteilungstafeln
Der Autor beschreibt einige Übungen mit
Spreadsheets. Trägt die erste Spalte die Daten, so kann man z.B. in der zweiten
die absoluten oder quadrierten Abweichungen von einem Bezugspunkt eintragen und
den Bezugspunkt variieren lassen. So erfährt man interaktiv, welcher Wert diese
Spalte minimiert. Wiederholt man diese Übung mit zwei Datenspalten x und y und
einer Spalte mx+c mit Parametern m und c, so kann man die Abweichungen der
Spalten y und mx+c in eine weitere Spalte eintragen lassen. Wieder kann man mit
den Werten von m und c spielen, bis man möglichst geringe Abweichungssummen
erhält. Von diesen Erfahrungen ausgehend versucht der Autor dann systematisch
auf die Formeln für die Regressionsparameter hinzuarbeiten.
K. Sandrock: Ein
häufiger Patzer bei einfacher linearer Regressionsanalyse
Hat man ausreichend Daten, so kann man die
Voraussetzungen des linearen Modells, insbesondere auch die Linearität des
Zusammenhangs anhand der Residuen überprüfen. Sind wenige Daten vorhanden, so
bleibt es dem Gespür des Statistikers über, Abweichungen vom Modell zu
erkennen. Der Autor diskutiert ein Beispiel, in dem die Kosten einer Produktion
vordergründig bestens linear von der Temperatur des Prozesses abhängen, der
Korrelationskoeffizient beträgt -0.977. Betrachtet man allerdings die Serie von
Differenzenquotienten von Kostenabnahme und Temperaturzunahme, so zeigt sich
ein Trend. Letztlich kann man erkennen, daß man bis dato nur Daten aus dem
abfallenden Bereich einer Parabel abgedeckt hat. Trotz des hohen
Korrelationskoeffizienten ist ein lineares Modell also völlig unpassend.
Heft 3: Schwerpunkt 'Explorative Datenanalyse'
M. Borovcnik: Eine
Einführung in die explorative Datenanalyse
Die üblichen Techniken der Explorativen
Datenanalyse (EDA) werden anhand von Fallstudien dargestellt. Diese Bindung von
Techniken an den Kontext ermöglicht gleichzeitig, eine ganz wesentliche
Eigenheit der EDA zu vermitteln. Ihr eigentlicher Sinn besteht nämlich nicht in
neuen oder anderen Techniken zur Darstellung von Daten sondern in einer
innovativen Art, mit Situationen umzugehen. Die Analyse von Daten erfolgt nämlich
interaktiv, nie vollständig getrennt vom Umfeld der Daten.
G. Nordmeier:
'Erstfrühling' und 'Aprilwetter' - Projekte in der explorativen Datenanalyse
An Unterrichtsbeispielen mit Klimadaten
wird gezeigt, daß sich Begriffe, Diagrammformen und Methoden der Explorativen
Datenanalyse besonders gut für eine sachangemessene und zugleich
schülergerechte statistische Auswertung mit anschließender Interpretation
eignen. Der Aufsatz enthält Vorschläge für einen fächerübergreifenden
Unterricht im 9. und 10. Jahrgang.
Aus der Geschichte der Ideen kann man nach
Meinung des Autors sehr viel lernen. Er stellt das Problem von de Méré in
dieser Sicht dar.
Begriffe, die schwierig zu verstehen sind,
kann man mitunter durch einen bildhaften Vergleich mit vertrauteren Situationen
erläutern. Der Autor gibt einige solcher Parabeln zum Testen von Hypothesen.
Während die Verteilung von beobachteten
Variablen oft doch recht deutlich von der Normalverteilung abweicht, ist
letztere meist für Mittelwerte in guter Näherung adäquat. Dies wird in der
Beurteilenden Statistik etwa für die Berechnung von Vertrauensintervallen
ausgenützt.