| ||
Stochastik |
Band 12 (1992) |
|
Hans Schupp: Rezension von 'Wolfgang Riemer: Stochastische Probleme aus Elementarer Sicht' |
||
Lehrbücher und Monographien zur Didaktik der Mathematik, Bd. 18, B.I. Wissenschaftsverlag, Mannheim 1991 |
Es ist wichtig, daß fachdidaktische Arbeiten nicht nur von professionellen Hochschuldidaktikern sondern auch von Kollegen an der pädagogischen Front publiziert werden. Einmal, weil jeder Lehrer, der seinen Unterricht plant und analysiert, fachdidaktisch agieren und reflektieren muß; zum andern, weil die fachdidaktische Forschung durch Einbringen von Erfahrungen und Überlegungen, die von Unterrichts- und Schülernähe geprägt sind, problemnah und praxisrelevant bleibt.
Glücklicherweise haben wir in Deutschland eine ganze Reihe von Kollegen aus der Schule, die seit Jahr und Tag die fachdidaktische Diskussion bereichern. Wolfgang Riemer gehört zu denjenigen unter ihnen, die in der letzten Zeit am meisten aufhorchen ließen. Seine Arbeiten zum Stochastikunterricht weisen eben jene Kombination aus Sensibilität für Probleme des Unterrichtsalltags, Fähigkeit zur Analyse der relevanten Faktoren, fachliche Kompetenz und Phantasie zur Entwicklung praktikabler Lehrsequenzen auf, die den "Schuldidaktiker" auszeichnet.
So schlägt man sein neuestes Buch mit großer Erwartung auf, ist zunächst enttäuscht, daß es nur eine Zusammenstellung jüngst erschienener Zeitschriftenartikel zu bieten scheint, merkt aber bald, daß es doch auch Erweiterungen und Vertiefungen enthält, und vor allem, daß diese Artikel (Kapitel) durch ein "geistiges Band" zusammengehalten werden, das ihre jeweilige Funktion klarer hervortreten läßt, als dies in den Einzelpublikationen geschehen konnte: durch den Versuch nämlich, "die ungenetische Trennung zwischen Wahrscheinlichkeitstheorie und Statistik zu überwinden" (S. 11), indem man "genuin statistische Gedankengänge schon von den ersten Unterrichtsstunden an zu einem Bestandteil des Stochastikunterrichts" (S. 12) macht.
In Kapitel 1 wird gezeigt, wie schon beim Aufbau eines tragfähigen (d.h. prognostischen und hypothetischen) Wahrscheinlichkeitskonzepts neben der Aufnahme stochastischer Primärintuitionen auch die Konfrontation mit realen Daten unverzichtbar ist.
Der Autor hat dabei insbesondere mit den von ihm konstruierten und vertriebenen partiell symmetrischen Objekten (s. Riemer 1988) gearbeitet. In der Literatur (s. z.B. Walter 1975 oder Steinbring 1985) liegen aber auch genügend Belege dafür vor, daß das notwendige Wechselspiel zwischen hypothetischen Wahrscheinlichkeiten und konkreten relativen Häufigkeiten sich auch an klassischen Materialien vollziehen kann, wenn man die Schüler nur genügend kritisch gegenüber Erstannahmen (z.B. Gleich- oder Binomialverteilung) macht.
Kapitel 2 beschäftigt sich mit dem Abwägen zwischen Alternativhypothesen und führt dazu die Bayes'sche Methode der sofortigen und fortgesetzten Auswertung neuer Daten (Lernen durch Erfahrung) ein. Dieser Abschnitt hat mich von Absicht und Praktikabilität her sehr überzeugt, während die nachfolgende Einführung des Entropiebegriffs für eine Frühphase doch zu schwierig erscheint (wie soll das Maß Σ p(i)log2(1/p(i)) verstanden und plausibel gemacht werden?) und auch keine wesentlich neuen Einsichten bringt: Daß beim Erkunden eines Urneninhalts das Ziehen mit Zurücklegen Information verschenkt, ist auch intuitiv klar.
Die Kapitel 3 und 4 bringen den Vergleich zwischen einem Datensatz und einer Hypothese (Chi-Quadrat-Anpassungstest) bzw. zwischen zwei Datensätzen (Chi-Quadrat-Unabhängigkeitstest). Der Verfasser sieht hier (m.E. zu Recht) eine Grenze der Bayes'schen Vorgehensweise gegeben. Wichtig aber wird nun die fundamentale Idee des Simulierens und ihre Realisierung auf dem Computer. Sein (alle Kapitel durchziehender) Einsatz ist für mich ein Musterbeispiel für die anzustrebende selbstverständliche Inanspruchnahme dieses mächtigen Werkzeugs beim Verfolgen originärer Ziele des Mathematikunterrichts. So wird es möglich, die für einen anwendungsorientierten Mathematikunterricht recht wichtigen beiden Tests auch schon in der SI zu behandeln. Das gilt natürlich nicht mehr für die (geschickten) Herleitungen des Grenzverhaltens der jeweiligen Testgrößen über deren vektorielle Deutung und Visualisierung als Irrfahrten.
In Kapitel 5 werden die gewonnenen Einsichten auf die Riemer'schen Körper angewendet. Dabei zeigt sich, daß die Versuchsbedingungen (wie wird geworfen?) eine erhebliche Rolle spielen. Daß sich à la longue in jedem Falle eine Boltzmann-Verteilung einstellt, kann wohl nur mitgeteilt werden.
Kapitel 6 enthält eine heuristische Begründung des Zentralen Grenzwertsatzes. Sie geschieht über Rekursionsgleichungen für Zufallsgrößensummen, die in eine Differentialgleichung für die Normalverteilung münden.
Die Kapitel 7 und 8 übertragen diese Methode auf eindimensionale Irrfahrten, wodurch einmal der Anpassungstest erneut begründet werden kann und andererseits die Arcsin-Verteilung beim zeitlichen Vergleich gleichguter Konkurrenten erreichbar wird. Der Autor schreibt: "So werden elementare Wege zu recht anspruchsvollen Themen gebahnt, die über bloße Computersimulationen hinausgehen." Das Wort "elementar" erscheint auch im Buchtitel und ist möglicherweise irreführend, weil der Verfasser eine ungewöhnlich weitgehende Vorstellung damit verbindet. Im Gegenteil mutet er dem Leser allerhand zu. Auch dem, der das Gelesene einbringen möchte; denn daß "sich diese Ideen meist nur mit wenig Mühe im Unterricht, in Klausuraufgaben und in Projekte umsetzen lassen" (S. 5), halte ich für ausgeschlossen.
Für den Autor spricht allerdings, daß die aufgewiesenen Wege neu sind, daß sie in der Tat einfacher scheinen als bekannte Zugänge zur infinitesimalen Stochastik, daß sie vorzüglich dargestellt, exemplifiziert und kommentiert sind, und schließlich auch, daß theoretische Passagen in der Regel durch experimentell-simulative Aktivitäten vorbereitet werden. Diese ermöglichen die Behandlung aller vorgestellten Problemfelder auch dann, wenn an eine theoretische Behandlung nicht gedacht ist.
Wer mit dem Autor der Meinung ist, daß - zumindest in der Schule - Wahrscheinlichkeiten als Schätzwerte für relative Häufigkeiten in langen Versuchsserien aufgefaßt werden sollten, muß dies keineswegs als Mangel auffassen: der Computer kann solche Serien bei Bedarf schnell und ökonomisch herstellen und macht daher Schätzungen für praktische Zwecke überflüssig.
Kapitel 9 ist als Hintergrundinformation für den Lehrer gedacht: Mehrere Plausibilitätsargumente aus vorangegangenen Kapiteln werden mathematisch abgesichert.
Kapitel 10 stellt das Unterrichtsprojekt "Partnersuche" vor, in dem über einen Fragebogen Daten gesammelt und in eine Datenbank eingegeben werden. Sie bieten Gelegenheit, Grundbegriffe und -methoden der beschreibenden und auch der beurteilenden Statistik im größeren Kontext anzuwenden. Ob dieser glücklich gewählt wurde, sei dahingestellt; jedenfalls ist die Testgröße ('erotischer Abstand') einigermaßen fragwürdig und auch recht willkürlich definiert (worauf auch der Autor hinweist).
Riemer schreibt im Vorwort, daß alle vorgestellten Themen entweder im Unterricht beider Sekundarstufen oder in Seminaren behandelt wurden. In Kapitel 1 bezieht er - neben allgemeinen lernpsychologischen Bemerkungen - auch Schülerfragen und -reaktionen in seine Darstellung ein und läßt den Leser an deren Rolle für die Gestaltung des Unterrichts teilhaben (s. Eingangsbemerkung). Ab dann wird der Stil akademisch; Schüler kommen nicht mehr vor, auch nicht im Projektteil. Das bedaure ich.
Trotz dieser Einschränkungen: Ein lesenswertes, weil gründlich konzipiertes, klar geschriebenes und dabei originelles, innovatives und herausforderndes Buch.
Literatur
Prof. Dr. Hans Schupp
Stochastik in der Schule 12 (1992)1, 42-45 |
| ||
Stochastik |
Band 12 (1992) |
|
Hans-Dieter Sill: Rezension von 'Dieter Wickmann: Bayes-Statistik: Einsicht gewinnen und entscheiden bei Unsicherheit' |
||
BI-Wissenschaftsverlag, Mannheim 1990, 226 S. |
1. Vorbemerkungen
Die Entscheidung zur Übernahme dieser Rezension traf ich im Zustand ziemlicher Unsicherheit. Die seitdem gewonnenen Erkenntnisse haben mich darin bestärkt, daß im Stochastikunterricht die Bayes-Statistik nicht länger ignoriert werden kann. Sie haben weiterhin zur Bestätigung und Einordnung eigener Ansätze und Ideen beigetragen.
Die zur Verfügung stehende Zeit reichte allerdings nicht aus, um die relevante Literatur umfassend aufzuarbeiten. Die vorgenommenen Einschätzungen sind deshalb nur als Zwischenbericht eines Didaktikers aus den neuen Bundesländern zu verstehen, und vor allem aus der Sicht auf die aktuellen Aufgaben bei der Integration der Stochastik in die Lehrpläne entstanden.
2. Inhaltsüberblick
Das Buch ist in folgende sieben Kapitel und einen Anhang gegliedert (in Klammer der jeweilige Umfang):
Der Anhang (63 S.) enthält didaktische Anmerkungen, Lösungen der Übungsaufgaben, Pascal-Programme, spezielle Werte von Verteilungsfunktionen sowie ein umfangreiches Literaturverzeichnis.
Ausgehend von 12 Situationen der Ungewißheit aus den verschiedensten Lebensbereichen führt der Autor im Kapitel 1 den Leser an grundlegende Begriffe und Denkweisen der Bayes-Theorie heran. Nach einer kurzen Diskussion objektivistischer und subjektivistischer Wahrscheinlichkeitsauffassungen bringt der Autor seinen Standpunkt bei der Erklärung des Wahrscheinlichkeitsbegriffes im 2. Kapitel zum Ausdruck, indem er den Vergleich von Wahrscheinlichkeiten durch den Vergleich von Wetten definiert. Als Standardmaß gilt der Anteil weißer Kugeln in einer Urne.
Im Kapitel 2 und 3 werden einige Elemente eines üblichen Wahrscheinlichkeitskurses in knapper Form behandelt, "nicht nur, um einen vollständigen Kurs vorzulegen, sondern auch, um ihren Stellenwert im Gesamtkonzept deutlich werden zu lassen".
Im Kapitel 4 erarbeitet der Verfasser am Beispiel eines Urnenexperimentes in sehr ausführlicher und verständlicher Weise das prinzipielle Vorgehen bei der Anwendung des Bayesschen Theorems, mit dem eine Priori-Verteilung durch die Kenntnis von Beobachtungsdaten zu einer Posteriori-Verteilung verändert werden kann.
Mit zwei aus der Literatur bekannten Beispielen, dem Einsatz eines medizinischen Testes zur Diagnose einer seltenen Krankheit sowie einem Indizienurteil bei einem realen Mordfall (Schrage), wird die praktische Relevanz der Bayesschen Betrachtungsweise verdeutlicht.
Die Bayes-Analyse wird im Kapitel 5 durch das Bayessche Prinzip vervollständigt, das die Auswahl der Handlung mit maximaler Gewinnerwartung bei gegebener Gewinnfunktion beinhaltet. Damit kann in der Bayes-Statistik zwischen "Einsicht gewinnen" und "Entscheiden" differenziert werden.
Im Hauptkapitel 6 der Arbeit erweitert der Autor zunächst die Bayessche Methodik auf den Fall einer stetigen Welt θ, die er dann im weiteren ausschließlich betrachtet. Es ist zu begrüßen, daß der Autor alle wesentlichen mathematischen Inhalte, die zunehmend anspruchsvoller werden, stets ausgehend von ausführlich diskutierten, meist praxisbezogenen Problemstellungen behandelt. Dies trägt zur Erhöhung der Lesbarkeit des Buches und zum besseren Verständnis des prinzipiellen Vorgehens im Rahmen der Bayes-Statistik bei.
Am Beispiel der Beta-Verteilung (der zur Binomialverteilung konjugierten Verteilung) wird als Analogon zum Konfidenzintervall der klassischen (objektivistischen) Statistik der Gamma-Bereich höchster Dichte definiert, in dem ein unbekannter Parameter θ aufgrund eines Stichprobenergebnisses mit der Wahrscheinlichkeit Gamma liegt.
Nach der Herleitung des Grenzwertsatzes von de Moivre und Laplace sowie des Gesetzes der großen Zahlen setzt sich der Autor erneut mit einem rein frequentistischen Wahrscheinlichkeitsbegriff auseinander und bringt eine interessante Deutung des Bernoullischen Gesetzes.
Das abschließend diskutierte Beispiel eines dreigeteilten Glücksrads zeigt, wie mathematisch anspruchsvoll die Bewältigung mehrdimensionaler Probleme ist aber auch wie überraschend und einfach die Endresultate sein können. Ein schönes Beispiel für die Leistungsfähigkeit der Bayesschen Methode ist das in Ergänzung zu einer Lösung auf S. 193 entwickelte Verfahren zum Test eines Würfels in wenigen (n=30) Versuchen.
Im abschließenden 7. Kapitel des Buches setzt sich Wickmann aus Sicht des subjektivistischen Standpunktes prinzipiell mit der klassischen (objektivistischen) Methodik der beurteilenden Statistik auseinander und stellt in komprimierter Weise grundlegende Einwände gegen diese Vorgehensweise zusammen.
3. Stellungnahme zu ausgewählten Problemen
Da es sich bei dem Buch von Wickmann nicht um ein "normales" Stochastiklehrbuch schlechthin handelt, sondern um eine Kampfansage an ganze Legionen von Stochastikbüchern, sei es mir gestattet, daß ich mich in meinen Bemerkungen auf grundsätzliche Fragen beschränke.
Die Bedeutung und Stärke des Buches sehe ich in der geschlossenen, verständlichen und konsequenten Darstellung des subjektivistischen Zuganges zur Stochastik und seiner deutlichen Abgrenzung von der sogenannten "klassischen" Methodik. Diese Stärke des Buches scheint mir aber auch gleichzeitig seine Schwäche zu sein. Man findet lediglich Ansätze ausgewogener wissenschaftstheoretischer Betrachtungen wie sie z.B. von Steinbring (1984) oder Borovcnik (1988) in sehr tiefgehender Weise vorgenommen wurden.
Es ist, meiner Meinung nach, weder historisch noch wissenschaftstheoretisch zu erwarten, daß sich eine der beiden gegensätzlichen Auffassungen von der Natur des Wahrscheinlichkeitsbegriffes als die "richtige" durchsetzen wird. Auch wenn sich beide Standpunkte weitgehend logisch ausschließen, sind sie sowohl in der Realität als auch im Bewußtsein der Menschen nicht voneinander zu trennen.
Von der Bayes-Statistik geht der Reiz aus, dem man sich nach Hineindenken in das prinzipielle Herangehen kaum entziehen kann, damit eine Methodik zu besitzen, die dem eigentlichen Erkenntnisgang in empirischen Wissenschaften weit besser entspricht, als die klassische Statistik. Ich kann jedoch Wickmann nicht folgen, wenn er daraus den Schluß ableitet, letztere gänzlich zu verwerfen. Abgesehen davon, daß sich dies praktisch wohl kaum realisieren ließe, reichen die von ihm angeführten Argumente und Beispiele nicht aus, um die Notwendigkeit eines Abgehens von den klassischen Schätz- und Prüfverfahren zu erkennen. Die genannten Kritikpunkte bewegen sich weitgehend auf der begrifflichen und methodologischen Ebene.
Der wesentliche Zugang zu dem umstrittenen Verhältnis scheint mir jedoch in einer Analyse der praktischen Konsequenzen der beiden Methodiken, also ihrer Anwendungen, zu bestehen. Keine der beiden Methodiken kann m.E. für sich den Anspruch erheben, universell einsetzbar zu sein. Anhand der Beispiele in Wickmanns Buch läßt sich lediglich vermuten, wann ein Bayes-Ansatz günstiger ist. Es wäre im Sinne des Anliegens des Autors zu begrüßen gewesen, wenn der Leser Informationen über die Anwendungsgebiete der Bayes-Statistik erhalten hätte, wenn auf Probleme und Nachteile, aber auch entscheidende Vorzüge einer Bayes-Analyse aus praktischer Sicht näher eingegangen worden wäre.
Das Buch ist im Vergleich mit mathematischen Fachbüchern durch seine gute stoffdidaktische Aufbereitung relativ leicht, im Vergleich mit fachdidaktischer Literatur jedoch nicht einfach zu bewältigen. Auch wenn sich der Autor insbesondere in den ersten Kapiteln um Beispiele und Erklärungen bemüht, die in der Schule verwendbar sind, bleibt der größte Teil der Probleme, die sich bei einer Einführung der Bayes-Statistik in den Unterricht und einer damit verbundenen Veränderung der Konzeption eines Stochastikcurriculums ergeben, außerhalb der Diskussion.
4. Schlußbemerkungen
Das Buch ist von seiner Anlage her geeignet, bereits Lehrerstudenten bei entsprechenden Begleitveranstaltungen einen Einblick in die Bayessche Statistik zu geben, ohne daß sie vorher die mathematische Statistik im klassischen Sinne studiert haben müssen. Es ist als eine gelungene Fortsetzung der Anregungen von Dinges zu werten, die Bayessche Regel entsprechend ihrer Bedeutung und den Ansprüchen in der Lehrerausbildung darzustellen. Seinen besonderen Wert hat es aber für den Didaktiker und den unterrichtenden Lehrer, die es zwingt, gewohnte Denk- und Betrachtungsweisen kritisch zu prüfen, tiefer zu verstehen, anzureichern und zu revidieren.
Der bereitgestellte mathematische Apparat, insbesondere die im Anhang enthaltenen sehr nützlichen Pascal-Programme erlauben es, die angeschnittenen Problemkreise durch Variation der Daten und Bedingungen selbst weiter zu erforschen sowie bekannte Aufgaben auf eine andere Art zu lösen.
5. Literatur
Prof. Dr. Hans-Dieter Sill
Stochastik in der Schule 12 (1992)1, 46-50 |
| ||
Stochastik |
Band 12 (1992) |
|
Walter Krämer: Rezension von 'Hans Riedwyl: Zahlenlotto: Wie man mehr gewinnt' |
||
Paul Haupt, Bern und Stuttgart 1990 |
Glücksspiele sind schon immer eine wichtige Triebfeder der Wahrscheinlichkeitstheorie gewesen. Diesen Antrieb mag man ob seiner Frivolität bedauern oder nicht, fest steht: es ist nun einmal so. Seit Gerolamo Cardanos „Liber de ludo aleae“, oder seit der notorische Chevalier de Méré vor über 300 Jahren seinen Bekannten Blaise Pascal um Aufklärung über bestimmte Wahrscheinlichkeiten bei Würfelspielen bat und damit der modernen Wahrscheinlichkeitstheorie zur Geburt verhalf, über das berühmte "St.-Petersburg-Paradox" von Daniel Bernoulli bis hin zur modernen Martingal-Theorie: Glücksspiele haben seit jeher zum Nachdenken über Wesen und Wirken des Zufalls angeregt und damit quasi nebenbei und ohne Absicht so manchen "homo ludens" zum "homo sapiens" gemacht.
Das vorliegende Buch von Hans Riedwyl über Zahlenlotto kann in dieser Tradition gesehen werden. Es führt ohne Jargon, und ohne Vorkenntnisse irgendeiner Art vorauszusetzen, sehr einfühlsam in das Berechnen von Wahrscheinlichkeiten ein. Die Ausführungen im Kap. 5: "Wie groß ist die Gewinnchance?" betreffend die möglichen Ergebnisse beim Ziehen ohne Zurücklegen z.B. können jedem Didaktiker ein Vorbild sein. So klar und auch für hartnäckige Anti-Mathematiker gut verständlich habe ich noch nirgendwo die Anzahl der Möglichkeiten beim Ziehen ohne Zurücklegen erklärt gesehen.
Der größte Teil des Buches ist allerdings der Psychologie und Mechanik des Lottospielens selbst gewidmet, und zwar der Variante "6 aus 45", wie sie in der Schweiz und Österreich zu Hause ist. Mechanik, weil vom Ausfüllen des Lottoscheins bis zur Ziehungsprozedur jeder Schritt des Lottospielens ausführlich erläutert wird (das wird die Lottogesellschaft freuen).
Psychologie, weil Riedwyl in einem enormen empirischen Parforce-Ritt sämtliche Lottoscheine einer bestimmten Ziehung (der 6. Ziehung 1990 in der Schweiz, mit mehr als 16 Millionen Tips) ausgewertet und die erstaunlichsten Tip-Muster ans Licht gefördert hat! So wäre etwa jede der rund 8 Millionen Zahlenkombinationen, die beim Lotto "6 aus 45" möglich sind, bei gleichmäßiger Verteilung der 16 Millionen Tips zweimal wählbar gewesen. In Wahrheit wurden aber ein Drittel der möglichen Kombinationen von überhaupt niemandem, andere Kombinationen wie Diagonalen und sonstige Muster dagegen von mehr als 20.000 Spielern angekreuzt! Diese extreme Ungleichverteilung der gewählten Kombinationen ist das wichtigste empirische Ergebnis dieses Buches.
Die Lehre daraus ist, daß man beim Lotto nicht nur gegen den Zufall, sondern in erster Linie gegen alle anderen Lottospieler spielt. Das Ziel ist weniger, zu gewinnen, als vielmehr, wenn man denn gewonnen hat, den Gewinn mit möglichst wenigen zu teilen, d.h. Zahlenkombinationen anzukreuzen, die niemand anderer benutzt.
Vielleicht ist es
vermessen zu erwarten, daß dieser Umstand bei den Lesern des
Buches ein Interesse an Mehrpersonen-Nullsummenspielen weckt; aber
auch ohne dergleichen Exkursionen bietet das Buch von Riedwyl Anstöße
genug. Es läßt sich im Unterricht sehr schön zur
Appetitanregung auf weiterführende Verfahren der
Wahrscheinlichkeitsrechnung benutzen, und kann wegen seiner klaren
und unprätentiösen Sprache auch allen Laien, die sich für
Lotto interessieren, sehr empfohlen werden.
Prof. Dr. Walter Krämer
Stochastik in der Schule 12 (1992)2, 54-55 |
| ||
Stochastik |
Band 13 (1993) |
|
Herbert Henning: Rezension von 'Hans Schupp, Gregor Berg und Heinz Dabrock: Programme für den Stochastik-Unterricht' |
||
Dümmler, Bonn 1992, Disketten für MS-DOS-Rechner unter Turbo-Pascal ab 4.0 |
Die Autoren legen als Ergebnis eines mehrjährigen Forschungsprojektes ein Programmpaket für den experimentierenden und simulierenden Stochastikunterricht in der S I und S II vor. Das Programmpaket besteht aus 12 themenzentrierten Programmgruppen u.a. zu den Themen: Beschreibende Statistik, Kombinatorik, Simulation von Zufallsexperimenten, Verteilungen, Zufallszahlen, Testen, Schätzen, Markov-Ketten, Regression und Korrelation.
Mit diesen Programmen haben Lehrer "Werkzeuge" zur Verfügung, die auf sehr anschauliche und wirkungsvolle Art (Grafik, schneller Zugriff zu großen Datenmengen, Simulation ermöglicht schnelle und variable Zufallsexperimente) den Unterricht bereichern können. Als Lehrer- und Schülersoftware gleichermaßen geeignet, kann mit Hilfe des Programmpakets ein experimenteller, entdeckender Stochastikunterricht in S I und S II durchgeführt werden. Die Schüler werden im selbständigen Umgang mit den Programmen für zufallsbedingte Erscheinungen sensibilisiert, sie erleben (durch den genetischen Aufbau der Programme als Komplex von Einstiegs-, Basis- und Fortsetzungsprogrammen) sehr anschaulich z.B. stochastische Begriffsbildungen.
Besonderer Vorzug dieses Programmpakets ist dessen Erweiterungsfähigkeit und die Möglichkeit der Modifizierung (u.a. durch die Angabe der Quelltexte). Das Lehrerhandbuch ist eine vorzügliche Anleitung für den unterrichtlichen Einsatz der Programme einerseits, und andererseits auch für das selbständige Erarbeiten weiterer Programme durch den Lehrer. Die Tatsache, daß keinerlei Programmierkenntnisse vorausgesetzt werden, macht das Programmpaket besonders nutzerfreundlich und für den "normalen" Lehrer attraktiv.
Alle Programme in Turbo Pascal (ab 4.0) werden als Quelltext vorgelegt, sie sind mit allen Grafikkarten verträglich. Reichhaltige Units erlauben eine verständliche Programmierung, die benutzerfreundliche Oberfläche erleichtert den Einsatz im Unterricht. Technische Hinweise zu PRO STO werden im Lehrerhandbuch ausführlich gegeben (S. 32-37), zu jeder Programmgruppe gibt es ausführliche didaktische und fachwissenschaftliche Literaturhinweise, eine wertvolle Hilfe für den Lehrer, die Programme in sein Unterrichtskonzept einzuarbeiten. Wie auch die sehr praktikabel formulierten Anregungen für den Einsatz der Programme im Unterricht.
Die kurze, knappe Darstellung des Inhalts macht das Handbuch zu einem relativ leichtverständlichen Exkurs zu Problemen eines computerunterstützten, experimentellen Stochastikunterrichts in allgemeinbildenden Schulen.
Prof. Dr. Herbert Henning
Die Zielgruppe des
vorliegenden Werks sind Lehrer und Schüler. Wer nun allerdings
erwartet hat, "nur" eine Aufgabenplantage im üblichen
Stil der Aufgabensammlungen zum schriftlichen Abitur vorzufinden,
sieht sich angenehm überrascht. Ein Großteil der Aufgaben
ist in dem Sinne aufbereitet, daß nicht nur Lösungen
angegeben werden, sondern daß auch ihre Qualität im Sinne
der besonderen Anforderungen einer mündlichen Prüfung
erläutert wird.
Dazu werden im ersten
Teil des Buches erst einmal die Besonderheiten des mündlichen
Abiturs dargestellt und hieraus Konsequenzen für die
Aufgabenstellung abgeleitet. Dies betrifft beispielsweise die
Berücksichtigung des zeitlichen Verlaufs, woraus sich zum einen
ergibt, was sinnvollerweise nicht abzuprüfen ist, zum anderen
aber auch, inwiefern die dem Prüfling schriftlich vorgelegte
Aufgabenstellung Anknüpfungspunkte für das weitere
Prüfungsgespräch enthalten muß. Zudem erläutern
die Autoren zahlreiche Möglichkeiten der Aufgabengestaltung mit
Hilfe von Overheadfolien.
Daß das "Wie"
eines Vortrags eine beträchtliche Rolle spielt, haben Schüler
möglicherweise im Unterricht selten konkret erlebt. Hier geben
die Autoren beherzigenswerte Ratschläge, wie Verhalten
verbessert werden kann. Als sehr hilfreich erweist es sich, wenn
Schüler Gelegenheit bekommen, sich von außen zu
beobachten. Aber auch mancher Lehrer ist sich vielleicht nicht immer
über seine Wirkung im klaren. Hierzu sind Simulationen von
mündlichen Prüfungen mit Video sinnvoll, zumal, wenn die
Videobetrachtungen mit den "richtigen Fragen" dazu
einhergehen, wenn man sie also geeignet entschlüsselt, wofür
die Autoren in dankenswerter Ausführlichkeit Anregungen geben,
und zwar sowohl für den Schüler (S. 29-30) als auch für
den Lehrer (S. 30-31). Da ein solcher Umgang mit Video ungewohnt sein
wird, ist der Abdruck eines vollständigen Transkriptes einer
Prüfung mit Interpretationsanleitung sehr wertvoll.
Der Beurteilung von
Prüfungsleistungen wird der Abschnitt 1.3 gewidmet. Es werden
häufig vorkommende Fehler geschildert; eine umfangreiche Liste
sinnvoller Bewertungskriterien schließt sich an.
Etwa 2/3 vom
Gesamtumfang des Buches bildet eine Sammlung von mündlichen
Abituraufgaben. Zunächst werden 15 Aufgaben (davon 1/3 aus der
Stochastik) mit Lösungen vorgestellt, wobei diese Aufgaben
sowohl Anregungen für das ergänzende Prüfungsgespräch
enthalten als auch "Anmerkungen" zur Qualität der
Aufgabenstellung und in denen z.T. diese Kriterien (noch einmal)
akzentuiert werden: Die Aufgaben sollen "kaum" Rechnung
enthalten, aber "Überblick, selbständiges Denken und
die Fähigkeit zur verständlichen Darstellung mathematischer
Sachverhalte verlangen" (S. 82). Insbesondere bei
Stochastikaufgaben liegen die typischen Anforderungen im "Auffinden
und Erläutern geeigneter Modelle" und "meistens nicht
im rechnerischen Teil" (S. 72).
Nun enthält diese
Sammlung in Abschnitt 2.1 viel Lobenswertes: Neben den gängigen
Erläuterungen von Begriffen und Verfahren wird beispielsweise in
der Analysis - statt des üblichen Weges von der
Funktionsgleichung zum Graphen - der umgekehrte Weg eingeschlagen.
Die Geometrieaufgaben beinhalten zwar nur die üblichen Schnitt-
und Lageprobleme, aber das ist wohl die gemeinsame Schnittmenge der
Geometrieunterrichtsveranstaltungen. Die Fähigkeit zum
Modellbilden (d.h. hier die begründete Auswahl des "richtigen"
Standardmodells) wird leider nur in den (mir recht gelungen
erscheinenden) Stochastikaufgaben angesprochen. Als Kritikpunkt
mancher Aufgaben dieses Abschnitts ist anzumerken, daß sie auch
zur mehrfachen Ableitung von Funktionen der Art Polynom mal
Exponentialfunktion und ähnlichen Fertigkeiten auffordern, die
mit mathematischer Einsicht nicht unbedingt viel zu tun haben müssen.
Da der dritte Teil einer mündlichen Prüfung ein Themengebiet zum Inhalt haben
sollte, das von der vorgelegten Aufgabenstellung verschieden ist,
werden auch hierfür 6 Beispiele (davon wieder 1/3 aus der
Stochastik) in aufbereiteter Form geliefert. Allerdings ist es
problematisch, wenn die Autoren auch hier das Abfragen gelernter
Kalküle u.U. sogar propagieren: "Bei leistungsschwächeren
Prüflingen ist es eventuell zweckmäßig, (noch) mehr
Rechnungen konkret durchführen zu lassen" (S. 105). Ist es
nicht ehrlicher (wenn auch unpopulärer), einem Schüler, der
zwar (wie ein entsprechendes Programm) formal richtig ableiten kann,
aber gar nicht weiß, was eine Ableitung ist, eben dies auch
durch eine entsprechend schlechte Note zu bescheinigen?
Für das Training der Schüler sind vor allem 43 weitere gelöste Aufgaben
gedacht (ein knappes Fünftel aus der Stochastik). Deshalb
enthalten sie auch Andeutungen, wie sich das vertiefende
Prüfungsgespräch entwickeln könnte.
Insgesamt kann man den Autoren durchaus bescheinigen, daß sie mit ihrem Buch einen
Beitrag zur Handlungskompetenz der Lehrer geleistet haben. Und auch
die Schüler als zweite Zielgruppe dürften es für ihr
Training als hilfreich empfinden.
Jörg Meyer
1. Inhaltsüberblick
Beim Lesen des
instruktiven Vorwortes werden hohe Erwartungen an den Band 10 dieser
Reihe geweckt, der vier Jahre nach dem Band 9 und ein Jahr nach Band
18 erschien. M. Borovcnik berührt einen weiten Kreis
philosophischer, erkenntnistheoretischer, psychologischer und
didaktischer Fragen und beleuchtet so den komplizierten Hintergrund
des Stochastikunterrichts in vielfältiger Weise.
Die Monographie enthält
folgende 5 Kapitel:
Im Kapitel 1 spannt der
Autor zur Einordnung seiner Betrachtungsweise den Bogen bis zu
Problemen von Gegenstand und Strukturen der Mathematikdidaktik. Er
versucht, in knapper Weise drei unterschiedliche Strömungen mit
dem Modell einer Dreierbeziehung aus Theorie, Realität und
Subjekt einheitlich zu beschreiben und in Beziehung zu setzen. Damit
bereichert er die "didaktische Dreieckslehre" um ein
weiteres Konstrukt, das sich bei aller Problematik, auf die noch
eingegangen werden soll, an vielen Stellen im Buch als nützliches
Verständigungsmittel erweist.
In den weiteren Abschnitten des ersten Kapitels entfaltet M. Borovcnik bereits fast
das ganze Spektrum seiner Ideen. In reduzierter, oft nur thesenhafter
Form werden wesentliche Gedanken und Ergebnisse geäußert,
die in den folgenden Kapiteln meist viel ausführlicher
aufbereitet und begründet werden. Eine Ausnahme bildet in dieser
Hinsicht der Abschnitt zur Geschichte stochastischer Ideen und ihrer
Mathematisierung. Borovcnik versteht es, einen guten, kurzgefaßten
Überblick über die Geschichte der Stochastik zu geben und
dabei wesentliche Knotenpunkte der Theoriegeschichte
herauszuarbeiten.
Überzeugend verdeutlicht der Autor am Beispiel des einfachen Münzwurfes und
an weiteren Beispielen, daß in der Stochastik Intuitionen und
Theorie in einem besonders widersprüchlichen und komplizierten
Verhältnis stehen. Die originären graphischen Darstellungen
lassen die Vielschichtigkeit und Verschwommenheit der Gedanken und
Beziehungen erahnen, sind aber für sich schwer durchschaubar und
so wenig hilfreich.
Im 2. Kapitel zeigt der Autor ausführlich, welche Intuitionen mit den Begriffen
Wahrscheinlichkeit, zufällige Auswahl, Erwartungswert und
Streuung verbunden sind. Dabei werden eine Reihe bemerkenswerter
Zugänge zu diesen Begriffen entwickelt, die in dieser Art noch
nicht oder selten in der fachdidaktischen bzw. der Schulbuchliteratur
zu finden sind. Insbesondere die Auseinandersetzung mit dem
traditionellen und in fast allen Schulbüchern praktizierten Weg
zum Finden des Zusammenhangs von Wahrscheinlichkeit und relativer
Häufigkeit durch das Verdeutlichen des "Stabilwerdens "
der relativen Häufigkeit sollte jeden zum Umdenken veranlassen.
Der Vorschlag von M. Borovcnik, der auf eine Idee von Freudenthal
zurückgeht, scheint mir den intuitiven Vorstellungen und
erforderlichen Interpretationen weit besser zu entsprechen.
Interessant und lesenswert sind ebenfalls die wissenschaftstheoretischen Analysen zum
Problem der Repräsentativität einer Stichprobe. Sie zeigen
m.E., daß historische Betrachtungen im Unterricht für das
Verständnis fundamentaler Ideen möglicherweise sehr
wirkungsvoll sind.
Das Kapitel 3 ist der Widerspiegelung intuitiver Vorstellungen durch die Bayes-Statistik
gewidmet. Der Verfasser begründet und entwickelt ausführlich
das von ihm schon in früheren Publikationen vorgeschlagene
"Begünstigen-Konzept" und das Arbeiten mit
Chancenverhältnissen. An einer Vielzahl gründlich
diskutierter Beispiele wird gezeigt, wie mit dieser Methodik das
Bayessche Denken in Informationen besonders einleuchtend gemacht und
Hemmnisse, etwa im Verständnis von Symmetrie, fehlender
Transitivität und Fallunterscheidung, überwunden werden
können. Mehrfach stellt der Autor die Komplementarität
Bayesscher Betrachtungen zur klassischen Statistik heraus, die durch
die Arbeit mit umgekehrten Baumdiagrammen auch visuell erkennbar
wird. Auf das Bayessche Prinzip wird nicht eingegangen.
Im 4. Kapitel setzt sich M. Borovcnik kritisch mit der Methodik und den Ergebnissen oft
referierter psychologischer Untersuchungen zu stochastischen
Primärintuitionen auseinander. Er zeigt die Grenzen und die
Fragwürdigkeit der Forschungsresultate auf, die letztlich auch
ein Spiegelbild der theoretischen und intuitiven Vorstellungen der
Forscher sind. Wichtig scheint mir u.a. der Hinweis auf den Konflikt
zwischen Reflexionen und Handlungen zu sein. Es ist ein Unterschied,
ob über Bewertungen von Möglichkeiten reflektiert wird oder
ob der Proband sich für eine konkrete Handlung entscheiden soll,
wofür etwa im Fall der Gleichwahrscheinlichkeit weitere
Strategien herangezogen werden müssen.
Eine interessante interpretative Leistung stellen die Ausführungen im 5. Kapitel
zum Vergleich von klassischer und Bayesscher Bearbeitung von
Anwendungsproblemen dar. Unter Verwendung bekannter mathematischer
Zusammenhänge wird an einschlägigen Beispielen
(Teilungsproblem, 3-Urnen-Problem von Riemer, Diagnosetest) sowie
typischen statistischen Fragestellungen (Schätzen von
Wahrscheinlichkeiten und Mittelwerten, Angabe von
Vertrauensintervallen sowie Testen von Hypothesen) in dieser
prägnanten Form meines Wissens erstmalig eine umfassende Analyse
der relevanten methodologischen Probleme vorgenommen.
Besonders interessant ist die Diskussion einer Rekonstruktion der klassischen Methoden
durch Bayes-Methoden. Dabei wird zunächst formal der
Bayes-Ansatz als eine Erweiterung des klassischen Vorgehens aufgefaßt
und eine a priori-Verteilung errechnet, die in der Bayes-Statistik
numerisch die gleichen Ergebnisse liefert, wie das klassische
Verfahren.
Trotz der meist nur stichpunktartigen und beispielhaften Referierung der mathematischen
Beziehungen, werden die inhaltlichen Unterschiede der beiden Methoden
überzeugend herausgearbeitet. Insbesondere wird durch diesen
formalen mathematischen Vergleich noch einmal sehr deutlich, daß
die Bayes-Methoden bedeutend besser geeignet sind, die eigentlich
interessierenden Fragestellungen der Beurteilenden Statistik zu
bearbeiten.
Die klassische Testmethodik nach Neyman und Pearson ist genuin mit zahlreichen
Unzulänglichkeiten und Interpretationsschwierigkeiten behaftet,
die eine Anwendung lediglich im Fall einer möglichen hinreichend
häufigen Wiederholung des Testes unter gleichen Bedingungen
sinnvoll macht. Es können zudem vom Ansatz her nur Aussagen über
künftige Ereignisse getroffen werden. Bayes-Methoden erlauben
dagegen einen Rückblick auf die konkret vorliegende Situation,
sie gestatten Wahrscheinlichkeitsaussagen über die Richtigkeit
der untersuchten Hypothesen bzw. über die Wahrscheinlichkeit von
Irrtümern.
2. Gedanken zu einigen Problemen
Bei der Fülle der Probleme, die Borovcnik anreißt und der oft zugespitzten Art
der Formulierungen, bleibt es nicht aus, daß einiges zum
Widerspruch herausfordert. Die breite Anlage der Monographie erlaubt
es ihm zudem nicht, alles in der erforderlichen Gründlichkeit zu
bearbeiten.
Trotz vieler Anregungen für den Schul- und Hochschulunterricht, die das Buch bietet,
bleiben die meisten didaktischen Fragen unbeantwortet. Es ist der
Phantasie des Lesers überlassen, zu erahnen, was man in der
Schule anders machen müßte und seiner realistischen
Einschätzung, was davon machbar ist.
Insbesondere bleibt die Frage offen, welche Konsequenzen sich für Ziele und Inhalte des
Stochastikunterrichts aus der dargestellten Situation ergeben, die
von Wickmann (1990), Riemer (1991) und jüngst recht drastisch
auch von Diepgen (1992) in ähnlicher Weise charakterisiert wird.
Wenn aus wissenschaftstheoretischer Sicht die Inadäquatheit der
klassischen Methoden in der Beurteilenden Statistik so klar
hervortritt, ist ihre Behandlung im Unterricht nicht mehr zu
rechtfertigen. Eine zusätzliche Aufnahme der Bayes-Statistik in
den Unterricht und ihre Gegenüberstellung mit den in der Praxis
ja immer noch dominierenden klassischen Methoden scheint mir
inhaltlich und zeitlich nicht machbar zu sein.
Es bleibt nur übrig, entweder angesichts des Dilemmas in der Wissenschaft Statistik auf
eine explizite Behandlung von Methoden der Beurteilenden Statistik
ganz zu verzichten, oder aber die Bayes-Statistik für die Schule
aufzubereiten. Dazu wären jedoch noch erhebliche Anstrengungen
erforderlich. Weder die Monographien von Riemer und Wickmann noch die
vorliegende Arbeit liefern z.B. einen realistischen und
abgeschlossenen stoffdidaktischen Ansatz, von empirischen
Untersuchungen zur Umsetzung möglicher Konzepte ganz zu
schweigen.
Die für mich wichtigste Erkenntnis nach Lesen des Buches ist eine neue Sicht auf
das Verhältnis objektivistischer und subjektivistischer
Betrachtungsweisen, die zu einer Korrektur meiner erst jüngst
dargelegten Auffassungen führt (Sill 1992). Während ich
bisher die Bayes-Statistik als eine zwar wichtige, aber substantiell
nicht notwendige Ergänzung ansah und im Prinzip
subjektivistische Wahrscheinlichkeiten auf subjektive Schätzungen
objektiver Wahrscheinlichkeiten reduzierte, glaube ich heute, daß
zwei Arten von Wahrscheinlichkeiten existieren, die unterschiedliche
und z.T. einander ausschließende Eigenschaften haben.
Der Begriff der objektiven Wahrscheinlichkeit spiegelt eine (physikalische)
Eigenschaft eines realen Prozesses wider, nämlich objektives Maß
für die mögliche Verwirklichung eines Ergebnisses dieses
Prozesses bei Vorliegen eines bestimmten Bedingungsgefüges zu
sein. Mit der subjektiven Wahrscheinlichkeit wird eine Eigenschaft
eines subjektiven Erkenntnisprozesses erfaßt. Sie ist Maß
für die Sicherheit (Wahrheit) einer Aussage, die ein Subjekt auf
der Grundlage ihm vorhandener Informationen über ein bereits
eingetretenes, aber unbekanntes Ergebnis eines zufälligen
Vorgangs trifft. Eine Verabsolutierung eines der Aspekte führt
zur objektivistischen bzw. subjektivistischen
Wahrscheinlichkeitstheorie.
Es ergibt sich die berechtigte Frage, ob für zwei verschiedene Dinge nicht auch
unterschiedliche Bezeichnungen einzuführen wären, wie ja
auch für den Begriff der Unabhängigkeit im Fall subjektiver
Wahrscheinlichkeiten der Terminus Austauschbarkeit (exchangeability)
üblich ist. Mir scheint jedoch der Zusatz der entsprechenden
Adjektive ausreichend zu sein.
Nicht verständlich ist mir die mehrfach geäußerte Bemerkung, daß in der
Explorativen Datenanalyse (EDA) von der Zufälligkeit der Daten
abgesehen und nur nach Mustern im Datensatz gesucht wird. Gemeint
kann nur sein, daß die Daten nicht aus einer Zufallsstichprobe
stammen müssen und so nicht der Anspruch auf Repräsentativität
besteht. Trotzdem sind die Daten aber Ergebnis zufälliger
Prozesse und mit der "Mustererkennung" wird letztlich das
Ziel verfolgt, stochastische Zusammenhänge aufzudecken, die dann
bei Bedarf mit genaueren statistischen Verfahren weiter untersucht
werden können.
3. Abschließende Bemerkungen
Das Buch reiht sich ein in die aktuelle Diskussion von Grundlagenfragen einer Didaktik der
Stochastik. Es werden die bisher in der Literatur verstreuten
Auffassungen des Autors zusammengetragen, strukturiert und durch eine
Fülle neuer Gedanken angereichert.
Die Hauptleistung sehe ich in der in den Kapiteln 4 und 5 vorgenommenen kritischen Analyse
psychologischer Untersuchungen und fachwissenschaftlicher Methoden.
Die gewählte Methode der Analyse von Sachverhalten unter
komplementären Aspekten halte ich für sehr fruchtbar. Es
wird deutlich, daß gerade das Wechselverhältnis von
Intuitionen und theoretischen Konstrukten grundlegend für
Lernprozesse in der Stochastik ist. Viele Probleme in der Akzeptanz
der Stochastik bei Lehrern und im Verständnis wichtiger Begriffe
und Denkweisen bei Schülern liegen m.E. in der unzureichenden
Beachtung intuitiver Vorstellungen im Unterricht.
Trotz einiger langatmiger und weitschweifiger Passagen sowie häufiger
Wiederholungen gleicher Gedanken ist das Buch gut lesbar. Ich hätte
mir gewünscht, daß neben den inhaltlichen Orientierungen
zu Beginn eines jeden Abschnittes auch eine Einordnung der folgenden
Ausführungen in den gegenwärtigen Stand der
wissenschaftlichen Entwicklung erfolgt wäre.
Die Monographie eignet sich nicht primär als Einstieg in die Stochastik als didaktische
oder als mathematische Disziplin, aber sie sollte ein entscheidender
Anstoß aller mit dem gegenwärtigen Zustand unzufriedener
Vertreter beider Disziplinen sein, eine Neuorientierung in Forschung,
Lehre und Unterricht vorzunehmen. Sie kann Grundlage für ein
ganzes Forschungsprogramm werden.
4. Literatur
Prof. Dr. Hans-Dieter Sill
Herbert Kütting
legt nach seiner Monographie "Didaktik der Stochastik" nun
ein neues Buch zu einem für den Mathematikunterricht der SI und
SII wichtigen Inhaltsbereich vor, der Bedeutung auch (und gerade)
neben einem eigentlichen Stochastikunterricht hat.
In dieser, mit einer
Fülle von sorgfältig ausgewählten Beispielen
angereicherten Monographie werden Sachkenntnisse zum Arbeiten mit
statistischen Daten, die in unterschiedlichen Formen (Tabellen,
Grafiken) gegeben sind, vermittelt. Dabei geht es auch um das
kritische Argumentieren zum Umgang mit statistischen Daten,
Manipulationsmöglichkeiten bei der Datenaufbereitung,
auftretende Fehler und Konsequenzen als Fehl- und
Falschinterpretationen von Daten und Statistiken.
Die Beispiele wurden vor
allem außermathematischen Sachgebieten entnommen. An diesem
reichhaltigen Beispielmaterial werden auch im Kapitel III und IV die
mathematischen Grundlagen (Begriffe, Verfahren, Methoden)
abgehandelt. Dadurch wird für den "alltäglichen"
Mathematikunterricht die Anwendbarkeit der Begriffe und Methoden der
beschreibenden Statistik aufgezeigt. In den 7 Kapiteln werden, immer
unter didaktischen Aspekten betrachtet, Inhalte eines
"Statistikunterrichts“ abgehandelt:
Die Erarbeitung der Begriffe und Methoden der beschreibenden Statistik erfolgt
beispielbezogen, stets unter fächerübergreifendem Aspekt.
Interessant dabei ist, daß jede sachbezogene Interpretation der
Daten eine sehr intensive Auseinandersetzung mit den Sachgebieten
notwendig macht. Dadurch wird z.B. ein wichtiger Beitrag zur
politischen und sozialen Bildung geleistet.
Eine Fülle von Anregungen für den Unterricht liefert das Kapitel VII. Fehler
und Manipulationsmöglichkeiten. Angereichert mit
Originalbeispielen aus dem Alltag (es werden u.a. sehr illustrative
Ausrisse aus Printmedien verwendet) werden Fehler und
Manipulationsmöglichkeiten im Umgang mit Daten (Fehler bei der
Erhebung, Aufbereitung und Interpretation) nicht nur aufgezeigt, H.
Kütting kommentiert das vielfältige Beispielmaterial immer
mit Blick auf Ursachen und Wirkungen dieser Fehler und zeigt
relevante Möglichkeiten, wie Fehler und Fehlinterpretationen
vermieden bzw. beseitigt werden können. Das Buch wendet sich
gleichermaßen an Lehrer und Studenten mit dem Fach Mathematik
aller Schulstufen und ist insbesondere für eine systematische
Lehrerfortbildung gut geeignet.
Gerade für Studenten liefern die Kapitel III. Grundbegriffe der Statistik sowie
V. Statistische Meßzahlen und VI. Lineare Regression und
Korrelation eine exzellente Grundlage für das wissenschaftliche
Studium der (bezogen auf den Unterricht vor allem in der SII)
beschreibenden Statistik als Teilgebiet der Stochastik mit einem
durchaus hohen mathematischen Anspruch.
Der Autor verzichtet auf die Möglichkeiten der Darstellung statistischer Zusammenhänge
(z.B. Lineare Regression) und bei der Behandlung von grafischen
Darstellungen auf Erörterungen zum Einsatz z.B. grafikfähiger
Taschenrechner. Vertiefende Aussagen auch zur Explorativen
Datenanalyse wären wünschenswert gewesen. Die Hinweise zur
praktischen Unterrichtsgestaltung qualifizieren die Monographie als
methodische Hilfe für den Lehrer.
Eine umfassende Bibliographie zum Themenkreis vervollständigt dieses leicht
verständliche und gut lesbare Buch, das den Stochastikunterricht
weiterbefördern wird.
Prof. Dr. Herbert Henning – Dr. Brigitte Leneke
Aufgabensammlung, die dem Lehrer helfen will, einen anspruchsvollen und abwechslungsreichen
Unterricht zu gestalten. Neben den Aufgaben sind Anregungen für
den Unterricht kapitelweise eingegliedert.
Die Aufgaben, geordnet nach thematischen Gesichtspunkten, sind alle mit ausführlichen,
erklärenden Lösungen versehen und können zur gezielten
Vorbereitung und Einübung von Einzelaspekten bis hin zur
Abiturvorbereitung und zur Erstellung von Prüfungsaufgaben
verwendet werden.
Die Unterrichtsausarbeitungen bringen Anregungen zur Methodik, stellen
einzelne Probleme, auch schwierige aus der Stochastik, für den
Einzelgebrauch verständlich dar, bieten Themen, Arbeitsaufträge
und Literatur für Facharbeiten und Referate sowie Fragen zum
täglichen Unterricht, zur Colloquiumsprüfung und zur
mündlichen Abiturprüfung und geben einen Einblick in die
praktische Anwendung der Stochastik. "Schmankerln" aus der
Stochastik würzen dieses Fachgebiet.
Die im Herbst 1994 erschienene Ergänzung 17 enthält Schulaufgaben zur
Stochastik sowie Fragen und Antworten für mündliche
Abfragen im Unterricht in multiple-choice-Form. Diese Tests sind so
angeordnet, daß sie seitenweise kopiert werden können. In
dem Kapitel "Schmankerln" ist ein Beitrag zum
kopernikanischen Prinzip für zukünftige Entwicklungen zu
finden. Aus realistischen Aufgaben werden hier interessante
Schlußfolgerungen bis hin zur "Beantwortung" der
Frage, ob es intelligente Lebewesen außerhalb der Erde gibt,
gezogen.
Die im Frühjahr erschienene 16. Ergänzungslieferung zum Abonnement enthält
Aufgaben und Lösungen zu Markov-Ketten mit drei Zuständen
und Stochastikaufgaben auf Abiturniveau. Ferner wird ein neues
Zufallsgerät vorgestellt, das Zufallslineal, mit dem viele
zufällige Vorgänge mit geringem Zeitaufwand simuliert
werden können.
Durch den breit gefächerten Inhalt und regelmäßige neue Ergänzungen
wächst diese Sammlung im Laufe der Zeit zu einem Nachschlagwerk
für Lehrer über die gesamte Stochastik an.
Die Erstlieferung des Grundwerks besteht aus einem Sammelordner, ca. 310 Seiten Aufgaben
mit Lösungen und Unterrichtsmaterialien sowie einem Register und
kostet ca. 30 DM. Weitere Anfragen bei StD A. Müller,
Falkeneggstr. 21, 96450 Coburg. Hier können Sie auch Aufgaben
und Unterrichtstexte für die Veröffentlichung in dieser
Loseblattsammlung loswerden.
Gerhard König
Einer Zeitungsmeldung zufolge gaben die Bundesbürger im "Lotto-Rekordjahr"
1994 im Durchschnitt rund 160 DM für ihre Spielleidenschaft aus.
Von den rund 13 Milliarden Mark, die insgesamt eingesetzt wurden,
entfiel der größte Batzen, nämlich knapp 8 Milliarden
Mark, auf das Samstags-Lotto "6 aus 49". Bekanntermaßen
wird aber nur die Hälfte dieses Umsatzes wieder ausgeschüttet,
mit der anderen Hälfte werden Sport und Kultur gefördert
(jüngstes Beispiel: Lotto-Zuschuß zum Ankauf des
Dix-Gemäldes "Die Skatspieler").
"Die Leute spielen ohnedies" - so faßte ein Abgeordneter im
baden-württembergischen Landtag die heftige Diskussion um die
Einführung des Zahlenlottos im Jahre 1958 zusammen. Er kam mit
der Mehrheit des Parlaments zu der Erkenntnis, daß die
Einführung des Zahlenlottos zwar möglicherweise nicht
moralisch, auf jeden Fall aber zweckmäßig sei.
Dieser Einschätzung kann man aus heutiger Sicht sicher nur zustimmen.
Wie es aber nun anstellen, daß man als Lottospieler möglichst große
Chancen auf Teile der in die Ausschüttung gelangenden Hälfte
hat? Hierzu gibt uns Karl Bosch im letzten Teil seines Werkes auf
rund 100 Seiten Auskunft.
Zwei (für den Laien möglicherweise überraschende) Sachverhalte werden eingangs
klargestellt:
Erstens: keine Tipreihe ist vom Zufall bevorzugt oder benachteiligt. So ist beispielsweise
die Wahrscheinlichkeit, mit der die Reihe 1;2;3;4;5;6 als Ergebnis
einer Samstagsziehung auftritt, also nicht geringer als die
irgendeiner anderen Reihe.
Zweitens: man muß bemüht sein, gegen die anderen Lottospieler zu tippen. Das
bedeutet, daß beliebte Tipreihen zu meiden sind. Wer möchte
schon gerne, wenn Fortuna einem sechs Richtige beschert hat, den für
diese Gewinnklasse vorgesehenen Ausschüttungsanteil mit andern
teilen? Niemand.
Der Autor hat knapp 7 Millionen zufällig ausgewählte, getippte Reihen eines
Spielsamstages des Jahres 1993 analysiert. Er stellt unter anderem
fest:
Zur Berechnung von solchen und anderen Anzahlen, die das Lottospiel oder andere Probleme
betreffen, bedarf es der Kombinatorik. Unter anderem hiervon handeln
die ersten rund 150 Seiten des vorliegenden Werkes, wie der folgende
Überblick des Buchinhaltes zeigt:
(Der Buchtitel steht also offenbar nur für einen Teil des Inhalts.)
Der Autor hat es sich laut Klappentext zum Ziel gemacht, Grundbegriffe aus der
Wahrscheinlichkeitsrechnung und Statistik, die auch sonst im
täglichen Leben oft benutzt werden, für jedermann möglichst
anschaulich und verständlich darzustellen.
Dieses Vorhaben ist gelungen: anhand eingängiger, klassischer Beispiele
(Gewinnchancen bei verschiedenen Glücksspielen, Ziegenproblem,
Geburtstagsproblem, Beispiele zur Mittelwertproblematik usw.) werden
stochastische Denk- und Vorgehensweisen vorgestellt sowie Irrwege
(Über die statistische Lüge, Glückspirale von 1971
usw.) im Problemkreis der Stochastik auch für den interessierten
Laien nachvollziehbar offengelegt.
Die Überlegungen zum Samstags-Lotto sind grundsätzlich nicht neu, aber
ausführlich und ansprechend dargeboten.
In seiner schlaglichtartigen Beleuchtung verschiedener Themengebiete mit dem
Ausgangspunkt von Alltagserfahrungen bzw. -geschehnissen ist das
vorliegende Werk als schmackhafte Einführungskost zur Stochastik
zu empfehlen.
StD Gerhard Brüstle
Nach dem neuen gymnasialen Bildungsplan von 1994 der Klassen 10 und 11 in
Baden-Württemberg sind in Klasse 10 zuerst die grundlegenden
Begriffe zu erarbeiten (hierbei wird auch von Glücksspielen die
Rede sein) und schließlich in Klasse 11 dann als ein wichtiges
Anwendungsgebiet das Testen von Hypothesen zu thematisieren.
Denjenigen Kollegen dieses Bundeslandes, die im Studium und auch
später mit der Wahrscheinlichkeitsrechnung nicht in Berührung
gekommen sind, will dieses Heft eine erste fachliche Einführung
bieten. Gleichzeitig werden auch Anregungen zur didaktischen
Umsetzung gegeben. Dieses Heft bietet aber nicht nur den Kollegen
in Baden-Württemberg seine Hilfe an, sondern ist auch für
alle Lehrer, die Wahrscheinlichkeitsrechnung in der Sekundarstufe I
zu unterrichten haben, interessant. Es werden alle wichtigen Themen
behandelt und - was wichtig, ist - mit interessanten Anwendungen
verbunden
Begonnen wird mit zwei Problem-Klassikern, welche nach Meinung des Autors auch als
Unterrichtseinstieg dienen können:
Nun genauer zum Inhalt: Die behandelte Thematik wird aufgeteilt in die vier Kapitel 1.
Zufallsexperiment, Ereignis, der Begriff Wahrscheinlichkeit, 2.
Berechnung von Wahrscheinlichkeiten mit der Pfadregel, 3.
Kombinatorik, und 4. Verknüpfungssätze und Unabhängigkeit.
Im ersten Kapitel werden nach der Klärung des Begriffs Zufallsexperiment (mit Beispielen
aus Münzwerfen und Kartenspielen) der klassische, empirische und
axiomatische Wahrscheinlichkeitsbegriff diskutiert. Eine vierte
Möglichkeit, Wahrscheinlichkeiten zu bestimmen, ist durch
Simulationen gegeben. Der Autor bietet dazu ein in Pascal
geschriebenes Programm an mit folgenden Schüleraktivitäten:
Im zweiten Kapitel werden Wahrscheinlichkeiten mit der Pfadregel berechnet. Die
Beispiele sind nicht so toll, aber es wird herausgearbeitet, wie die
Pfadregel geschickt gehandhabt wird, z.B. durch Betrachtung nur eines
Teilbaums oder durch Zusammenfassung bestimmter Äste. Eine
weitere Erkenntnis ist, daß bisweilen die Berechnung über
das Gegenereignis bedeutend einfacher ist. Sehr ausführlich wird
darauf das klassische Geburtstagsproblem samt methodischen Hinweisen
abgehandelt.
Ein Hauptkapitel ist der Kombinatorik gewidmet. Kombinatorik ist die Lehre vom Bestimmen von
Anzahlen. Dieses Bestimmen von Anzahlen ist in der Sekundarstufe I
beim Berechnen von Wahrscheinlichkeiten mit Hilfe des Laplaceschen
Ansatzes von großer Bedeutung. Man kann jedoch auch
Kombinatorik an interessanten Fragestellungen ("Weißt du
wieviel .. ... ? ") betreiben, ohne ihre Anwendung in der
Wahrscheinlichkeitsrechnung im Hinterkopf zu haben.
In diesem Band kommen zur Grundlegung kombinatorischer Kenntnisse zuerst das allgemeine
Zählprinzip und dann drei Standardfälle zur Sprache.
(Ziehen mit und ohne Zurücklegen, Ziehen mit einem Griff, d.h.
die Fakultät). Die hier verwendete Formulierung dieser drei
Fälle bezieht sich auf das geläufige Modell "Ziehen
aus einer Urne".
Der Verfasser beginnt mit folgenden Sätzen: "Erfahrungen vieler Kollegen im
Kombinatorikunterricht lauten so: Zuerst ist es zu einfach, wenn man
noch alle Möglichkeiten aufschreiben kann, und wenn dies nicht
mehr der Fall ist, dann ist es zu schwierig. Günstig ist es auf
jeden Fall, Vorstellungen an Aufschreibbarem zu entwickeln und wo
nötig, immer wieder zu Aufschreibbarem zurückzukehren."
Mit diesen Grundlagen aus der Kombinatorik kann man Wahrscheinlichkeiten berechnen. Dies
wird besonders an den Beispielen "Multiple - Choice - Aufgaben"
und "Zahlenlotto 6 aus 49" gezeigt. Es wird gegen
Lotto-Vollsysteme argumentiert, die kleinen Gewinnmöglichkeiten
beim Lotto werden verdeutlicht und es wird gezeigt, wie man für
den Fall eines Gewinns für höhere Quoten sorgt. Ein Anhang
beschäftigt sich mit Zufallszahlen.
Der vierte und letzte Abschnitt behandelt Kernthemen der Wahrscheinlichkeitsrechnung:
Additionssatz, Unabhängigkeit von Ereignissen,
Multiplikationssatz. Hierzu werden wieder gute Beispiele aus der
Praxis detailliert dargestellt.
Ein Anwendungsbeispiel, in dem abhängige Ereignisse und zugehörige
Wahrscheinlichkeiten eine Rolle spielen sind Aids-Tests. Aids-Tests
finden mit hoher Zuverlässigkeit Infizierte unter den
Untersuchten und klassifizieren mit hoher Sicherheit Nicht-Infizierte
als solche. Aber 100%ig, zuverlässige Aussagen können
solche Tests nicht machen. Mit welcher Wahrscheinlichkeit ist z.B.
eine Person mit positivem Testergebnis tatsächlich infiziert?
Diese Wahrscheinlichkeit kann sehr klein sein, wie mit Hilfe der
bedingten Wahrscheinlichkeiten gezeigt wird.
Für die Unabhängigkeit werden Beispiele aus der Theorie der
Zuverlässigkeit gewählt. Eine Maschine besteht aus zwei
oder mehreren unabhängig voneinander arbeitenden Teilen. Mit
welcher Wahrscheinlichkeit ("Zuverlässigkeit")
funktioniert die Maschine?
Insgesamt gesehen liegt hier eine gute Einführung in die Wahrscheinlichkeitsrechnung für
die Sekundarstufe I vor, die durch viele interessante Beispiele
besticht und die dem Lehrer zusätzlich methodisch-didaktische
Hinweise aus der Praxis gibt.
Gerhard König
Sind Sie von solchen Aussagen überzeugt, wie "Raucher belasten die
Krankenkassen", "Schokolade macht süchtig" oder
"Fast-Food ist ungesund, zumindest ungesünder als ein
Drei-Sterne-Menü"? Wenn Sie mit Ja antworten, dann sind Sie
auch einigen der vielen Irrtümer aufgesessen, die uns immer
wieder begegnen. So entlasten Raucher z.B. unser Sozialsystem um
etliche Milliarden, da sie im Durchschnitt einige Jahre früher
sterben als Nichtraucher. Und Fast Food enthält zwar gemessen an
seinen Kalorien etwas zu viel Fett und zu wenig Ballaststoffe, dafür
aber mehr Vitamine , Calcium und Eisen als andere wesentlich teurere
Speisen, usw..
Diese und ähnliche Irrtümer und Vorurteile werden in einem neuen Buch der beiden
Statistikprofessoren Walter Krämer und Götz Trenkler
besprochen und richtig gestellt. Es ist das 356 Seiten dicke,
Medizin, Sozialwissenschaften, Kulturgeschichte, Wirtschaft, Politik
und Geschichte streifende Werk "Lexikon der populären
Irrtümer". 500 Mißverständnisse, Vorurteile und
Fehleinschätzungen wurden von den Autoren gesammelt und werden
in diesem Lexikon unter Stichwörtern von Abendrot bis Zeppelin
diskutiert und mit Begründungen korrigiert. Jede Aussage ist
also mit Quellenangaben versehen, um Zweiflern die Möglichkeit
zu geben, den Sachverhalt nachzuprüfen. Dabei hat W. Krämer
als Mitherausgeber unserer Zeitschrift diese auch einige Male als
Quelle angegeben (Sind AIDS-Tests für alle sinnvoll? Die
sicherste Art des Reisens ist das Fliegen?).
Viele der in diesem Buch aufgeführten Irrtümer kennt der Leser sicherlich schon,
etwa daß Kamele kein Wasser in ihren Höckern speichern,
sondern Fett, oder daß Teflon keine Erfindung der Weltraumfahrt
ist, sondern (was nicht allgemein bekannt ist) bereits 1938 als
Polytetrafluorethylen erzeugt wurde. Viele andere sind aber
interessante Neuigkeiten und verblüffende neue Erkenntnisse.
Davon auch einige Beispiele: Unsere Vorfahren, die Höhlenmenschen, hausten nicht
in Höhlen; das Siegel "Made in Germany" war
ursprünglich zur Kennzeichnung minderwertiger Produkte
vorgesehen; der Bumerang ist keine Erfindung der Aborigines in
Australien, sondern war auch im alten Ägypten bekannt; wer bei
Asterix und Obelix den Geschichtsunterricht in spannenderer Form
vermutet, wird darüber aufgeklärt, daß die Gallier
weder Gürtel noch Zöpfe kannten, sondern Hosenträger
trugen und sich das Haar mit Naßgel aus Kalkwasser
einschmierten; den Inhalt angebrochener Ravioli - oder Würstchendosen
umzufüllen bringt nichts, weil Lebensmittel in Plastik genau so
schnell verderben wie in Blech.
Aber auch kapitale Böcke werden zitiert und klargestellt. Spinat gilt zum Beispiel als ganz
besonders eisenhaltig. Falsch! Der Mythos vom reichlichen Eisen im
Spinat entstand durch einen simplen Tippfehler: in einer der ersten
Analysen wurde ein Komma versehentlich eine Stelle zu weit rechts
gesetzt; damit war im Handumdrehen der Eisengehalt verzehnfacht.
Obwohl dieser Fehler schon in den 30er Jahren bemerkt und berichtigt
wurde, ist das Vorurteil vom Eisen im Spinat seit damals nicht mehr
auszurotten.
Ein anderes Beispiel gefällig? Mieterschutz schützt den Mieter oder in der
Bundesrepublik herrscht Wohnraummangel. Der beste Schutz des Mieters
ist, wie die beiden Autoren belegen, ein großes Wohnungsangebot
und dieses große Wohnungsangebot wird durch Mietkontrollen und
Kündigungsschutzgesetze gleich zweifach ausgehebelt und
behindert: Potentielle Wohnungen bleiben aus Mangel an Erträgen
ungebaut und bereits fertige Wohnungen und Häuser werden aus
Furcht vor Mietern, die man nicht mehr los wird, nicht vermietet.
Außerdem rechnen die Autoren uns vor, daß sowohl in
absoluten Zahlen als auch pro Kopf gerechnet der Wohnraum in
Deutschland dramatisch zugenommen hat.
Auch die Mathematik, hauptsächlich Stochastik, ist mit Problemstellungen vertreten.
So werden z.B. die Wahrscheinlichkeiten für zwei Mädchen in
einer Familie unter bestimmten Fragestellungen diskutiert oder die
Wahrscheinlichkeiten für einen Roulettegewinn, für zwei
Blitze am gleichen Ort, für Gewinne in Glücksspielen, für
Jungen- und Mädchengeburten, an Krebs zu sterben. Ausführlicher
wird auf das Geburtstagsproblem sowie das Lottospielen eingegangen.
Es wird z.B. gezeigt, daß wir doch etwas beim Lotto tun können.
Wir können natürlich nichts an der geringen
Gewinnwahrscheinlichkeit ändern, aber die Quoten haben wir als
Spieler durchaus in der Hand. Denn indem wir populäre Tips
vermeiden, können wir zwar die Gewinnwahrscheinlichkeit nicht
erhöhen aber wir können den Gewinn verbessern, falls wir
gewinnen. Und das hat für den erwarteten Gewinn den gleichen
Effekt als würde die Gewinnwahrscheinlichkeit erhöht.
Es wird weiter erklärt, daß Korrelation nicht Kausalität bedeutet und daß
die Lebenserwartung nach den Sterbetafeln uns nicht sagt, wie alt wir
werden. Weil diese Zahlen nämlich "nachhinken", werden
wir aufgrund besserer Medizin, Hygiene und Ernährung
erfreulicherweise älter als die 73 bzw. 79 Jahre die das
statistische Bundesamt uns glauben machen will. Ferner werden einige
Aussagen aus der Geschichte über die arabischen Zahlen sowie
über Archimedes, Galilei oder Ptolemäus korrigiert.
Einige weitere in diesem Buch beschriebenen Irrtümer sollen nur kursorisch aufgezählt
werden!
Abendrot verheißt schönes Wetter. Hohe Cholesterinwerte im Blut sind zu bekämpfen.
Der Davidstern ist ein altes jüdisches Symbol. Ehemänner
leben länger. Die Preise im Gesundheitswesen explodieren.
Hungersnöte entstehen durch ein Defizit an Nahrungsmitteln.
Intellektuelle sind das moralische Gewissen einer Nation. Das dritte
Jahrtausend beginnt um Mitternacht des letzten Tages 1999. Der
Kaugummi kommt aus den USA. Mozart war ein armer Schlucker.
Grün-Wähler sind besonders umweltbewußt. Präzise
Zahlen garantieren Präzision. Schokolade macht süchtig.
Eine hohe Staatsverschuldung schadet der Wirtschaft. Vor allem das
Altern der Bevölkerung treibt die Kosten im Gesundheitswesen in
die Höhe. Deutschland ist das Wirtschaftswunderland Europas.
Insgesamt ein vergnüglich zu lesendes Buch, aus dem man noch etwas lernen kann.
Gerhard König
Zusammenfassung
Dieses Buch ist für "Einsteiger" sowie für "Wiederholer", für
Studenten des Lehramtes und für Lehrer sehr empfehlenswert, auch
für den mathematisch interessierten Anwender. Es enthält
"nur" elementare mathematische Wahrscheinlichkeitsrechnung
und Statistik in diskreten Wahrscheinlichkeitsräumen, stetige
Betrachtungen sind bewußt ausgelassen, ebenso eine vertiefte
Behandlung von Problemen der beurteilenden Statistik. Die Art der
Darstellung mit viel Text, die schlüssige Einarbeitung der
Beispiele, die Übungsaufgaben mit Lösungen und die Angabe
von Lernzielen zu jedem einzelnen Kapitel zeigen, daß dieses
Buch insbesondere zum Selbststudium geeignet ist.
Natürlich bedarf es zum Erlangen von soliden Kenntnissen und Verständnis in
Stochastik des Studiums von weiterführender Literatur oder des
Besuches von Fachvorlesungen. Darauf wird immer wieder hingewiesen.
Man hat nach dem Studium dieses Buches geradezu das Bedürfnis,
sich mit der einen oder anderen Fragestellung aus
Wahrscheinlichkeitsrechnung oder Statistik intensiver zu
beschäftigen. Dies ist ein erster Einstieg in die faszinierende
Welt der Wissenschaft vom Zufall. Alle wesentlichen Fakten der
elementaren Stochastik, die man bei einem ersten Studium kennenlernen
sollte, sind schlüssig erarbeitet.
Es ist wohltuend, dieses Buch zu lesen. Der Text ist klar und einsichtig, es wird immer wieder
konkret Mathematisierung betrieben. Modelle zu konkreten, aktuellen
Problemen werden erarbeitet, mathematisch in Formeln gefaßt und
gelöst. Es wird dabei nie versäumt, auf die Vereinfachung
der Realität durch Modellbildung explizit hinzuweisen und in der
Statistik (Testen von Hypothesen) vor falschen Schlüssen zu
warnen.
Lobenswert ist auch, daß zu allen berühmten Mathematikern, die wesentliches zur
Entwicklung der Stochastik beigetragen haben und im Text erwähnt
sind, jeweils in einer Fußnote die Lebensdaten und eine
Kurzbiographie angefügt ist.
Erwähnt wurde schon, daß keine stetigen Zufallsvariablen und Verteilungen
behandelt sind. Es wird auch nicht näher auf die Verwendung von
Computerprogrammen eingegangen. Es ist eben ein Buch für
Einsteiger und nicht für Profis. Es wäre allerdings schon
viel gewonnen, wenn jeder Lehrerstudent nach seinem Studium der
Mathematik diese Kenntnisse in Stochastik besäße.
Bewertung im einzelnen
Die Kapitel 1-5 enthalten eine Einweisung in die mathematische Fassung der
grundlegenden Begriffe: (1) Zufallsexperiment, Ergebnismenge; (2)
Ereignisse; (3) Zufallsvariable; (4) Relative Häufigkeit; (5)
Grundbegriffe der beschreibenden Statistik. Die Begriffe werden stets
am Beispiel erarbeitet, erläutert, verdeutlicht, sie entstehen
sozusagen genetisch aus den Anwendungen, es sind keine "technischen"
Definitionen. Die vorausgesetzten mathematischen Kenntnisse sind
wirklich minimal.
In den Kapiteln 6-12 wird konkret, jeweils unterlegt mit interessanten, nicht trivialen
Beispielen Wahrscheinlichkeitsrechnung getrieben. Dies ist eine
Bereitstellung von Fakten für die ab Kapitel 13 behandelten
Verteilungen. Nach der Definition von endlichen W-Räumen (6)
(später auch abzählbar unendliche W-Räume) und den
Axiomen von Kolmogorov wird das Laplace-Modell (7) eingeführt
und dabei schon das Teilungsproblem von Pacioli und das Ziegenproblem
(3-Türen-Problem) angesprochen. Die Lösungen erfolgen
später. Elemente der Kombinatorik (8) und das
Urnen-/Teilchen-/Fächermodell (9) werden erarbeitet. Schließlich
bespricht der Autor in einem eigenen Abschnitt das Paradoxon der
ersten Kollision am Beispiel Zahlenlotto. Stochastik wird vorgestellt
als eine faszinierende Wissenschaft, die auch auf solche Fragen eine
Antwort hat. Die Formel des Ein- und Ausschließens (Siebformel)
(11) wird ebenso wie Erwartungswert (12) für die Bearbeitung in
den nachfolgenden Kapiteln erarbeitet.
Die Kapitel 13-19 behandeln jeweils mit interessanten Beispielen unterlegt diskrete
Verteilungen: Die hypergeometrische Verteilung (13), mehrstufige
Experimente, Baumdiagramme, Produktexperimente, Pfadregeln (14),
Polya's Urnenschema (Ausbreitung von Krankheiten, z.B. AIDS) (15);
Gemeinsame Verteilung von 2 Zufallsvariablen, Randverteilungen (18) ;
Binomial- und Multinomialverteilung (19). In den Kapiteln (16) und
(17) widmet der Autor sich intensiv der Erarbeitung von bedingter
Wahrscheinlichkeit und stochastischer Unabhängigkeit. Es werden
konkrete Probleme behandelt: Ziegenproblem (3-Türen-Problem);
ein HIV-Test (Elisa); das 2-Jungen-Problem. Immer wieder gelingt es
dem Autor, die abstrakten Definitionen anhand konkreter Aufgaben zu
motivieren, zu verdeutlichen, zu erläutern. Beispiele
untermauern die Theorie, doch die theoretischen, abstrakten
Formulierungen kommen dabei nicht zu kurz.
Wurden bisher elementare Inhalte der Stochastik ausführlich und in gewisser Weise
erschöpfend behandelt, so werden ab Kapitel (20) Inhalte der
Stochastik angesprochen, die aufgrund der notwendigen Beschränkung
auf "Einsteiger" nur in sehr einschränkender Weise
behandelt werden können. Wenn der Leser diese Themen eingehender
studieren möchte - beim Durchlesen der Texte erhält man
sehr wohl das Gefühl, daß dies notwendig sei - so ist er
auf weiterführende Literatur angewiesen. Auf diese wird an den
entsprechenden Stelle deutlich hingewiesen. Die Behandlung von
Pseudozufallszahlen (20); Varianz (21); Kovarianz und Korrelation
(22) bedürfen eines intensiven Studiums, wenn die hier
auftretenden Probleme hinreichend verstanden werden sollen. Es wird
nur ein Zufallsgenerator angesprochen, das Testen der "Güte"
von Zufallsgeneratoren kurz erklärt, die Regressionsgerade
erarbeitet und Korrelation von Zufallsvariablen kurz erläutert.
Eine intensivere Erarbeitung dieser Inhalte würde den Rahmen des
Buches sprengen.
Die Einführung von diskreten (abzählbar unendlichen) Wahrscheinlichkeitsräumen
(23), die Besprechung des Wartezeitproblems (24), die
Poisson-Verteilung (25), das Schwache Gesetz der großen Zahlen
(26) sowie der Zentrale Grenzwertsatz (27) gehören zum
Standardwissen in elementarer Stochastik. Die Erläuterung der
neuen Begriffe, die Hinführung auf die mathematischen
Präzisierung der Aussagen, erfolgt wiederum unterlegt durch
einprägsame Beispiele. Für mathematische Einzelheiten in
der Herleitung wird auf weiterführende Literatur verwiesen. Ein
Beweis des Zentralen Grenzwertsatzes erfolgt für den Spezialfall
der Binomialverteilung Bin(2n, 1/2).
Kapitel (28) Schätzprobleme und (29) Statistische Tests beinhalten eine kurze
aber prägnante Einführung in die beurteilende Statistik.
Schätzungen, Konfidenzintervalle, Maximum-Likelihood-Methode
werden "nur" für eine binomialverteilte
Zufallsvariable eingeführt, allerdings sehr einsichtig und klar
in den Formulierungen. Am Beispiel der "tea-testing-lady"
werden die Grundregeln statistischer Testmethoden erläutert,
Entscheidungsregeln erarbeitet. Binomialtest, Konfidenzbereiche,
Signifikanzniveau, Chi-Quadrat-Test werden auf diesem Niveau
eingeführt.
Der hier skizzierte Inhalt des Buches ist für den Adressatenkreis, den der Autor
ansprechen möchte, sicher hinreichend . Es werden viele
interessante, auch paradoxe Phänomene angesprochen und gelöst.
Die Übungsaufgaben passen durchweg zu dem, was vorher erarbeitet
wurde. Der Autor bemüht sich um Aktualität der Beispiele.
Würfel und Münze werden nicht mehr als notwendig zu
Erläuterungen herangezogen. Statt dessen werden interessante
Aufgaben wie die Kollision beim Lotto, HIV-Infektion, BSE-Erkrankung,
das 3-Türen-Problem, das Problem der vollständigen Serie
etc. zur Motivation und für die Erarbeitung der Begriffe
benutzt. Es gelingt ihm, die mathematischen Modellierungen in klar
verständlicher Form verbal zu erläutern. Er vermeidet dabei
bewußt die "nur-mathematische" Herleitung.
Das Buch "Stochastik für Einsteiger" wird der Zielgruppe gerecht. Es ist eine
bewußte Einschränkung auf elementare
Wahrscheinlichkeitsrechnung und Statistik. Doch wird der Leser, der
als Anfänger dies durchgearbeitet hat, sicher das Bedürfnis
verspüren, sich noch intensiver mit dieser interessanten
Wissenschaft zu beschäftigen. Er wird (hoffentlich)
weiterführende Literatur zur Hand nehmen und studieren.
Prof. Dr. Paul Bungartz
Dieser Text behandelt alle Themen des A-Level-Curriculums und einer einführenden Vorlesung an der Universität. [ ] Jedes neue Kapitel wird mit einer verbalen (intuitiven) Erklärung und einem Beispiel begonnen, dann folgt eine mehr algebraische Darstellung, schlußendlich eine Herleitung mit Beweis. Dies ist besonders attraktiv für Studenten, die gerade das GCSE absolviert haben und noch nicht an die formale Darstellung in der Mathematik gewohnt sind. Das Buch bietet jedoch auch für die herausfordernden Studenten ausreichende Strenge. Enthalten sind viele ausgearbeitete Beispiele, auch aus vergangenen Prüfungen. Jedes Kapitel enthält Vorschläge für die praktische Arbeit mit Taschenrechner und Computer sowie für kurze Projekte. Es gibt viele "Hinweise", die Lernenden helfen, die üblichen Fehler und Mißverständnisse zu vermeiden, und die Beispiele guter Praxis geben sollen. [ ] Schließlich gibt es kurze geschichtliche Anmerkungen.
Die ersten zwei Kapitel decken ein breites Spektrum statistischer Diagramme, Tabellen und zusammenfassender statistischer Kenngrößen ab. Lehrer aus Anwenderfächern wie Geographie werden diese Kapitel genauso nützlich finden wie Lehrer in Statistik. Es gibt auch einen Abschnitt, der sich mit Quellen von Sekundärdaten befaßt - nützlich für die Klassenarbeit. Ich hätte gerne einige Hinweise auf Quellen im World Wide Web gehabt.
Das Buch lädt zum Lesen ein. Die Autoren haben keine Notwendigkeit gesehen, mathematische Strenge mit Eintönigkeit gleichzusetzen. So tauchen ein Cricket spielender Hamlet, verrückte Statistiker wie George Nerdowell und Georgeous Gertie auf. Eine kürzere Version, auch für das A-Level in reiner Mathematik und Statistik geeignet, wird 1998 folgen. Einige Lehrer mögen dies für die Studenten geeigneter finden, aber ich empfehle die Langversion (650 Seiten) als Nachschlagwerk. Das Buch ist bei Oxford University Press erschienen und kostet £ 19,50.
Der Begriff der Stochastik faßt zwei Disziplinen zusammen, und zwar Wahrscheinlichkeitstheorie und Mathematische Statistik. Beide Gebiete befassen sich mit der mathematischen Behandlung zufälliger Erscheinungen in Natur, Technik, Wirtschaft und Gesellschaft. Unter Verwendung von Hilfsmitteln vornehmlich aus der Mengenlehre, der Analysis und der linearen Algebra werden, vereinfacht gesprochen, in der Wahrscheinlichkeitstheorie Modelle für die unterschiedlichsten Situationen entwickelt, in denen der Zufall eine Rolle spielt, und in der Mathematischen Statistik Methoden erarbeitet, solche Modelle an Hand von realen Daten zu überprüfen bzw. durch Wahl von Parametern an diese Daten anzupassen. Die genannten Disziplinen stehen in enger Wechselbeziehung und besitzen außerdem viele Anwendungen in anderen Bereichen, sowohl der Wissenschaft, als auch in der Praxis: Der Zufall ist überall. Genannt seien hier nur das sehr moderne Gebiet der Stochastik der Finanzmärkte, aber auch Gebiete mit langer Tradition in der Anwendung der Stochastik wie Physik, Medizin, Biologie, Versicherungsmathematik u. a.
Als ein wesentliches Hilfsmittel für Anwendungen der Stochastik erweist sich in immer stärkerem Maße leistungsfähige Rechentechnik einschließlich zugehöriger Software. Dabei ist eine sachgemäße Anwendung dieser Software, insbesondere die Auswertung ihrer Berechnungen, ohne Kenntnis zumindest der Grundlagen der Stochastik kaum oder nur in sehr eingeschränktem Maße möglich. Auch das spricht für das gewachsene Interesse an Grundkenntnissen der Stochastik, für deren Vermittlung dieses Buch einen Beitrag leistet.
Das vorgelegte Lehrbuch ist für Neulinge auf dem Gebiet der Stochastik gedacht und richtet sich vornehmlich an Lehramtsstudenten. Es wird aber auch von Studierenden anderer Richtungen mit Gewinn genutzt werden können. Es ist ein mathematisches Lehrbuch in gut lesbarer und studierbarer Form. Der Autor beschränkt sich auf die für das Verständnis und erste Anwendungen der Stochastik notwendigsten Begriffe und Aussagen, ergänzt sie durch zahlreiche illustrative Beispiele und Aufgaben und ermöglicht so eine erste nähere Bekanntschaft mit diesem reizvollen und lehrreichen Gebiet.
Zugrunde liegen langjährige Erfahrungen des Autors als Hochschullehrer für Stochastik an der Universität Münster. Das macht sich wohltuend bemerkbar bei der systematischen und ausgefeilten Darstellung des Stoffes: einerseits ist sie mathematisch präzise und in dem vom Autor gewählten Rahmen abgerundet, andererseits beschränkt sie sich auf elementare mathematische Hilfsmittel, die jedem Abiturienten zur Verfügung stehen, u. a. Mengen, Abbildungen, Grenzwerte, unendliche Folgen und Reihen, Kombinatorik. Insbesondere verzichtet der Autor auf jegliche Form von Maßtheorie, mit deren Hilfe natürlich ein Großteil des Buches sehr viel allgemeiner, aber auch sehr viel schwieriger für das Verständnis dargestellt werden könnte.
Darüber hinaus versteht es der Autor aber auch, die intuitiven Vorstellungen einzuflechten, die mit den mathematischen Begriffen der Stochastik verbunden sind, und ohne die der Leser kaum die Brücke zwischen dem mathematischen Begriffsgebäude der Stochastik und realen zufälligen Erscheinungen herstellen könnte. Der Leser wird diese Vorstellungen allerdings nur durch aktive Auseinandersetzung mit dem Stoff erwerben. Dafür sind zahlreiche Übungsaufgaben am Ende jedes Kapitels eine gute Unterstützung.
Das Lehrbuch ist als Begleittext für eine einsemestrige Vorlesung konzipiert und als solches dafür auch sehr gut geeignet. Obwohl es bewußt auf einige durchaus in diesem Rahmen denkbare Gebiete verzichtet (z. B. Irrfahrten, Zufallszahlen, erzeugende Funktionen), werden Studierende dennoch mit einer Fülle von Begriffen und Sachverhalten bekannt gemacht. Die Beschränkung kommt der ausführlichen Darstellung des Ausgewählten zugute.
Das Buch ist in fünf Kapitel unterteilt. Das erste Kapitel ist den Laplaceschen Wahrscheinlichkeitsverteilungen (auch als gleichmäßige diskrete Verteilungen bekannt) gewidmet. Ihre Berechnung führt häufig auf kombinatorische Überlegungen, deren Grundzüge ebenfalls in diesem Kapitel dargelegt werden.
Kapitel zwei behandelt diskrete Wahrscheinlichkeitsverteilungen. Ausgehend vom Fall endlicher Zufallsexperimente wird die Sigma-Additivitätseigenschaft von Wahrscheinlichkeitsverteilungen bei Experimenten mit unendlich vielen möglichen Ausgängen diskutiert. Die mathematische Modellierung zufälliger Erscheinungen mit Hilfe der Mengenlehre wird ausführlich dargelegt.
In Kapitel drei, dem umfänglichsten aller sechs Kapitel, wird der zentrale Begriff der Zufallsgröße behandelt. Ausgehend von ihrer Definition als Abbildung von der Menge der möglichen Ausgänge eines Zufallsexperimentes in eine Menge von "Zuständen" werden damit zusammenhängende Begriffe wie Wahrscheinlichkeitsverteilungen, Erwartungswert und Varianz einer Zufallsgröße entwickelt. Die Kovarianz und Korrelation zweier Zufallsgrößen werden untersucht, und mittels der Tschebyschevschen Ungleichung wird ein (sog. schwaches) Gesetz der großen Zahlen als ein Beispiel für ein wichtiges Resultat der Wahrscheinlichkeitstheorie hinsichtlich ihrer Anwendungen bewiesen.
In Kapitel vier geht der Autor über zum Begriff bedingter Wahrscheinlichkeiten und betrachtet die Unabhängigkeit von Ereignissen und Zufallsgrößen. Der Höhepunkt dieses Kapitels und der mathematisch wohl anspruchsvollste Teil dieses Buches überhaupt ist zweifellos der zentrale Grenzwertsatz von Lindeberg-Lévy inklusive eines Beweises.
Die letzten beiden Kapitel sind der Mathematischen Statistik vorbehalten, Kapitel fünf der Schätztheorie (Schätzer, erwartungstreue Schätzer, gleichmäßig beste erwartungstreue Schätzer, Suffizienz und Vollständigkeit) und Kapitel sechs der Testtheorie (Tests zum Niveau a, beste Tests für einfache Hypothesen, Neyman-Pearson-Lemma). Beide Kapitel stellen noch einmal hohe Ansprüche an die Bereitschaft des Lesers, sich in die sicherlich ungewohnte Begriffswelt und Denkweise der Stochastik und speziell der Statistik einzuarbeiten.
Unterstützt werden die Bemühungen des Lesers durch die durchweg sehr klare und anschauliche, mit Beispielen gespickten Darstellung des Stoffes, belohnt werden sie mit der Erkenntnis, daß den mathematisch präzisierten stochastischen und statistischen Denk- und Schlußweisen eigentlich eine ganze Reihe von Alltagserfahrungen und Schlußfolgerungsprinzipien entspricht, und daß man viele zufällige Erscheinungen nunmehr mit wissendem Blick zu beurteilen vermag. An der Entwicklung der Stochastik als mathematische Disziplin waren in der Vergangenheit viele mehr oder weniger bekannte Wissenschaftler beteiligt, dementsprechend tauchen in dem Buch auch viele Namen auf. Es wäre für Anfänger auf dem Gebiet der Stochastik sicher von Interesse und auch von Nutzen, etwas ausführlichere Daten zu diesen Namen zu erfahren.
Insgesamt gesehen ist es dem Autor gelungen, eine elementare, mathematisch fundierte und mit intuitiven Vorstellungen verbundene Darlegung wesentlicher Begriffe und Sachverhalte der Stochastik anzubieten. Auf dieser Basis kann der Leser Anwendungen auf reale Sachverhalte verstehen und selbst vollziehen, und er besitzt ein gutes Fundament für das Studium weiterführender Literatur. Dazu regt das vorliegende Buch sicherlich an.
Statistik in ansprechender und anspruchsvoller Weise zu unterrichten ist eine
didaktische Herausforderung. Viele Lernende, ob an Schulen oder in
universitären Lehrveranstaltungen der Sozial-, Wirtschafts- oder
Gesundheitswissenschaft etc. mögen von Statistik schon
abgestoßen sein, bevor der Kurs überhaupt angefangen hat,
weil ihnen unklar ist, welche Rolle die Lehrinhalte in ihrem weiteren
Lernen einnehmen. Erschwerend wirkt sich aus, wenn die Lehre des
Faches weitgehend in der Manipulation und Herleitung umständlicher
und kaum motivierter Formeln besteht.
Jüngere Forschungen (Garfield 1995) weisen daraufhin, dass der traditionelle
frontal ausgerichtete Lehrstil nicht unerheblich zu den Problemen
beiträgt. Stattdessen sollten Lernende mehr aktivhandelnd in ihr
eigenes Lernen miteinbezogen sein. Neuere Konzepte basieren daher auf
handlungsorientierten Unterrichtsmodellen (z.B. Scheaffer et al.
1997) und zeigen, dass Statistikunterricht kein langweiliges Umgraben
von Zahlenfriedhöfen ist, sondern sehr spannend,
kreativitätsfördernd und interessant sein kann.
Multimedia kann dabei eine wesentliche Rolle spielen in einem Unterricht, der die
Eigenaktivität der Lernenden durch interessante, aktuelle und
motivierende Beispiele und herausfordernde Experimente fördert.
Entsprechend zahlreich ist das Angebot von elektronischen Medien
(z.B. Lohninger, 1999; Velleman, 1998) sowie von Makros und Applets
zum Statistiklernen im Internet. Siehe z.B.
www.stat.ec.edu/rsrch.gasp
oder www.statlets.com
Richten sich viele dieser (überwiegend in englischer Sprache verfassten) Angebote
an spezielle Zielgruppen oder illustrieren sie einzelne stochastische
Gesetzmäßigkeiten, so ist die Multimedia-Software von
Mittag und Stemann die meines Wissens erste Lernsoftware in deutscher
Sprache über grundlegende Begriffe der Beschreibenden Statistik,
die als erklärte Zielgruppe gleichzeitig Schülerinnen und
Schüler des Gymnasiums sowie Studierende im Grundstudium von
Wirtschafts- und Sozialwissenschaften, Technik aufzählt.
Inhaltlich werden in 9 Kapiteln die typischen und grundlegenden Themen der Beschreibenden
Statistik behandelt: Grundbegriffe der Datenerhebung, empirische
Verteilungen und Kenngrößen univariater Daten,
Konzentrationsmaße, empirische Verteilungen multivariater
Daten, Zusammenhangsmaße, Regression, Indexrechnung und
elementare Zeitreihenanalyse.
Die Inhalte werden auf mehreren Lernebenen präsentiert: nach einer knappen Darstellung
des Basiswissens als Grundlagentext für einzelne statistische
Grundbegriffe werden per Mausklick erläuternde Erklärungen
und theoretische Sachverhalte wahlweise per Ton oder Text
präsentiert. Weitere Schaltknöpfe liefern
Anwendungsbeispiele, Übungen sowie anspruchsvollere theoretische
Erklärungen für wissbegierigere Nutzer. Das Ganze ist sehr
übersichtlich mit klar strukturiertem Aufbau gestaltet.
Wie für ein Hypertext-Medium charakteristisch, kann der Nutzer seinen
individuellen Lernpfad bestimmen, ohne dabei im Gesamtgefüge die
Orientierung zu verlieren. Die Erklärungen zu Rechenverfahren
und zur Theorie sind in der Regel knapp, weshalb sich die Software
gut als Ergänzung zu anderen Lernmitteln eignet, weniger aber
wohl als exklusives Lernmittel.
Die Kürze der Texte erhöht gewiss die Lesbarkeit (wer liest schon gerne
seitenlange Bildschirmtexte?), andererseits fallen meines Erachtens
manche Erklärungen zu kurz aus. So wird an einigen wichtigen
Stellen leider auf konzeptionelle Erklärungen verzichtet (Welche
Rolle spielt der Zufall im Regressionsmodell? Warum sollte man
Zeitreihen überhaupt glätten? Warum quadratische und keine
anderen Fehlermaße? Wieso unterstützt das Residuenplot den
nichtlinearen Regressionsansatz in Bsp.7.6.2 ?)
Das ist schade, weil somit der algorithmisch-technische Aspekt zuviel Gewicht vor dem
konzeptionellem Verstehen bekommt. Statistikunterricht sollte aber
weniger das Anwenden von Rezepten als vielmehr die Förderung
statistischen Denkens zum Ziel haben. Multimedia kann gerade zum
konzeptionellen Verstehen maßgeblich beitragen.
In folgender Hinsicht bietet die Software mehr als ein Buch:
Stets am Bildschirmrand verfügbare Schaltflächen umfassen das Inhaltsverzeichnis,
ein Glossar zum Abfragen statistischer Fachbegriffe und ein (sehr
knappes!) Literaturverzeichnis. Außerdem ist es möglich,
Lesezeichen zu setzen, auf einem elektronischen Notizblatt
persönliche Anmerkungen zu notieren und mit einem kursbezogenen
Diskussionsforum sowie mit den Herstellern in Kontakt zu treten. Die
Aktualität einiger oft verwendeter Daten wird gewährleistet,
indem Links auf interessante Datenquellen gesetzt sind (Börse,
Statistische Ämter, US Census Bureau etc.) – ein
Internetzugang vorausgesetzt.
Die angeführten Beispiele sowie die Übungen stammen zum weit überwiegenden
Teil aus dem Bereich der Wirtschaftswissenschaften und
Finanzmarktanalyse. Für den schulischen Einsatz wäre da
eine größere Streuung der Anwendungs- und
Illustrationsbeispiele dringend wünschenswert, insbesondere in
Themenbereichen Sport, Freizeit und Gesundheit/ Ökologie.
Ein großer Vorteil des Einsatzes von Computern beim Lernen von Statistik besteht
in der Möglichkeit, mit Hilfe simulierter Daten statistische
Konzepte und Begriffe zu erarbeiten und vertiefen und eigenständig
Datenanalysen durchzuführen. Hier enttäuscht die
vorliegende Software, da die wenigen Simulationsbeispiele keinen
eigenen Gestaltungsraum oder Variationsmöglichkeiten bieten. Von
einer Software, die „Explorative Datenanalyse“ im Titel
trägt, darf man erwarten, dass sie mehr Möglichkeiten
bereitstellt, eigenständig interessante Strukturen in
Datensätzen interaktiv zu erkunden.
Eine explorativ orientierte Statistik sucht zunächst nach Strukturen und Mustern
in Daten. Hierbei ist eine interaktive Grafiksoftware ein wichtiges
Instrument des Datendetektivs, die es erlaubt, die Daten aus
möglichst unterschiedlicher Perspektive zu betrachten,
Strukturen in Daten visuell anschaulich zu machen und Vermutungen und
sukzessiv entstandene Hypothesen über die Daten dabei zu
überprüfen. Dazu fehlen sowohl interaktive
Analysewerkzeugen sowie Anregungen und Anleitungen, Entdeckungen in
Datensätzen eigenständig vorzunehmen.
Der eigene Anspruch, selbstgesteuertes und exploratives Lernen zu unterstützen und
den Lernprozess selbst mitzugestalten (Einleitung S.2), wird daher
nur sehr eingeschränkt eingelöst. Freilich lässt sich
dieses Ziel technisch nur erreichen, wenn zum Produkt gleichzeitig
eine Software zur Datenanalyse mitgeliefert wird oder wenn die Daten
in den Beispielen in einem Format präsentiert sind, das sie
leicht in ein verbreitetes (und für die anvisierte Zielgruppe
angemessenes) Paket zur Datenanalyse wie z.B. Excel, Medass, WinStat,
Fathom etc. exportieren lässt.
Explorative Datenanalyse ist durch Methodenvielfalt charakterisiert, die auch die
Entwicklung eigener neuer Darstellungsformen ermöglicht. Auch
dieser wichtige Aspekt kommt kaum zum Tragen und den vorgestellten
Konzepten zur Datenanalyse fehlt es an methodischer Vielfalt. So
würde ich mir für die Schule z.B. eine Behandlung des
Viertelwerteabstandes als Streumaß (im Kontext des
Boxplots auch leicht grafisch darstellbar), bei der Geradenanpassung
Alternativen zur Kleinsten-Quadrate Regression wie z.B. die robuste
Mediangerade wünschen sowie mehr Diskussion über die
Bedeutung unterschiedlicher Konzepte z.B. von Lageparametern und
Streu- oder Korrelationsmaßen.
Ein Wort zu den Übungen: Sie bieten m.E. oft zu wenig Raum für eigene
Aktivitäten. Die folgenden Bemerkungen zu einzelnen Übungen
sind exemplarisch. Übung 2.1.2 besteht viel zu sehr im
Knöpfchendrücken, statt die Klassen zur Gruppierung von
Daten selbst vom Nutzer wählen zu lassen. Interessant wäre
es, wenn die in Kap. 2.2 die Klassenbreite des Histogramms interaktiv
wählbar wäre. Übrigens hat auch die Lage des Klassen
(bzw. des Verankerungspunktes) einen Einfluss auf das
Erscheinungsbild eines Histogramms.
Sehr positiv heben sich dagegen meines Erachtens einige dynamische Übungen ab. In Übung
3.5.1, 3.5.4 kann durch vom Nutzer freigewählte Daten der
Einfluss von Ausreißern auf Median und arithmetisches Mittel
untersucht werden. Instruktiv sind auch die Übungen zum linearen
Regressionsmodell, bei denen einzelne Punkte des Streudiagramms frei
bewegt werden können.
Zusammenfassend ist die Multimedia-Software zweifellos ein hilfreiches Medium zum Lernen von
Beschreibender Statistik, insbesondere wenn sie als Ergänzung
zum Lehrbuch oder zur Unterstützung von Vorlesungen für
Studierende wirtschaftswissenschaftlicher Disziplinen eingesetzt
wird. Zum Einsatz im schulischen Mathematikunterricht hingegen
bleiben mir einige gravierende Vorbehalte.
Literatur
Joachim Engel
Das vorliegende Buch ist in zwei Teile untergliedert. Der erste Teil handelt von den
Standards des NCTM (National Council of Teachers of Mathematics) und
ihren Aussagen zur Wahrscheinlichkeitsrechnung und Statistik. Im
zweiten Teil wird der Frage nachgegangen, inwieweit durch die
Einbeziehung Bayesscher Ideen das Verständnis des
Wahrscheinlichkeitsbegriffes sowie darauf aufbauender statistischer
Verfahren wie z.B. des Hypothesentests, verbessert werden kann. Die
Beiträge basieren auf Vorträgen, die auf den Jahrestagungen
1999 und 2000 des Arbeitskreises „Stochastik in der Schule“
der Gesellschaft für Didaktik der Mathematik gehalten wurden.
Die NCTM-Standards stellen in den USA ein durchgehendes Curriculum vom Kindergarten bis
zur Universität dar. Im Bereich der Stochastik fordern sie eine
Ausrichtung des Unterrichts hin zu einem hohen Anteil an
Eigenaktivität sowie eine Akzentsetzung auf Anwendungen der
Mathematik: Schülerinnen und Schüler sollen praktische
Fragestellungen anhand realer bzw. szenarioartig simulierten Daten
behandeln. Weitere Grundorientierungen der NCTM-Standards sind eine
Integration der Statistik im Hinblick auf die Entwicklung der
Fähigkeit, Daten kompetent beurteilen zu können, sowie eine
oft schlagwortartig als „weg von der Würfelbudenmathematik“
bezeichnete geringere Gewichtung der Behandlung von Glücksspielen
bei gleichzeitiger stärkerer Betonung der explorativen Analyse
realer Daten.
Nach einer Übersetzung der NCTM-Standards durch Ch. Bescherer und J. Engel (S. 11-42)
diskutiert J. Engel im Aufsatz „Die NCTM Standards zur
Stochastik und das Quantitative Literacy Program“ (S . 43–52)
die Zielsetzungen des sich als Konkretisierung der Standards
verstehenden „Quantitative Literacy Programs“ unter
verschiedenen didaktischen Gesichtspunkten.
Der Beitrag „Statistisches Denken oder statistische Rituale: Was sollte man
unterrichten?“ von G. Gigerenzer und St. Krauss (S. 53–62)
wendet sich gegen eine vielfach übliche rein schematische
Anwendung von Signifikanztests und gibt verschiedene Anregungen zur
diesbezüglichen Verbesserung der Statistik-Unterrichts.
J. Engel beschreibt in seinem Aufsatz „Datenorientierte Mathematik und
beziehungshaltige Zugänge zur Statistik: Konzepte und Beispiele“
(S. 63–81) Absichten und Ziele des „Data-driven
Mathematics Project“ anhand einiger Beispiele (Lageparameter
und Geometrie, Alter bekannter Personen, Zusammenhang zwischen
Körper- und Hemdgröße, Preisentwicklungen in
Baden-Württemberg).
In „Statistik ohne Formeln“ (S. 83–95) stellt P. Sedlmeier ein von ihm
mitverfasstes Schulbuch zur Wahrscheinlichkeitsrechnung mit
begleitendem Programmpaket vor, dessen Hauptziel darin besteht, die
grundlegenden Gesetzmäßigkeiten der Stochastik anhand von
Simulationen zu verdeutlichen.
Der erste Teil schließt mit dem Aufsatz „Statistische Kompetenz von Schülerinnen
und Schülern – Konzepte und Ergebnisse empirischer Studien
am Beispiel des von statistischen Verteilungen“ von R. Biehler
(S. 97–114), in welchem die Ergebnisse eines
Unterrichtsexperimentes in Klasse 11 zur Explorativen Datenanalyse
vorgestellt und bewertet werden.
Der zweite Teil des Buches trägt den Untertitel „Klassische und Bayesianische
Sichtweise im Vergleich“. Der erste Beitrag „Die
Übungsstunde“ von D. Wickmann (S. 117–122) ist zur
Einstimmung in das im Untertitel beschriebene Spannungsfeld gedacht.
Im Artikel „Der Theorieneintopf ist zu beseitigen: Ereignis-
und Zustandwahrscheinlichkeit – Versuch einer Klärung des
Wahrscheinlichkeitsbegriffs zum Zweck einer Methodenbereinigung“
(S. 123–131) thematisiert D. Wickmann die insbesondere in der
didaktischen Literatur weit verbreitete falsche Anwendung des
statistischen Hypothesentests. In einem weiteren Aufsatz
(„Inferenzstatistik ohne Signifikanztest“, S. 133–138)
plädiert er sogar dafür, den Signifikanztest im gymnasialen
Unterricht nicht mehr zu verwenden.
St. Krauss‘ Aufsatz „Wahrscheinlichkeit und Intuition – Zwei Seiten
einer Medaille?“ (S. 139–146) illustriert einen
didaktisch – methodischen Ansatz im Hinblick auf ein besseres
Verständnis der Bayes-Formel. St. Götz wirbt in seinem
Beitrag „Klassische und Bayesianische Behandlung von
Stochastikaufgaben aus österreichischen Schulbüchern“
(S. 147–162) für eine ausgewogene Darstellung beider
Standpunkte im Sinne einer Verbreiterung des stochastischen
Allgemeinwissens in der Schule.
Um die Problematik einer adäquaten Darstellung mathematischer Objekte, insbesondere
bedingter Wahrscheinlichkeiten, geht es im Artikel „Repräsentation
von Information in der Wahrscheinlichkeitstheorie“ von L.
Martignon und Ch. Wassner (S. 163–169). Der zweite Teil
schließt mit dem Aufsatz „Klassisches und bayesianisches
Denken“ von Ö. Vancsó (S. 171–175), in
welchem von Erfahrungen mit Studierenden in klassischer und
Bayesianischer Denkweise berichtet wird.
Das Buch enthält eine Fülle von Anregungen im Hinblick auf eine Weiterentwicklung
des gymnasialen Stochastik-Unterrichts. Was den Vergleich der
sogenannten „klassischen“ und der Bayesschen Sichtweise
betrifft, plädiere ich für deutlich mehr Gelassenheit in
der zum Teil immer noch missionarische Züge aufweisenden
Diskussion. Es gibt keine Dichotomie „Klassisch oder Bayes“,
sondern ausschließlich Fragestellungen, auf die rational
begründete Antworten gegeben werden müssen.
Dass Schlussfolgerungen, die aus Konfidenzbereichs- oder Test-Verfahren
gezogen werden, häufig falsch sind, liegt an der prinzipiellen
Schwierigkeit, mit konkurrierenden stochastischen Modellen umgehen zu
müssen. Der entscheidende Mangel sowohl eines gymnasialen
Statistik-Unterrichts als auch einer universitären
Statistik-Ausbildung für Studierende gleich welcher
Fachrichtungen besteht häufig darin, dass zu wenig Gewicht auf
die Vermittlung zentraler Ideen einer Entscheidungsfindung unter
Unsicherheit gelegt wird. Im Zusammenhang mit Bayes-Verfahren wird
vielfach verschwiegen, in welcher Weise die Ergebnisse derartiger
Verfahren von der (subjektiv) gewählten a-priori-Verteilung
abhängen.
Prof. Dr. Norbert Henze
Das Buch wendet sich an Schüler und Studenten, die als "Statistikanfänger"
mit Problemen aus Wahrscheinlichkeitsrechnung und Statistik im Alltag
konfrontiert werden. Die Autoren vertreten die Ansicht, dass viele
Probleme aus diesem Bereich "völlig ohne Formeln schon
durch bloßes Nachdenken gelöst werden können"
(S. 7) und wollen dies in ihrem Buch zeigen, "dabei auf dem
aufbauen, was wir schon intuitiv können" (S.8).
Knifflige Beispiele für "Wahrscheinlichkeiten im Alltag" bilden den Einstieg in das
Buch (Kapitel 1) und die Autoren verstehen es, ihren Lehrgang so
systematisch aufzubauen, dass der Leser auf die Lösung der
anfangs angesprochenen Probleme vorbereitet wird. Die einzelnen
Kapitel werden abgerundet durch einen Abschnitt "Was Sie in
diesem Kapitel gelernt haben sollen" und einer Sammlung von
Aufgaben, die sich auf den zurückliegenden Abschnitt beziehen
und an denen der Leser überprüfen kann, ob er die
vermittelten Methoden verstanden hat.
Mit vergleichsweise viel Aufwand wird am Anfang des Buches (Kapitel 2: Das Schätzen
von Wahrscheinlichkeiten) die Methode der Simulation vorgestellt;
damit verbunden ist die Konstruktion von geeigneten "virtuellen
Urnen" für unterschiedliche Zufallsversuche. Der Leser
erfährt - an Beispielen veranschaulicht - worauf bei der
Zusammensetzung der Urne und beim Ziehungsvorgang zu achten ist.
Gleichzeitig wird die Vielseitigkeit der mitgelieferten Software
verdeutlicht, mit der sehr unterschiedliche Urnenzusammensetzungen
definiert und Ziehvorgänge simuliert werden können.
Kapitel 3 (Konjunktionen und Disjunktionen) widmet sich den Problemen und
Missverständnissen, die mit der Verwendung der Wörter "und"
bzw. "oder" in der Alltagssprache und in der Logik
verbunden sind sowie den sich hieraus ergebenden Fehlschlüssen
im Zusammenhang mit der Einschätzung von Anteilen bei
statistischen Erhebungen. Auch die hier angesprochenen Probleme sind
gut ausgewählt und haben mit den Alltagserfahrungen der Leser zu
tun.
Den Schwierigkeiten im Umgang mit bedingten Wahrscheinlichkeiten widmet sich Kapitel 4. Die
Autoren gehen auch hier insbesondere auf die mit der Verwechslung von
Ereignis und Bedingung verbundenen Missverständnisse und
Fehlschlüsse ein; auch hier sind die verwendeten Beispiele 'dem
Alltag' entnommen. Bei der Auflösung der Trugschlüsse
werden Baumdiagramme und Häufigkeitsraster zur Veranschaulichung
benutzt.
Dass Stichprobenverteilungen bei kleineren Stichproben - relativ gesehen -
stärker streuen als bei größeren Stichproben wird in
Kapitel 5 (Genauigkeit von Wahrscheinlichkeitsschätzungen)
mithilfe von Simulationen verdeutlicht und in realen
Anwendungssituationen in ihren Auswirkungen gezeigt; dennoch scheinen
die Autoren - trotz des Anspruchs, den der Untertitel des Buches
erhebt - nicht auf einen Theorieeinschub ("Die genaue Lösung")
verzichten zu können. Trotz dieses kritischen Einwands kann
bestätigt werden, dass die anschauliche Hinführung zur
Frage der Genauigkeit einer Schätzung gelingt. Auch werden hier
bereits Fragestellungen wie Konfidenzintervall - Bestimmung ("Was
ist in der Urne?") und Hypothesentest ("Stimmt die Annahme
über die Urne?") vorbereitet. Historische Beispiele runden
diesen Einstieg in die Fragestellungen der Beurteilenden Statistik ab
("Auf was muss man achten?").
Kapitel 6 widmet sich ausführlich den Konfidenzintervallen. Auch hier wird mithilfe
von Simulationen anschaulich dargestellt, was mit
90%-Konfidenzintervallen gemeint ist; die Bestimmung der
Konfidenzintervalle selbst wird dem beigefügten Computerprogramm
überlassen. Was die Theorie angeht, kommt es in diesem Kapitel
'knüppeldick': Wie nebenbei werden die Standardnormalverteilung,
die Standardisierung, Erwartungswert und Varianz eingeführt (s.
u.).
Entsprechend unterscheidet sich die Behandlung des Themas "Signifikanztest"
(Kap. 7) kaum von den Darstellungen in gängigen Stochastik -
Schulbüchern: Beschreibung der Vorgehensweise, mögliche
Fehler, Interpretation der Ergebnisse, Abhängigkeit vom
Stichprobenumfang, Zusammenhang mit der Konfidenzintervall-Bestimmung
Das letzte Kapitel (Metaanalyse) beschäftigt sich allgemein, aber beispielgebunden
mit dem Schätzen von Parametern und dem Vergleich von
empirischen Varianzen und gibt damit einen guten Einblick in
Anwendungsprobleme aus der Praxis wissenschaftlichen Arbeitens.
Mit Kapitel 7 endet der Kurs, der auf ca. 110 Seiten Methoden der Statistik anhand von
ebenfalls anregenden Beispielen erläutert und zweifelsohne näher
bringt.
Danach folgen Anhänge mit Formeln und Definitionen (A), Erläuterungen zum
mitgelieferten Trainingsprogramm (B) sowie Hinweise auf
weiterführende Literatur (C).
Dass sich das Anliegen "Statistik ohne Formeln" nicht so einfach realisieren
lässt, wird jedoch jedem Kenner der Materie von vorne herein
klar gewesen sein; vielleicht hätten die Autoren diesen
Untertitel besser weggelassen. Schon zu Beginn des Buches stellt sich
dem Leser die Frage, ob es tatsächlich einen Verzicht auf
Formeln darstellt, wenn der Begriff der relativen Häufigkeit
beim Münzwurf mit den Worten "Anzahl von 'Kopf' durch
Anzahl aller Münzwürfe" eingeführt wird (S. 9)?
Weiter steht z. B. auf S. 27 die 'Produktregel für unabhängige
Ereignisse': "Die Wahrscheinlichkeit der Konjunktion mehrerer
unabhängiger Ereignisse, d.h. die Wahrscheinlichkeit, dass
mehrere unabhängige Ereignisse alle zusammen auftreten, ist das
Produkt der einzelnen Wahrscheinlichkeiten, die ähnlich wie in
den meisten Schulbüchern zur Stochastik über relative
Häufigkeiten motiviert wird.
Der Regel 'ohne Formel' (?) folgt als Anwendungsbeispiel die Bestimmung der Wahrscheinlichkeit für
einen Sechser im Lotto: 6/49×5/48×4/47×3/46×2/45×1/44
= 1/13983816, was sich ohne entsprechende Vorüberlegungen wohl
kaum "kurz" machen lässt (S. 29). Später wird
eher beiläufig die Wahrscheinlichkeitsberechnung bei
Binomialverteilungen behandelt (S. 71-75) und so getan, als wäre
alles ganz einfach und plausibel. Dass sich die Varianz als "Summe
der quadrierten Abweichungen vom Erwartungswert mal der
Wahrscheinlichkeit der einzelnen Werte" berechnet, erfahren
Schüler auch im normalen Unterricht bzw. Studenten in der
Vorlesung - meistens allerdings als Formel, die man mit Worten
wiedergeben können muss. Es wird bezweifelt, ob die reine
Textform genügt (S. 91).
Wie erwähnt, bezieht sich diese Kritik am Lehrbuch nur auf den Anspruch, Statistik
ohne Formeln vermitteln zu können. Man muss den Autoren
bestätigen, dass sie einen anregenden Text über die
Fragestellungen der Statistik verfasst haben, der sich flüssig
lesen lässt. Der im Kapitel 1 durch die Eingangsbeispiele
beschriebene Rahmen wird eingehalten; der rote Faden geht dabei nie
verloren. Die Beispiele sind - von wenigen Ausnahmen abgesehen -
tatsächlich anwendungsorientiert und alltagsnah.
Man benötigt zunächst einige Zeit, um mit der mitgelieferten Software zurecht
zu kommen; bei einiger Übung erkennt man jedoch schnell die
Vielseitigkeit der Einsatzmöglichkeiten. Vielleicht hätte
eine etwas geringere Gestaltungsmöglichkeit bei der Definition
des Inhalts einer Urne die Geschwindigkeit der Software erhöht.
Zusammengefasst: Das Buch ist eine motivierende Lektüre, das mit der geschickten
Auswahl der Beispiele über typische Fehlschlüsse der
Statistik informiert und damit anregt, sich näher mit den
Fragestellungen zu beschäftigen. Ob dies ohne Formeln und
Theorie möglich ist, wird bezweifelt - vermutlich auch von den
Autoren selbst.
Heinz Klaus Strick
Das Buch im Umfang von 232 Seiten ist - um mit dem äußeren Erscheinungsbild zu
beginnen - gut gegliedert und vor allem durch die Verwendung von
Farben übersichtlich gestaltet. Der inhaltliche Aufbau ist gut
gelungen. Vor allem wird in dem Abschnitt über Signifikanztests
deutlich, auf welch schwankendem Boden sich Testverfahren bewegen.
Vom Alternativtest mit seinem uneingeschränkten
Anwendungsbereich einmal abgesehen, werden im Einzelfall stets
empirische Informationen zusätzlich benötigt und auch dann
stellen die Verfahren keine wesentliche Präzisierung von
Pi-mal-Daumen-Überlegungen dar.
Das Buch enthält viel zu viel Stoff. Offenbar ist der kommerzielle Druck, dass die
Leser für ihr gutes Geld auch viel bedrucktes Papier sehen
wollen, recht groß. Wie sich diese Fülle aus pädagogischer
Sicht ausnimmt, steht auf einem anderen Blatt. Die übergroße
durchschnittliche Textfülle pro Seite dürfte jedenfalls
nicht besonders motivierend wirken. Sicherlich erwerben die Benutzer
des Buches viel stochastisches Wissen. Aber lernen sie auch
stochastisches Denken? Sind sie gegen die Irrtümer etwa des
Drei-Türen-Versuchs besser gefeit als andere? Das müsste
natürlich empirisch geprüft werden. Aber der Rezensent
neigt in diesem Punkt zur Skepsis. Offenbar ist der Verlag stolz auf
die Anzahl von 500 Übungsaufgaben, die zum Teil noch weiter
aufgeschlüsselt sind, z.B. Aufgabe W103 in 15 Teilaufgaben. Das
bietet natürlich erhebliche Möglichkeiten der Auswahl. Aber
auch hier gilt: Wer die Wahl hat, hat die Qual. Wie soll etwa eine
Lehrerin oder ein Lehrer bei all den sonstigen Belastungen dazu
kommen, geeignete Aufgaben auszuwählen?
Sowohl bei den Abbildungen als auch bei den Aufgaben und den Beispielen wird
wesentlich der Taschenrechner TI-92 mit einem Computeralgebrasystem
herangezogen. Das ist jedoch eine zweischneidige Sache. Denn
einerseits kann man nur begrüßen, dass die oft erhobene
Forderung nach dem Einsatz der neuen Technologien im
Mathematikunterricht endlich in die Tat umgesetzt wird.
Andererseits ist das Gerät TI-92 nicht gerade billig und kann weder als Klassensatz
noch als private Investition der Schülerinnen und Schüler
als selbstverständlich vorausgesetzt werden. Die vielen
Abbildungen von Bildschirmausgaben können trotz der farblichen
Gestaltung wahrlich nicht als prägnante Darstellungen gelten und
haben für diejenigen, die mit den Geräten nicht arbeiten,
wenig Wert. Zwar schreibt der Verlag, dass die Rechnernutzung keine
Voraussetzung beim Gebrauch des Buches sei. Aber daran gemessen,
nimmt der Taschenrechner einen zu großen Umfang ein.
Unter lerntheoretischen Aspekten sollte erwähnt werden, dass in dem Buch wirkungsvoll
von der Methode des Lernens am Beispiel Gebrauch gemacht wird und
zwar in der doppelten Form, dass einerseits allgemeine Erkenntnisse
noch durch die Erläuterung am Beispiel verdeutlicht werden und
andererseits dadurch dass allgemeine Einsichten induktiv anhand von
Beispielen entwickelt werden.
Das Buch kann ohne Einschränkung allen Lehramtsstudierenden mit dem Wahlfach
Mathematik empfohlen werden, die zwar die Stochastik nicht als
Schwerpunkt wählen, aber auch nicht unvorbereitet in die Schule
gehen wollen. Das Buch ist zweifelsfrei eine Fundgrube für
jegliche Art von Stochastikaufgaben. Als Schulbuch erscheint es - von
den oben formulierten Einschränkungen abgesehen - für einen
Leistungskurs geeignet. Insbesondere werden Schülerinnen und
Schüler davon profitieren, die sich über die unmittelbaren
Anforderungen des Unterrichts hinaus mit dem Inhalt des Lehrbuchs
auseinander setzen. Wie es in einem Grundkurs eingesetzt werden kann,
bleibt unklar. Auch der Verlag äußert sich nicht dazu.
Manfred Buth
Das 190 Seiten umfassende Buch ist in sechs Kapitel gegliedert:
Dazu kommen Projektvorschläge (11 Seiten) sowie ein Anhang mit
Hinweisen zum Einsatz des TI-92 (2 Seiten), Tabellen (13 Seiten) und
Lösungen zu ausgewählten Aufgaben (5 Seiten).
Die graphische Gestaltung ist ansprechend, farbig, aber nicht bunt, die
Seiten sind nicht überfüllt, Randspalten mit Bildern,
Zeitungsausschnitten, zusätzlichen Erklärungen und
Hinweisen lockern die Darstellung auf. Die Kapitel II, IV und V
werden mit einem kurzen Prolog eröffnet, der den Leser über
Inhalte und Ziele des Kapitels informiert. Die wenigen Druckfehler
wird der aufmerksame Leser selbst finden. Es sei lediglich die
fehlerhafte Abbildung auf S. 45 erwähnt, weil sie besonders
ärgerlich ist.
Das Lehrbuch deckt inhaltlich alle Themen ab, die bundesweit im Kern der
Rahmenpläne zur Stochastik der Sekundarstufe II vertreten sind.
Darüber hinaus werden im Kapitel IV die Poisson-Verteilung, die
geometrische Verteilung und die Exponentialverteilung eingeführt.
Dem in Rahmenplänen beliebten Ergänzungsthema
Markoff-Ketten ist Kapitel VI gewidmet. Der modulare Aufbau
ermöglicht verschiedene Wege durch das Buch. Man kann es für
einen Grundkurs oder für einen Leistungskurs verwenden.
Verbindungen der Stochastik zur linearen Algebra bzw. Analysis werden
in den Kapiteln 5 bzw. 6 geknüpft. Das didaktische Konzept der
Lerneinheiten folgt dem Schema
Danach folgen in allen Kapiteln mit Ausnahme von Kapitel IV Vermischte
Aufgaben als Übungsangebot zum gesamten Lehrstoff des
jeweiligen Kapitels.
Ein besonderes Element sind die Mathematischen Exkursionen, die
auf meistens zwei Seiten Anregungen zum Weiterlesen und
Weiterarbeiten geben. Es wurden als Themen z.B. der Chi-Quadrat-Test,
Fixpunkte bei zufälligen Permutationen, stationäre
Verteilungen bei Markoff-Ketten und Experimentieren und Simulieren
mit dem Computer gewählt. Der Rückblick fasst auf einer
Seite den Lerninhalt des Kapitels zusammen. Ein weiteres
Übungsangebot stellen die Aufgaben zum Üben und Wiederholen
auf einer Seite am Ende jedes Kapitels bereit. Die Lösungen zu
diesen Aufgaben findet man am Ende des Buches. Es gibt Anregungen zum
Einsatz von Excel. Entsprechende Dateien kann man sich kostenlos beim
Verlag herunterladen.
Die Auswahl und Anordnung des Stoffes halte ich für gut gelungen. Es
werden zahlreiche sinnvolle Verbindungen geknüpft wie z.B.
zwischen den σ-Intervallen und dem Testen von Hypothesen,
zwischen dem Testen und den Konfidenzintervallen, zwischen
empirischen Kenngrößen und Modellkenngrößen,
zwischen dem üblichen Mitteln von Messwerten und der
Rechtfertigung in einem Modell. Manche Verbindungen werden aber auch
leider nicht hergestellt wie z.B. diejenige zwischen der
Unabhängigkeit von Ereignissen und der Unabhängigkeit von
Zufallsgrößen. Zu begrüßen sind die explizit
dargestellten Bezüge zur Analysis und zur linearen Algebra.
Der Lehrtext bietet ein Minimum an Informationen, das durch die
Anregungen zum Weiterlesen in den Mathematischen Exkursionen ergänzt
wird. Manche Darstellung gerät allerdings sehr knapp und
erscheint mir zu rezepthaft (insbesondere im Kapitel V). Es kommt
auch zu unzulässigen Verkürzungen. Hier muss der auf
inhaltliches Verständnis ausgerichtete Unterricht unbedingt die
erforderliche Vertiefung bis hin zu einer erforderlichen Korrektur
leisten. Ich möchte dies durch einige Beispiele belegen.
Nicht gelungen erscheint mir vor allem der Umgang mit dem für die
Stochastik fundamentalen Begriff der Unabhängigkeit. Dies
beginnt mit einer asymmetrischen Definition (S. 15), es wird zu wenig
für das inhaltliche Verständnis getan und die Produktformel
wird nicht herausgestellt. Bei den Bernoulli-Ketten wird (diskret) in
der Randspalte (S. 17) von unabhängigen Experimenten gesprochen,
ohne dass dieser Begriff wirklich erklärt wird. Im Rückblick
(S. 38) kommt die Unabhängigkeit gar nicht mehr vor. Mehrstufige
Experimente, die sich aus n Bernoulli-Experimenten mit gleicher
Trefferwahrscheinlichkeit zusammensetzen, sind aber nicht notwendig
Bernoulli-Ketten. Die Unabhängigkeit von Zufallsgrößen
wird gut über die Produktformel eingeführt (S. 71), aber es
wird kein Bezug zur Unabhängigkeit von Ereignissen hergestellt.
Besonders unzulässig verkürzt scheint mir die Einführung
zu stochastischen Prozessen und Markoff-Ketten (S. 106-108). Die
charakteristische Eigenschaft einer Markoff-Kette kommt überhaupt
nicht zum Ausdruck, da der in diesem Kontext m.E. unverzichtbare
Begriff der Unabhängigkeit gar nicht benutzt wird. Die
Begründung des schwachen Gesetzes der großen Zahlen auf S.
37 oben ist ein Beispiel für eine sehr knappe Darstellung. Zudem
fehlt die Forderung für alle ε > 0.
Bei der Approximation der Binomialverteilung durch die Normalverteilung
werden im Buch Faustregeln benutzt. Diese Regeln sollten auch als
solche bezeichnet werden, sonst ist für den Schüler kein
Unterschied zwischen der Pfadregel und der Regel σ > 3
erkennbar. In der Begründung der Näherungsformel auf S. 67
ist die Stetigkeitskorrektur nicht nachvollziehbar. Außerdem
ist unverständlich, warum zwei verschiedene Faustregeln erwähnt
werden, von denen die eine auf S. 68 auch noch anders verwendet wird.
Die Bemerkung auf S. 68 ist so nicht richtig, denn es kommt ja darauf
an, was für Fehler man akzeptiert. In der Lerneinheit 2 von
Kapitel II wird bei der Behandlung des Mindestumfangs der Stichprobe
die hinreichende Bedingung mehrmals als notwendig hingestellt. Die
Darstellung (S. 62) des sogenannten Unabhängigkeitstests knüpft
leider nicht an die des Anpassungstests an und bleibt so im reinen
Rezept stecken. Ein besonders krasses Beispiel für eine knappe
Darstellung ist die Herleitung der Differenzialgleichung auf den
Seiten 82 und 83. Diese Umformungen sind für Schüler wohl
kaum nachvollziehbar. Auf S. 96 ist die Verteilungsfunktion der
Exponentialverteilung falsch und bei der Abbildung auf S. 104 hat die
Ordinatenachse eine Prozenteinteilung, was leider suggerieren könnte,
dass es sich bei den Funktionswerten um Wahrscheinlichkeiten handelt.
Die Aufgaben decken ein breites Spektrum ab:
In diesem reichhaltigen Angebot wird der Leser das für ihn Passende
finden. Positiv hervorzuheben sind auch die zahlreichen Hinweise und
bereitgestellten Dateien für den Computereinsatz zum Zwecke der
Veranschaulichung, zum Experimentieren und Simulieren. Die
Mathematischen Exkursionen auf den Seiten 148-151 beispielsweise
unterstützen sehr gut die Ausführungen um die
Normalverteilung. Sehr gut gefallen mir die Projektvorschläge
mit den Themen
Auch dem Projektvorschlag Hausnummern liegt eine gute Idee zugrunde,
allerdings enthält die Ausführung zu viele Mängel. Das
Beispiel (S. 160) ist falsch (Man vergleiche mit Aufgabe 3). In der
Aussage von Aufgabe 2d) ist ein Fehler. Die Aussagen zum Mittelwert
und zum Erwartungswert der Hausnummern sind unklar. Wäre der
Erwartungswert der größten Hausnummer gemeint, dann wäre
die Aussage von Aufgabe 2e) richtig. Dann hätte auch die
Anleitung einen Sinn. Fig. 1 und Aufgabe 3 auf S. 161 suggerieren
aber, dass das arithmetische Mittel aller Hausnummern in einem
Versuch (10 Straßen bzw. 20 Straßen) gemeint ist. Dann
ist die Aussage 2e) falsch.
Eine zusammenfassende Wertung fällt schwer, wie aus der Schilderung
der Vorzüge und Schwächen des Buches hervorgeht. Ich möchte
es so formulieren: Das Buch enthält eine Fülle von
Anregungen für einen interessanten Stochastikunterricht, aber es
kann wohl nicht als alleinige Grundlage dafür dienen.
Elke Warmuth
Zusammenfassung: Es handelt sich um ein neubearbeitetes Schulbuch für
Mathematik-Grundkurse in der Kursstufe (Jahrgänge 12 und 13) der
gymnasialen Oberstufe, das alle drei Gebiete (Analysis, Lineare
Algebra und Analytische Geometrie sowie Stochastik) enthält. Die
nun folgende Rezension bezieht sich nur auf die stochastischen
Inhalte des Buches.
Zum allgemeinen Aufbau:
In drei Kapiteln (Grundlagen der Wahrscheinlichkeitsrechnung, Zufallsgrößen
- Verteilungen - Erwartungswert, Beurteilende Statistik) wird genug
Stoff angeboten, aus dem ein interessantes und anspruchsvolles
Grundkurs-Curriculum gestaltet werden kann. Die Hinführung zur
Theorie und zu Problemlösestrategien erfolgt durch motivierende
Aufgaben mit ausführlich ausgearbeiteten Musterlösungen.
Weiterführende Aufgaben, Übungsaufgaben zur Festigung und
Vertiefung des Erarbeiteten und Informationen runden den jeweiligen
Abschnitt ab. Am Ende jedes Kapitels befinden sich vermischte
Übungen, Klausuraufgaben und Fragen zum Basiswissen. In den
Stochastikteil werden drei Blickpunkt genannte Abschnitte ("Das
Geburtstagsproblem oder Wiederholungen treten bei Zufallsversuchen
öfter auf als vermutet", "Das 1/e-Gesetz und die
Eulersche Zahl e in der Stochastik", "Test auf
Zufälligkeit") sowie drei Exkurse ("Anmerkungen zur
Geschichte der Wahrscheinlichkeit", "Mathematisches
Modellieren" sowie "Meinungsbefragung als Beispiel einer
Stichprobenentnahme") eingebettet, in denen interessante
Erweiterungen und Vertiefungen angeboten werden. Am Ende des
Stochastikteils werden Aufgaben zur Vorbereitung auf das Abitur
gestellt, zwei Tabellen (kumulierte Binomialverteilung für
ausgewählte Erfolgswahrscheinlichkeiten p mit n = 10 und n =
100, Wahrscheinlichkeiten für σ-Umgebungen) abgedruckt,
Lösungen zu den Klausurtrainingsaufgaben sowie ein Überblick
über den gesamten Stochastikkurs gegeben. Ein
Stichwortverzeichnis und ein Verzeichnis aller verwendeten Symbole
runden das Buch ab.
Mit diesem Buch wird ein Stochastikunterricht möglich,
in dem die Lernenden stark an der Erarbeitung und Darbietung teilhaben können, und
bei dem exemplarisch der Umgang mit wissenschaftlicher Literatur
eingeführt und eingeübt werden kann. Die Grundlagen werden
sehr ausführlich und sorgfältig gelegt. Dies werden alle
Lehrenden begrüßen, die ihren Stochastikunterricht in der
gymnasialen Oberstufe voraussetzungslos beginnen müssen, da
Lernende leider immer noch nicht überall bis zur 10. Klasse
stochastische Vorkenntnisse erwerben können und in
stochastisches Denken eingeführt werden. Bewährte Aufgaben
und Probleme der bisherigen Auflagen wurden beibehalten. Neue
Aufgaben beleben die Darstellung. In Zusammenhang mit bedingten
Wahrscheinlichkeiten und Vierfeldertafeln werden unterschiedliche
Darstellungs- und Interpretationsmöglichkeiten für
alltägliche Phänomene vorgestellt. Dieser Teil kann
Lehrende wie Lernende motivieren, in Zeitungen nach solchen
interessanten aktuellen Beispielen aus ihrer eigenen Umgebung zu
suchen. Historische Bezüge (Mathematiker auf Briefmarken und
Probleme, die die Entwicklung der Stochastik geprägt haben)
bereichern die Darstellung im Theorieteil wie in den Aufgaben. Beim
Testen von Hypothesen wird sehr sorgfältig die Testlogik des
klassischen Testens herausgearbeitet und die unterschiedlichen
Interessen (Produzent, Konsument) bewusst gemacht. Im Stochastikteil
dieses Buches wird die enorme Bandbreite stochastischer
Fragestellungen und die große Relevanz stochastischer Methoden
beispielhaft auf Grundkursniveau aufgezeigt.
Bei allen Vorzügen, die dieses Buch aufweist:
Es bleiben noch einige Wünsche, deren Erfüllung zur weiteren Verbesserung
zukünftiger Neuauflagen führen kann:
Wägt man die Schwächen und die Stärken dieses Buchs gegeneinander ab,
bleibt ein insgesamt sehr positiver Eindruck. Wer bereits mit den bisherigen Ausgaben
gearbeitet hat, wird sich gern auf diese Neubearbeitung einlassen,
den anderen Lehrenden sei eine intensive unterrichtliche Erprobung
dieses Schulbuchs unbedingt empfohlen.
Helmut Wirths
Stochastik in der Schule 13 (1993)1, 49
Stochastik
in der Schule
Band 13 (1993)
Heft 3
Jörg Meyer: Rezension von
'Heinz Althoff und Dieter Koller: Mündliches Abitur Mathematik. Anregungen und Hilfen für Schüler und Lehrer'
Klett, Stuttgart 1992, 221 S., ISBN 3-12-724030-9
Stochastik in der Schule 13(1993)3, 47-49
Stochastik
in der Schule
Band 13 (1993)
Heft 3
Hans-Dieter Sill: Rezension von
'Manfred Borovcnik: Stochastik im Wechselspiel von Intuition und Mathematik'
BI-Wissenschaftsverlag, Mannheim 1992, Lehrbücher und Monographien zur Didaktik der Mathematik, Band 10, 453 S., ISBN 3-411-03206-5
Stochastik in der Schule 18 (1998) 3, 50
Stochastik
in der Schule
Band 15 (1995)
Heft 1
Herbert Henning und Brigitte Leneke: Rezension von
'Herbert Kütting: Beschreibende Statistik im Schulunterricht'
Lehrbücher und Monographien zur Didaktik der Mathematik, Band 24. BI-Wissenschaftsverlag,
Mannheim 1994, ISBN 3-411-16841-2
Stochastik in der Schule 15(1995)1, 54-55
Stochastik
in der Schule
Band 15 (1995)
Heft 1
Gerhard König: Rezension von
'Alfred Müller (Hrsg.): Unterrichtsmaterialien für Lehrkräfte der Sekundarstufe II. Wahrscheinlichkeitsrechnung und Statistik'
Loseblattsammlung. Stark Verlag, Freising
Stochastik in der Schule 15(1995)1, 56-57
Stochastik
in der Schule
Band 15 (1995)
Heft 3
Gerhard Brüstle: Rezension von
'Karl Bosch: Lotto und andere Zufälle. Wie man die Gewinnquoten erhöht'
Vieweg, Wiesbaden 1994; 260 S.
Stochastik in der Schule 15(1995)3, 50-52
Stochastik
in der Schule
Band 15 (1995)
Heft 3
Gerhard König: Rezension von
'Gerhard Brüstle: Einführung in die Wahrscheinlichkeitsrechnung in der Klasse 10'
Landesinstitut für Erziehung und Unterricht (LEU), Stuttgart 1994
Stochastik in der Schule 15(1995)3, 53-55
Stochastik
in der Schule
Band 16 (1996)
Heft 3
Gerhard König: Volksweisheiten irren? Sammlung von Vor- und Fehlurteilen
Rezension zu Walter Krämer und Götz Trenkler: Lexikon der populären Irrtümer
Eichborn Verlag, Frankfurt am Main 1996
Stochastik in der Schule 16(1996)3, 47-49
Stochastik
in der Schule
Band 18 (1998)
Heft 2
Paul Bungartz: Rezension von
'Norbert Henze: Stochastik für Einsteiger'
Vieweg, Wiesbaden 1997, 303 S., ISBN 3-528-06894-9
Stochastik in der Schule 18(1998)2, 44-46
Übersetzung der Rezension: Manfred Borovcnik, Klagenfurt
Stochastik
in der Schule
Band 18 (1998)
Heft 3
Julie Charlton: Rezension von
'Graham Upton, Ian Cook: Statistik verstehen'
Oxford: Oxford University Press, 1997
Stochastik in der Schule 18 (1998) 3, 50
Stochastik
in der Schule
Band 18 (1998)
Heft 3
Uwe Küchler: Rezension von
'Norbert Schmitz: Stochastik für Lehramtsstudenten'
Münsteraner Einführungen: Mathematik, Informatik. Münster: Lit. 1997, 209 S.
Stochastik in der Schule 18 (1998) 3, 51-53
Stochastik
in der Schule
Band 21 (2001)
Heft 3
Joachim Engel: Rezension von
'Hans-Joachim Mittag und Dietmar Stemann: Multimedia-Lernsoftware: Beschreibende Statistik und explorative Datenanalyse'
2. Auflage - Fernuniversität Hagen, 2001 www.fernuni-hagen.de/STATISTIK
Stochastik in der Schule 21(2001) 3, 32-33
Stochastik
in der Schule
Band 21 (2001)
Heft 3
Norbert Henze: Rezension von
'Manfred Borovcnik, Joachim Engel, Dieter Wickmann (Hrsg.) Anregungen zum Stochastik-Unterricht: Die NCTM-Standards 2000 – Klassische und Bayessche Sichtweise im Vergleich'
Verlag Franzbecker, Hildesheim, Berlin 2001, ISBN 3-88120-322-2
Stochastik in der Schule 21(2001)3, 34-35
Stochastik
in der Schule
Band 21 (2001)
Heft 3
Heinz Klaus Strick: Rezension von
'P. Sedlmeier, Detlef Köhlers: Wahrscheinlichkeiten im Alltag – Statistik ohne Formeln'
Westermann, Braunschweig 2001, 148 S. mit CD-ROM
Stochastik in der Schule 21(2001) 3, 36-37
Stochastik
in der Schule
Band 23 (2003)
Heft 1
Manfred Buth: Rezension von
'I. Kantel, Dr. H. v. Lojewki, A. Messner, B. Wießer: Stochastik'
Paetec, Berlin 2001, 232 S.
Stochastik in der Schule 23(2003) 1, 31
Stochastik
in der Schule
Band 23 (2003)
Heft 3
Elke Warmuth: Rezension von
'LS Stochastik – Mathematisches Unterrichtswerk für das Gymnasium'
Ernst Klett, Stuttgart, Düsseldorf, Leipzig 2003
Stochastik in der Schule 23(2003) 3, 30-3
Stochastik
in der Schule
Band 23 (2003)
Heft 3
Helmut Wirths: Rezension von
'Elemente der Mathematik 12/13 – Grundkurs'
Schroedel Verlag, Hannover 2003
Stochastik in der Schule 23(2003) 3, 32-33