Wahrscheinlichkeitsbäume sind bequeme Hilfsmittel zur Darstellung von Zufallsprozessen. Ecken repräsentieren Zufallsverzweigungen, Kanten stehen für die entsprechenden Ereignisse. Wahrscheinlichkeitsbäume sind kantengewichtete Graphen: jeder Kante wird eine Zahl (die Wahrscheinlichkeit für das Eintreten des Ereignisses, das sie darstellt) zugeordnet. Der häufigste Anwendungstyp besteht darin, die Wahrscheinlichkeit eines Ereignisses zu berechnen, indem die Gewichte der Kanten, die von der Wurzel zu ihm führen, miteinander multipliziert werden. In der Praxis tritt jedoch oft eine andere Fragestellung auf: Ein Zufallsereignis (z.B. ein Messwert) ist eingetreten, und man möchte nun gerne seine Ursache kennen. Falls das Ereignis mehrere Zufallsprozesse als "Ursache" haben kann, lässt sich zwar seine Eintrittswahrscheinlichkeit in jedem diese Prozesse berechnen, aber das beantwortet nicht die Frage, mit welcher Wahrscheinlichkeit jeder dieser Prozesse der Verursacher gewesen ist. Die Fragestellung führt zur Betrachtung bedingter Wahrscheinlichkeiten mit "vertauschten Argumenten". Vereinfacht ausgedrückt, stellt sich die Situation so dar: Die Berechnung von P(Ereignis|Prozess) ist sehr einfach, aber eigentlich ist P(Prozess|Ereignis) gesucht. Für eine solche Vertauschung der Argumente ist der Satz von Bayes zuständig. Daher kann die Lösung des Problems ganz im Rahmen der elementaren Wahrscheilichkeitsrechnung erfolgen, aber es ist nicht leicht, unter dem Bayesschen Satz mehr zu verstehen als eine abstrakte Identität (eine anzuwendende "Formel"). Zwei Hilfsmittel können die Behandlung derartiger Probleme erleichtern und verleihen dem Satz von Bayes eine anschauliche Note: der geschickte Einsatz von (miteinander kombinierten) Wahrscheinlichkeitsbäumen und der Begriff der Apriori-Wahrscheinlichkeit. Letzterer hat darüber
hinaus auch eine praktische Dimension: Apriori-Wahrscheinlichkeiten
können oft sehr genau bestimmt werden, manchmal aber stecken in
ihnen äußerst unsichere Annahmen.
Wir beginnen mit folgender Situation: Jemand besitzt zwei "Zufallsgeneratoren", die zwei Ereignisse 0 und 1 als mögliche Ausgabewerte besitzen:
Mathematisch betrachtet, stellt jedes der beiden Geräte eine Wahrscheinlichkeitsverteilung (einen Zufallsprozess) für die Ereignismenge {0, 1} dar. Die zugehörigen Baumdiagramme sehen so aus: Nun stellen wir uns vor, mit einem der beiden Geräte wurde eine Zufallszahl ermittelt, und das Resultat war 1. Ist es möglich, Mutmaßungen darüber anzustellen, welche der beiden Methoden benutzt wurde? Solle man in einer Wette eher auf Münze oder eher auf Würfel setzen? Wir heben die beiden 1er in den Wahrscheinlichkeitsbäumen hervor: Können wir eine Wahrscheinlichkeitsaussage darüber machen, ob es sich eher um den Münz-1er oder eher um den Würfel-1er handelt? Das ist klarerweise nur dann möglich, wenn eine Annahme darüber gemacht wird, mit welchen Apriori-Wahrscheinlichkeiten Münze und Würfel zum Zug kommen. Wir stellen uns nun vor, verdeckte Recherchen ergeben, dass der Urheber dieses Spiels in der Regel die Münze bevorzugt: Es wählt sie mit Wahrscheinlichkeit 4/5, während er zum Würfel nur mit Wahrscheinlichkeit 1/5 greift. Das sind genau die benötigten Apriori-Wahrscheinlichkeiten! Wir können nun den Auswahlprozess zwischen den Geräten vor unsere - bisher getrennt betrachteten - Wahrscheinlichkeitsbäume "schalten" und diese damit in einen einzigen Baum einbauen: Jetzt ist eine Rechnung möglich. Vier Dinge können passieren, mit folgenden Wahrscheinlichkeiten:
Die Wahrscheinlichkeiten, mit der die beiden 1er auftreten (die Zahlen p und q), sind der Schlüssel zur Antwort auf unsere Frage. Sie erlauben unmittelbar die Anwendung der Elementarformel
Was sind die "günstigen", was die "möglichen" Fälle? Um das ganz explizit zu sehen, nehmen wir an, dass das Spiel 1500 mal durchgeführt wird und schreiben anstelle der Wahrscheinlichkeiten (d.h. der erwarteten relativen Häufigkeiten) die erwarteten absoluten Häufigkeiten zu den einzelnen Kanten (dazu fügen an der Spitze des obigen Diagramms die Gesamtzahl 1500 ein und multiplizieren alle Wahrscheinlichkeiten mit dieser): Dabei ignorieren wir die erwarteten statistischen Schwankungen. (Statt 1500 kann N gesetzt und beliebig groß gemacht werden). Wir interessieren uns nur für die Fälle, in denen das Resultat 1 ist. Das geschieht insgesamt 800 mal. In 600 Fällen wurde die Münze, in 200 Fällen wurde der Würfel benutzt. Die Zahl der "möglichen" Fälle ist daher 800, die Zahl der "günstigen" Fälle ist 600 für den 1er vom "Münzzweig" und 200 für den 1er vom "Würfelzweig". Die entsprechenden Wahrscheinlichkeiten sind 600/800 = 3/4 und 200/800 = 1/4, womit das Problem gelöst ist. (Wir würden daher in einer Wette auf Münze setzen und sie mit der Wahrscheinlichkeit 3/4 gewinnen). Auf die Gesamtzahl der durchgeführten Spiele (1500) kommt es natürlich nicht an - sie kürzt sich aus der Rechnung heraus. Wir können statt dessen die Wahrscheinlichkeiten des darüberstehenden Diagramms benutzen:
Im ersten Fall ergibt sich (2/5)/(2/5 + 2/15) = 3/4, im zweiten Fall finden wir (2/15)/(2/5 + 2/15) = 1/4. Es sind also nur die beiden Zahlen p und q sind nötig, um das Problem zu lösen. Die Wahrscheinlichkeiten dafür, dass der zufallsgenerierte 1er von der Münze oder vom Würfel stammt, verhalten sich wie p : q, d.h. wie 2/5 : 2/15 (oder, gekürzt, wie 3 : 1). Die Nenner in (2) und (3) dienen lediglich der Normierung. Der Lösungsvorgang kann in Stichworten so rekapituliert werden:
Wir wollen nun
kurz überlegen, wie wir diesen Lösungsweg formalisieren können.
Unter Benutzung des oben konstruierten Wahrscheinlichkeitsbaumes können wir zurückverfolgen, wie die Zahlen p und q zustande kommen:
Dabei verwenden wir die übliche Notation P(A|B) für bedingte Wahrscheinlichkeiten. Wird der senkrechte Strich als "unter der Voraussetzung" gelesen, sollte die Bedeutung dieser Schreibweise auch ohne großen Definitionsaufwand klar sein:
Diese beiden Zahlen ergeben sich aus den für Münze und Würfel charakteristischen Wahrscheinlichkeitsverteilungen und haben nichts mit dem Auswahlprozess zwischen ihnen zu tun. Die Regel, die wir dabei "entdeckt" haben, ist genau der Satz von Bayes. Um ihn etwas allgemeiner zu formulieren, betrachten wir ein (endliches) Ensemble von Zufallsprozessen, aus dem einer ausgewählt wird und das Eintreten (oder Nicht-Eintreten) gewisser Ereignisse zur Folge hat. Zwei Arten von Wahrscheinlichkeiten treten auf:
Satz von Bayes: Tritt das Ereignis A ein, und ist unbekannt, welcher der Prozesse zuvor ausgewählt wurde, so ist die Wahrscheinlichkeit, dass es der k-te Prozess war, durch
gegeben, wobei sich die Summe im Nenner über alle Zufallsprozesse erstreckt, die zur Auswahl stehen. Dieser Satz lässt sich in natürlicher Weise auf (abzählbar- und überabzählbar-)unendliche Ensembles von Wahrscheinlichkeitsverteilungen verallgemeinern.
In unserem obigen Beispiel kann k die Werte "Münze" und "Würfel" annehmen, und das Ereignis A steht für 1. Der Ausdruck (6) wird genau zu (2) und (3), mit (4) und (5) eingesetzt. Wir fassen zusammen: Aufgaben, in denen aus der Wirkung eines Zufallsprozesses auf die Natur des sie verursachenden Prozesses rückgeschlossen werden soll, können - nach Annahme von Apriori-Wahrscheinlichkeiten für die in Frage kommenden Prozesse -
gelöst werden. (Sind nur endlich viele Prozesse im Spiel, so sind beide Methoden äquivalent). Für Unterrichtszwecke wird die erste oft die gegebene sein (insbesondere, wenn die Anzahl der zur Auswahl stehenden Prozesse und die Anzahl der möglichen Ereignisse klein ist). Nach mehrmaliger selbständiger Anwendung durch die SchülerInnen sollte sich auch ein gewisses Verständnis für die Formalisierung dieses Vorgangs, d.h. für die zweite Methode erzielen lassen. Übungsbeispiel:
Formulieren Sie den Satz von Bayes in der Formulierung ( 6' )
in Worten !
Um den (wahrscheinlichsten) Verursacher gewisser Erscheinungen ausfindig zu machen, werden in der Praxis viele Daten erhoben. Mit jeder gemachten Beobachtung (durchgeführten Messung) wächst die Sicherheit. Betrachten wir wieder unser obiges Münze-Würfel-Beispiel. Das Ereignis A stehe nun für die Realisierung einer Folge von Zufallszahlen. Wie nehmen an, es wurde die Folge 011011 in 7 voneinander unabhängigen Würfen mit einer der beiden Methoden (Münze oder Würfel) erhalten. Wie würden wir diesmal wetten? Gefühlsmäßig sieht es diesmal sehr nach dem Würfel aus, da doppelt so viele 1er vorkommen wie 0er. Das entspricht genau der Wahrscheinlichkeitsverteilung des Würfels. Wie sicher können wir uns sein? Wir sparen uns nun das Zeichnen eines Diagramms. Die Wahrscheinlichkeiten für das Eintreten der Folge 011011 sind
Die numerischen Werte dieser Zahlen sind (gerundet) 0.016 und 0.022. Die Zufallsfolge 011011 zu erhalten, ist für den Würfel etwas wahrscheinlicher als für die Münze. Die Anwendung des Bayesschen Satzes mit den Apriori-Wahrscheinlichkeiten P(Münze) = 4/5 und P(Würfel) = 1/5 ergibt
Die Summe der beiden Wahrscheinlichkeiten muss 1 sein. Das bestimmt c, und wir erhalten P(es war die Münze) » 0.7401 und P(es war der Würfel) » 0.2599. Wir würden also diesmal auf Münze setzen, sollten uns aber nicht allzu sicher sein: Mit immerhin 26%iger Wahrscheinlichkeit verlieren wir die Wette! Wenn n Würfe gemacht wurden und die relative Häufigkeit der 0er und 1er exakt mit der Wahrscheinlichkeitsverteilung der Münze übereinstimmen, nimmt die Wahrscheinlichkeit, dass es dennoch der Würfel war, mit zunehmendem n exponentiell ab, aber mit kleinem Vorfaktor im Exponenten. Selbst bei n = 60 liegt sie immerhin noch bei 0.7%!
Eine typische Anwendung des Bayesschen Satzes ergibt sich aus folgender Situation: Ein Symptom S kann von zwei bekannten Krankheiten A und B hervorgerufen werden (sagen wir, A sei selten und gefährlich, B sei häufig und harmlos), aber auch bei gesunden Menschen (C) auftreten. Wenn das Symptom bei jemandem auftritt, möchte man wissen, mit welcher Wahrscheinlichkeit er welche Krankheit hat. Epidemiologische und medizinische Untersuchungen studieren normalerweise nicht direkt diese Frage, sondern die Häufigkeit von Symptomen bei gegebenen Krankheiten, beispielsweise
und die Erkrankungswahrscheinlichkeiten, beispielsweise
woraus wir schließen, dass mit Wahrscheinlichkeit 0.84 keine der beiden Krankheiten (sondern Kategorie C) vorliegt. Mit Hilfe dieser Daten können wir die gestellte Frage beantworten. Die erste Tabelle definiert drei Zufallsprozesse A, B und C. Die zweite legt fest, mit welchen Apriori-Wahrscheinlichkeiten sie auftreten. Das zugehörige Baumdiagramm sieht so aus: Bei Auftreten des Symptoms S sind die Wahrscheinlichkeiten, an A bzw. B erkrankt bzw. gesund zu sein, gemäß dem Bayesschen Satz (6) durch
gegeben. Unser Patient braucht sich also keine übermäßigen Sorgen zu machen (obwohl eine Abklärung sinnvoll ist, denn von 1000 Patienten, bei denen das Symptom auftritt, werden ungefähr 40 tatsächlich an A erkrankt sein).
|
¬ Bewertung von Webseiten durch Google |
Übersicht |
Kann man Quanten- zustände messen? ® |