Wir wollen den unbekannten Parameter [Graphics:MaxLikegr1.gif] eines Bernoulli-Experiments anhand einer konkreten Stichprobe vom Umfang 100 schätzen. Zur Erinnerung: ein Bernoulli-Experiment nimmt mit Wahrscheinlichkeit [Graphics:MaxLikegr2.gif] den Wert 1 (=Erfolg) und mit Wahrscheinlichkeit 1-p den Wert 0 (=Mißerfolg) an. Die Zufallsvariable X nimmt also nur 2 Werte an, deren (höchsttriviale) Verteilung ist in Mathematica unter dem Namen "BernoulliDistribution[p]" verfügbar.

[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr3.gif]

[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr5.gif]

[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr6.gif]

[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr7.gif]

[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr8.gif]
[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr9.gif]

(Wir merken uns den Wert für später, um die Güte unserer Schätzung beurteilen zu können. Normalerweise ist aber [Graphics:MaxLikegr10.gif] sowieso unbekannt!)

[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr11.gif]

[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr12.gif]

Die Idee des Verfahrens ist nun: Für unbekanntes p ermitteln wir die Wahrscheinlichkeit für das Auftreten einer konkreten Stichprobe [Graphics:MaxLikegr13.gif], d.h. die Wahrscheinlichkeit

[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr14.gif]

Für unabhängige Zufallsvariable gilt nun ein Multiplikationssatz (ähnlich dem für unabhängige Ereignisse), sodaß wir die gesuchte Wahrscheinlichkeit durch

[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr15.gif]

erhalten. Diese Funktion hängt nun noch von den Werten der konkreten Stichprobe und von dem in der Zufallsvariable X enthaltenen unbekannten Parameter p ab. Setzen wir aber die bekannten Werte der konkreten Stichprobe ein, so erhalten wir eine Funktion, die nur mehr von p abhängt!

[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr16.gif]
[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr17.gif]

Wir nennen diese Funktion die Likelihood-Funktion der konkreten Stichprobe [Graphics:MaxLikegr18.gif]. Wir erinnern uns daran, daß diese Funktion die Wahrscheinlichkeit für das Auftreten der vorliegenden konkreten Stichprobe beschreibt.

[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr19.gif]
[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr20.gif]

[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr21.gif]
[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr22.gif]
[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr23.gif]

Aufgrund dieser Grafik erscheint es sinnvoll, den Wert in der Nähe von 0.7 zu schätzen, genauer gesagt

[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr24.gif]
[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr25.gif]

Wir können das Maximum auch exakt berechnen, indem wir die Nullstelle der 1. Ableitung ermiteln.

[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr26.gif]
[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr27.gif]

[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr28.gif]
[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr29.gif]

Wir können uns gleich für die Zukunft merken: Die Funktion [Graphics:MaxLikegr30.gif] hat an der gleichen Stelle wie [Graphics:MaxLikegr31.gif] ein Maximum, das in vielen Fällen einfacher zu ermitteln ist.

[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr32.gif]
[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr33.gif]

[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr34.gif]
[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr35.gif]

Der Tip lautet also:

[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr36.gif]
[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr37.gif]

[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr38.gif]
[Graphics:MaxLikegr4.gif][Graphics:MaxLikegr39.gif]

So weit waren wir also gar nicht entfernt!