Small fixes in regression and likelihood
This commit is contained in:
@@ -28,7 +28,7 @@ den Parametern $\theta$.
|
||||
|
||||
Wenn nun den $n$ unabh\"angigen Beobachtungen $x_1, x_2, \ldots x_n$
|
||||
die gleiche Wahrscheinlichkeitsverteilung $p(x|\theta)$ zugrundeliegt
|
||||
(\enterm{i.i.d.} idependent and identically distributed), dann ist die
|
||||
(\enterm{i.i.d.} independent and identically distributed), dann ist die
|
||||
Verbundwahrscheinlichkeit $p(x_1,x_2, \ldots x_n|\theta)$ des
|
||||
Auftretens der Werte $x_1, x_2, \ldots x_n$, gegeben ein bestimmtes
|
||||
$\theta$,
|
||||
@@ -71,14 +71,14 @@ Gr\"unden wird meistens das Maximum der logarithmierten Likelihood
|
||||
Wenn die Me{\ss}daten $x_1, x_2, \ldots x_n$ der Normalverteilung
|
||||
\eqnref{normpdfmean} entstammen, und wir den Mittelwert $\mu=\theta$ als
|
||||
einzigen Parameter der Verteilung betrachten, welcher Wert von
|
||||
$\theta$ maximiert dessen Likelhood?
|
||||
$\theta$ maximiert dessen Likelihood?
|
||||
|
||||
\begin{figure}[t]
|
||||
\includegraphics[width=1\textwidth]{mlemean}
|
||||
\titlecaption{\label{mlemeanfig} Maximum Likelihood Sch\"atzung des
|
||||
Mittelwerts.}{Oben: Die Daten zusammen mit drei m\"oglichen
|
||||
Normalverteilungen mit unterschiedlichen Mittelwerten (Pfeile) aus
|
||||
denen die Daten stammen k\"onnten. Unteln links: Die Likelihood
|
||||
denen die Daten stammen k\"onnten. Unten links: Die Likelihood
|
||||
in Abh\"angigkeit des Mittelwerts als Parameter der
|
||||
Normalverteilungen. Unten rechts: die entsprechende
|
||||
Log-Likelihood. An der Position des Maximums bei $\theta=2$
|
||||
@@ -91,15 +91,15 @@ Die Log-Likelihood \eqnref{loglikelihood} ist
|
||||
& = & \sum_{i=1}^n \log \frac{1}{\sqrt{2\pi \sigma^2}}e^{-\frac{(x_i-\theta)^2}{2\sigma^2}} \\
|
||||
& = & \sum_{i=1}^n - \log \sqrt{2\pi \sigma^2} -\frac{(x_i-\theta)^2}{2\sigma^2} \; .
|
||||
\end{eqnarray*}
|
||||
Der Logarithmus hat die sch\"one Eigenschaft die Exponentialfunktion
|
||||
Der Logarithmus hat die sch\"one Eigenschaft, die Exponentialfunktion
|
||||
der Normalverteilung auszul\"oschen, da der Logarithmus die
|
||||
Umkehrfunktion der Exponentialfunktion ist ($\log(e^x)=x$).
|
||||
|
||||
Zur Bestimmung des Maximums der Log-Likelihood berechnen wir deren Ableitung
|
||||
nach dem Parameter $\theta$ und setzen diese gleich Null:
|
||||
\begin{eqnarray*}
|
||||
\frac{\text{d}}{\text{d}\theta} \log {\cal L}(\theta|x_1,x_2, \ldots x_n) & = & \sum_{i=1}^n \frac{2(x_i-\theta)}{2\sigma^2} \;\; = \;\; 0 \\
|
||||
\Leftrightarrow \quad \sum_{i=1}^n x_i - \sum_{i=1}^n x_i \theta & = & 0 \\
|
||||
\frac{\text{d}}{\text{d}\theta} \log {\cal L}(\theta|x_1,x_2, \ldots x_n) & = & \sum_{i=1}^n - \frac{2(x_i-\theta)}{2\sigma^2} \;\; = \;\; 0 \\
|
||||
\Leftrightarrow \quad \sum_{i=1}^n x_i - \sum_{i=1}^n \theta & = & 0 \\
|
||||
\Leftrightarrow \quad n \theta & = & \sum_{i=1}^n x_i \\
|
||||
\Leftrightarrow \quad \theta & = & \frac{1}{n} \sum_{i=1}^n x_i \;\; = \;\; \bar x
|
||||
\end{eqnarray*}
|
||||
@@ -188,12 +188,12 @@ und setzen diese gleich Null:
|
||||
\Leftrightarrow \quad \theta & = & \frac{\sum_{i=1}^n \frac{x_iy_i}{\sigma_i^2}}{ \sum_{i=1}^n \frac{x_i^2}{\sigma_i^2}} \label{mleslope}
|
||||
\end{eqnarray}
|
||||
Damit haben wir nun einen anlytischen Ausdruck f\"ur die Bestimmung
|
||||
der Steigung $\theta$ des Regressionsgeraden gewonnen
|
||||
der Steigung $\theta$ der Regressionsgeraden gewonnen
|
||||
(\figref{mleproplinefig}).
|
||||
|
||||
Ein Gradientenabstieg ist f\"ur das Fitten der Geradensteigung also
|
||||
gar nicht n\"otig. Das gilt allgemein f\"ur das Fitten von
|
||||
Koeffizienten von linear kombinierten Basisfunktionen. Wie z.B. die
|
||||
Koeffizienten von linear kombinierten Basisfunktionen. Wie z.B.
|
||||
die Steigung $m$ und der y-Achsenabschnitt $b$ einer Geradengleichung
|
||||
\[ y = m \cdot x +b \]
|
||||
oder allgemeiner die Koeffizienten $a_k$ eines Polynoms
|
||||
@@ -279,8 +279,8 @@ als Funktion des Orientierungswinkels).
|
||||
bevorzugte Orientierung des Stimulus (farbige Linien). Ein
|
||||
Stimulus einer bestimmten Orientierung aktiviert die Neurone in
|
||||
spezifischer Weise (Punkte). Unten: Die Log-Likelihood dieser
|
||||
Aktivit\"aten wir maximal in der N\"ahe der wahren Orientierung
|
||||
des Stimulus.}
|
||||
Aktivit\"aten wird in der N\"ahe der wahren Orientierung
|
||||
des Stimulus maximiert.}
|
||||
\end{figure}
|
||||
|
||||
Das Gehirn ist aber mit dem umgekehrten Problem konfrontiert: gegeben
|
||||
|
||||
Reference in New Issue
Block a user