123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596 |
- \documentclass[a4paper]{scrartcl}
- \usepackage{amssymb, amsmath} % needed for math
- \usepackage[utf8]{inputenc} % this is needed for umlauts
- \usepackage[ngerman]{babel} % this is needed for umlauts
- \usepackage[T1]{fontenc} % this is needed for correct output of umlauts in pdf
- \usepackage[margin=2.5cm]{geometry} %layout
- \usepackage{hyperref} % links im text
- \usepackage{parskip}
- \title{Praktikum Spracherkennung}
- \author{Martin Thoma}
- \hypersetup{
- pdfauthor = {Martin Thoma},
- pdfkeywords = {},
- pdftitle = {Praktikum Spracherkennung}
- }
- %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
- % Begin document %
- %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
- \begin{document}
- \section{Aufgabe}
- Berechnen Sie den Logarithmus der Wahrscheinlichkeit des Musters $m$, wenn die
- eben definierte Gauß-Mixtur gegeben ist (d.h. die HMM
- Emissionswahrscheinlichkeit).
- \section{Gegeben}
- \begin{align}
- m &= \begin{pmatrix}2\\2\end{pmatrix} \in \mathbb{R}^d & \Sigma_{s,i} &= \begin{pmatrix}1 & 0 \\0 & 1\end{pmatrix} \in \mathbb{R}^{d \times d}\\
- c_{s,1} &= 0.3 \in [0,1] & c_{s,2} &= 0.7 \in [0,1]\\
- \mu_{s,1} &= \begin{pmatrix}1\\3\end{pmatrix} \in \mathbb{R}^d & \mu_{s,2} &= \begin{pmatrix}2\\4\end{pmatrix} \in \mathbb{R}^d
- \end{align}
- \[p(x|s) = \sum_{i=1}^{n_s} c_{s, i} \frac{1}{\sqrt{(2 \pi)^d |\Sigma_{s,i}|}} e^{-\frac{1}{2} {(x-\mu_{s,i})}^T \Sigma_{s,i}^{-1}(x-\mu_{s,i})}\]
- mit
- \begin{itemize}
- \item $s$ (für \textit{senone}) ist die kleinste Einheit die der
- automatische Spracherkenner zu erkennen in der lage sein soll.
- \item $m$ ist das zu klassifizierende Muster.
- \item $c_{s,i}$ sind die Gewichte der Gauss-Verteilungen. Ihre Summe muss
- 1 ergeben, damit das Ergebnis wieder eine
- Wahrscheinlichkeitsdichtefunktion ist.
- \item $\Sigma_{s,i}$ ist die Kovarianzmatrix. Sie ist invertierbar und
- ihre Determinate $|\Sigma_{s,i}| \neq 0$.
- \item $d$ ist die Dimension der Feature-Vektoren.
- \item $n_s$ ist die Anzahl der Gauss-Verteilungen
- \item $p(x|s)$ ist die Wahrscheinlichkeitsdichtefunktion, gegeben das
- Senone $s$ für das Muster $x$.
- \end{itemize}
- \section{Erklärung}
- Eine Gauss-Verteilung hat die Wahrscheinlichkeitsdichte $f:\mathbb{R} \rightarrow [0,1]$
- \[f(x) := \frac{1}{\sqrt{2 \pi \sigma^2}} e^{-\frac{1}{2}(\frac{x - \mu}{\sigma})^2}\]
- wobei $\mu$ der Erwartungswert und $\sigma^2$ die Varianz ist.
- Man schreibt
- \[X \sim \mathcal{N}(\mu, \sigma^2)\]
- Eine multivariate Gauss-Verteilung ist eine Verallgemeinerung auf mehrdimensionale
- Zufallsvariablen. Sie hat die Wahrscheinlichkeitsdichte $f: \mathbb{R}^n \rightarrow [0,1]$
- \[f(x) := \frac{1}{\sqrt{(2\pi)^n|\Sigma|}} e^{-\tfrac{1}{2}(x-\mu)^{T}\Sigma^{-1}(x-\mu)}\]
- wobei $\mu$ der Erwartungswert und $\Sigma$ die Kovarianz-Matrix ist.
- Man schreibt
- \[X \sim \mathcal{N}_n(\mu, \Sigma)\]
- Eine Multinomialverteilung ist eine diskrete Wahrscheinlichkeitsverteilung.
- \section{Einsetzen}
- \begin{align}
- p(m|s) &= \sum_{i=1}^{2} c_{s, i} \frac{1}{\sqrt{(2 \pi)^2}} e^{-\frac{1}{2} {(m_1 - \mu_{1,s,i})^2+(m_2 - \mu_{2,s,i})^2}}\\
- &= 0.3 \frac{1}{\sqrt{(2 \pi)^2}} e^{-\frac{1}{2} ({1^2+ (-1)^2})} + 0.7 \frac{1}{\sqrt{(2 \pi)^2}} e^{-\frac{1}{2} ({0^2+ (-2)^2}})\\
- &= \frac{1}{2 \pi} (0.3 e^{-1} + 0.7 e^{-2})\\
- &\approx 0.0326\\
- \log(p(m|s)) &\approx -3.4234
- \end{align}
- \section{Fragen}
- $p(m|s)$ ist nicht die Wahrscheinlichkeit von $m$. Die Wahrscheinlichkeit
- eines einzelnen Wertes einer kontinuierlichen Zufallsvariable ist immer $0$,
- da sonst die Summe der Wahrscheinlichkeiten unendlich wäre. Ist das
- dennoch der gewünschte Wert?
- Was hat das mit den HMMs zu tun? Sollte da eventuell GMM stehen?
- Was ist eine multinominale multivariate Gauss-Verteilung? Wo ist der
- Unterschied zur multivariaten Gauss-Verteilung?
- \end{document}
|