Vokabularbestimmung.tex 3.2 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869
  1. \subsection{Vokabularbestimmung}\label{sec:vokabularbestimmung}
  2. Da die größe des Vokabulars die Datenmenge signifikant beeinflusst,
  3. liegt es in unserem Interesse so wenig Wörter wie möglich ins
  4. Vokabular aufzunehmen. Insbesondere sind Wörter nicht von Interesse,
  5. die in fast allen Texten vorkommen, wie im Deutschen z.~B.
  6. \enquote{und}, \enquote{mit} und die Pronomen.
  7. Nun kann man manuell eine Liste von zu beachtenden Wörtern erstellen
  8. oder mit Hilfe des Gini-Koeffizienten automatisch ein Vokabular erstellen.
  9. Der Gini-Koeffizient ist ein statistisches Maß, das die Ungleichverteilung
  10. bewertet. Er ist immer im Intervall $[0,1]$, wobei $0$ einer
  11. Gleichverteilung entspricht und $1$ der größt möglichen Ungleichverteilung.
  12. Sei nun $n_i(w)$ die Häufigkeit des Wortes $w$ in allen Texten mit
  13. dem $i$-ten Label.
  14. \todo{darf ich hier im Nenner 1 addieren?}
  15. \begin{align}
  16. p_i(w) &:= \frac{n_i(w)}{\sum_{j=1}^{|\L_t|} n_j(w)} &\text{(Relative Häufigkeit des Wortes $w$)}\\
  17. G(w) &:= \sum_{j=1}^{|\L_t|} p_j(w)^2 &\text{(Gini-Koeffizient von $w$)}
  18. \end{align}
  19. In diesem Fall ist $G(w)=0$ nicht möglich, da zur Vokabularbestimmung
  20. nur Wörter betrachtet werden, die auch vorkommen.
  21. Ein Vorschlag, wie die Vokabularbestimmung implementiert werden kann,
  22. ist als Pseudocode mit Algorithmus~\ref{alg:vokabularbestimmung}
  23. gegeben. Dieser Algorithmus benötigt neben dem Speicher für den
  24. Graphen, die Texte sowie die $m$ Vokabeln noch $\mathcal{O}(|\text{Verschiedene Wörter in } S_t| \cdot (|\L_t| + 1))$
  25. Speicher. Die Average-Case Zeitkomplexität beträgt
  26. $\mathcal{O}(|\text{Wörter in } S_t|)$, wobei dazu die Vereinigung
  27. von Mengen $M,N$ in $\mathcal{O}(\min{|M|, |N|})$ sein muss.
  28. \begin{algorithm}[H]
  29. \begin{algorithmic}
  30. \Require \\
  31. $\T_t$ (Knoten mit Labels),\\
  32. $\L_t$ (Labels),\\
  33. $f:\T_t \rightarrow \L_t$ (Label-Funktion),\\
  34. $m$ (Gewünschte Vokabulargröße)
  35. \Ensure $\M_t$ (Vokabular)\\
  36. \State $S_t \gets \Call{Sample}{\T_t}$ \Comment{Wähle eine Teilmenge $S_t \subseteq \T_t$ aus}
  37. \State $\M_t \gets \bigcup_{v \in S_t} \Call{getTextAsSet}{v}$ \Comment{Menge aller Wörter}
  38. \State $cLabelWords \gets (|\L_t|+1) \times |\M_t|$-Array, mit 0en initialisert\\
  39. \ForAll{$v \in \T_t$} \Comment{Gehe jeden Text Wort für Wort durch}
  40. \State $i \gets \Call{getLabel}{v}$
  41. \ForAll{$(word, occurences) \in \Call{getTextAsMultiset}{v}$}
  42. \State $cLabelWords[i][word] \gets cLabelWords[i][word] + occurences$
  43. \State $cLabelWords[i][|\L_t|] \gets cLabelWords[i][|\L_t|] + occurences$
  44. \EndFor
  45. \EndFor
  46. \\
  47. \ForAll{Wort $w \in \M_t$}
  48. \State $p \gets $ Array aus $|\L_t|$ Zahlen in $[0, 1]$
  49. \ForAll{Label $i \in \L_t$}
  50. \State $p[i] \gets \frac{cLabelWords[i][w]}{cLabelWords[i][|\L_t|]}$
  51. \EndFor
  52. \State $w$.gini $\gets$ \Call{sum}{{\sc map}({\sc square}, $p$)}
  53. \EndFor
  54. \State $\M_t \gets \Call{SortDescendingByGini}{\M_t}$
  55. \State \Return $\Call{Top}{\M_t, m}$
  56. \end{algorithmic}
  57. \caption{Vokabularbestimmung}
  58. \label{alg:vokabularbestimmung}
  59. \end{algorithm}