| 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150 |
- \subsection{Überblick}
- DYCOS (\underline{DY}namic \underline{C}lassification
- algorithm with c\underline{O}ntent and \underline{S}tructure) ist ein
- Knotenklassifizierungsalgorithmus, der Ursprünglich in \cite{aggarwal2011} vorgestellt
- wurde. Er klassifiziert einzelne Knoten, indem $r$ Random Walks der Länge $l$,
- startend bei dem zu klassifizierenden Knoten $v$ gemacht werden. Dabei
- werden die Labels der besuchten Knoten gezählt. Das Label, das am häufigsten
- vorgekommen ist, wird als Label für $v$ gewählt.
- DYCOS nutzt also die sog. Homophilie, d.~h. die Eigenschaft, dass
- Knoten, die nur wenige Hops von einander entfernt sind, häufig auch
- ähnlich sind \cite{bhagat}. Der DYCOS-Algorithmus nimmt jedoch nicht
- einfach den Graphen für dieses Verfahren, sondern erweitert ihn mit
- Hilfe der zur Verfügung stehenden Texte.\\
- Für diese Erweiterung wird zuerst wird Vokabular $W_t$ bestimmt, das
- charakteristisch für eine Knotengruppe ist. Wie das gemacht werden kann
- und warum nicht einfach jedes Wort in das Vokabular aufgenommen wird,
- wird in \cref{sec:vokabularbestimmung} erläutert.\\
- Nach der Bestimmung des Vokabulars wird für
- jedes Wort im Vokabular ein Wortknoten zum Graphen hinzugefügt. Alle
- Knoten, die der Graph zuvor hatte, werden nun \enquote{Strukturknoten}
- genannt.
- Ein Strukturknoten $v$ wird genau dann mit einem Wortknoten $w \in W_t$
- verbunden, wenn $w$ in einem Text von $v$ vorkommt.
- Der DYCOS-Algorithmus betrachtet also die Texte, die einem Knoten
- zugeordnet sind, als eine Multimenge von Wörtern. Das heißt, zum einen
- wird nicht auf die Reihenfolge der Wörter geachtet, zum anderen wird
- bei Texten eines Knotens nicht zwischen verschiedenen
- Texten unterschieden. Jedoch wird die Anzahl der Vorkommen
- jedes Wortes berücksichtigt.
- \begin{figure}[htp]
- \centering
- \input{figures/graph-content-and-structure.tex}
- \caption{Erweiterter Graph}
- \label{fig:erweiterter-graph}
- \end{figure}
- Entsprechend werden zwei unterschiedliche Sprungtypen unterschieden,
- die strukturellen Sprünge und inhaltliche Mehrfachsprünge:
- \begin{definition}
- Sei $G_{E,t} = (V_t, E_{S,t} \cup E_{W,t}, V_{L,t}, W_{t})$ der
- um die Wortknoten $W_{t}$ erweiterte Graph.
- Dann heißt das zufällige wechseln des aktuell betrachteten
- Knoten $v \in V_t$ zu einem benachbartem Knoten $w \in V_t$
- ein \textbf{struktureller Sprung}.
- \end{definition}
- \goodbreak
- Im Gegensatz dazu benutzten inhaltliche Mehrfachsprünge
- tatsächlich die Grapherweiterung:
- \begin{definition}
- Sei $G_t = (V_t, E_{S,t} \cup E_{W,t}, V_{L,t}, W_{t})$ der
- um die Wortknoten $W_{t}$ erweiterte Graph.
- Dann heißt das zufällige wechseln des aktuell betrachteten
- Knoten $v \in V_t$ zu einem benachbartem Knoten $w \in W_t$
- und weiter zu einem zufälligem Nachbar $v' \in V_t$ von $w$
- ein \textbf{inhaltlicher Mehrfachsprung}.
- \end{definition}
- Jeder inhaltliche Mehrfachsprung beginnt und endet also in einem Strukturknoten,
- springt über einen Wortknoten und ist ein Pfad der Länge~2.
- Ob in einem Sprung der Random Walks ein struktureller Sprung oder
- ein inhaltlicher Mehrfachsprung gemacht wird, wird jedes mal zufällig
- neu entschieden. Dafür wird der Parameter $0 \leq p_S \leq 1$ für den Algorithmus
- gewählt. Mit einer Wahrscheinlichkeit von $p_S$ wird eine struktureller
- Sprung durchgeführt und mit einer Wahrscheinlichkeit
- von $(1-p_S)$ ein modifizierter inhaltlicher Mehrfachsprung, wie er in
- \cref{sec:sprungtypen} erklärt wird, gemacht. Dieser
- Parameter gibt an, wie wichtig die Struktur des Graphen im Verhältnis
- zu den textuellen Inhalten ist. Bei $p_S = 0$ werden ausschließlich
- die Texte betrachtet, bei $p_S = 1$ ausschließlich die Struktur des
- Graphen.
- Die Vokabularbestimmung kann zu jedem Zeitpunkt $t$ durchgeführt
- werden, muss es aber nicht.
- In \cref{alg:DYCOS} wird der DYCOS-Algorithmus als
- Pseudocode vorgestellt.
- \begin{algorithm}
- \begin{algorithmic}[1]
- \Require \\$G_{E,t} = (V_t, E_{S,t} \cup E_{W,t}, V_{L,t}, W_t)$ (Erweiterter Graph),\\
- $r$ (Anzahl der Random Walks),\\
- $l$ (Länge eines Random Walks),\\
- $p_s$ (Wahrscheinlichkeit eines strukturellen Sprungs),\\
- $q$ (Anzahl der betrachteten Knoten in der Clusteranalyse)
- \Ensure Klassifikation von $V_t \setminus V_{L,t}$\\
- \\
- \ForAll{Knoten $v$ in $V_t \setminus V_{L,t}$}
- \State $d \gets $ defaultdict
- \For{$i$ von $1$ bis $r$}
- \State $w \gets v$
- \For{$j$ von $1$ bis $l$}
- \State $sprungTyp \gets \Call{random}{0, 1}$
- \If{$sprungTyp \leq p_S$}
- \State $w \gets$ \Call{SturkturellerSprung}{$w$}
- \Else
- \State $w \gets$ \Call{InhaltlicherMehrfachsprung}{$w$}
- \EndIf
- \State $w \gets v.\Call{GetLabel}{ }$ \Comment{Zähle das Label}
- \State $d[w] \gets d[w] + 1$
- \EndFor
- \EndFor
- \If{$d$ ist leer} \Comment{Es wurde kein gelabelter Knoten gesehen}
- \State $M_H \gets \Call{HäufigsteLabelImGraph}{ }$
- \Else
- \State $M_H \gets \Call{max}{d}$
- \EndIf
- \\
- \State \textit{//Wähle aus der Menge der häufigsten Label $M_H$ zufällig eines aus}
- \State $label \gets \Call{Random}{M_H}$
- \State $v.\Call{AddLabel}{label}$ \Comment{und weise dieses $v$ zu}
- \EndFor
- \State \Return Labels für $V_t \setminus V_{L,t}$
- \end{algorithmic}
- \caption{DYCOS-Algorithmus}
- \label{alg:DYCOS}
- \end{algorithm}
- \subsection{Datenstrukturen}
- Zusätzlich zu dem gerichteten Graphen $G_t = (V_t, E_t, V_{L,t})$
- verwaltet der DYCOS-Algorithmus zwei weitere Datenstrukturen:
- \begin{itemize}
- \item Für jeden Knoten $v \in V_t$ werden die vorkommenden Wörter,
- die auch im Vokabular $W_t$ sind,
- und deren Anzahl gespeichert. Das könnte z.~B. über ein
- assoziatives Array geschehen. Wörter, die nicht in
- Texten von $v$ vorkommen, sind nicht im Array. Für
- alle vorkommenden Wörter ist der gespeicherte Wert zum
- Schlüssel \enquote{Wort} die Anzahl der Vorkommen von
- \enquote{Wort} in den Texten von $v$.
- \item Für jedes Wort des Vokabulars $W_t$ wird eine Liste von
- Knoten verwaltet, in deren Texten das Wort vorkommt.
- \item An einigen Stellen macht ein assoziatives Array, auch
- \enquote{dictionary} oder \enquote{map} genannt, Sinn.
- Zustätzlich ist es nützlich, wenn diese Datenstruktur für
- unbekannte Schlüssel keinen Fehler ausgibt, sondern für diese
- Schlüssel den Wert 0 annimmt. Eine solche Datenstruktur
- wird in Python \texttt{defaultdict} genannt und ich werde
- im Folgenden diese Benennung beibehalten.
- \end{itemize}
- \input{Sprungtypen}
- \input{Vokabularbestimmung}
|