kit-muendlich-nn.tex 13 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222223224225226227228229230231232233234235236237238239240241242243244245246247248249250251252253254255256257258259260261262263264265266267268269270271272273274275276277278279280281282283284285286287
  1. \documentclass[a4paper]{article}
  2. \usepackage{myStyle}
  3. \usepackage{csquotes}
  4. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
  5. % Hier eigene Daten einfügen %
  6. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
  7. \newcommand{\Studiengang}{Informatik (MA)}
  8. \newcommand{\Fach}{Neuronale Netze}
  9. \newcommand{\Pruefungsdatum}{12.02.2016} % DD.MM.YYYY
  10. \newcommand{\Pruefer}{Dr. Stüker}
  11. \newcommand{\Beisitzer}{?}
  12. % Nicht zwingend, aber es waere nett, wenn du zumindest die Zahl vor
  13. % dem Komma angeben koenntest:
  14. \newcommand{\Note}{1,0}
  15. \newcommand{\Dauer}{40} % in Minuten
  16. %%% WEITER SCROLLEN %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
  17. \begin{document}
  18. \begin{tabular}{p{2cm}p{15cm}}
  19. \ifpdf\vspace{-0.8cm}\fi
  20. \multirow{2}{2cm}{ \includegraphics[width=20mm]{FS-Eule}} &
  21. \Large Fragebogen der Fachschaft zu \\
  22. & \Large {\bfseries mündlichen Prüfungen} \\
  23. & \Large{im Informatikstudium}
  24. \\
  25. \end{tabular}
  26. \begin{tabular}{p{8cm}p{8cm}}
  27. \begin{flushleft}
  28. %%% HIER GEHTS LOS! %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
  29. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
  30. % Das Dokument %
  31. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
  32. Dein Studiengang: \Studiengang \\[0.5cm]
  33. \textbf{Prüfungsart:}\\
  34. %% entsprechende \boxempty bitte durch \boxtimes ersetzen.
  35. $\boxempty$ Wahlpflichtfach \\
  36. $\boxtimes$ Vertiefungsfach \\
  37. $\boxempty$ Ergänzungsfach \\[0.5cm]
  38. %% Namen des Wahl/Vertiefungs/Ergaenzungsfachs hier bitte eintragen.
  39. Welches? \Fach
  40. %% Jetzt kommt ein Barcode von uns. Einfach weitergehen. ;-)
  41. \end{flushleft}
  42. &
  43. \begin{center}
  44. Barcode:
  45. \begin{tabular}{p{0.2cm}p{6.8cm}p{0.2cm}}
  46. $\ulcorner$
  47. \vskip 2cm
  48. $\llcorner$ & & $\urcorner$
  49. \vskip 2cm
  50. $\lrcorner$ \\
  51. \end{tabular}
  52. \end{center}
  53. \vskip 0.5cm
  54. %% Hier gehts weiter:
  55. \begin{flushright}
  56. %% Pruefungsdatum, PrueferIn und BeisitzerIn bitte hier eintragen. Wichtig: Im Allgemeinen kann nur ein Professor der Pruefer gewesen sein.
  57. \begin{tabular}{ll}
  58. Prüfungsdatum: & \Pruefungsdatum \\[0.5cm]
  59. Prüfer/-in: & \Pruefer \\[0.5cm]
  60. Beisitzer/-in: & \Beisitzer \\
  61. \end{tabular}
  62. \end{flushright} \\
  63. \end{tabular}
  64. \begin{tabular}{|p{8.2cm}|p{3cm}|p{1cm}|p{3.5cm}|}
  65. \multicolumn{4}{l}{\bfseries Prüfungsfächer und Vorbereitung: } \\[0.2cm]
  66. \hline
  67. Veranstaltung & Dozent/-in & Jahr & regelmäßig besucht? \\
  68. \hline
  69. \hline
  70. %% Beispiel:
  71. %% Interessante Vorlesung & Toller Prof & 2007 & Ich war immer 5 Minuten vorher da \\
  72. Neuronale Netze & Prof. Waibel / Dr. Kilgour & SS 2015 & Ja \\[0.2cm]
  73. \hline
  74. \end{tabular} \\[0.5cm]
  75. \begin{multicols}{2}
  76. Note: \Note\\[0.5cm]
  77. War diese Note angemessen?
  78. %% Hier ist Platz fuer deinen Kommentar
  79. Ja
  80. \columnbreak
  81. %% Bitte Pruefungsdauer eintragen
  82. Prüfungsdauer: \Dauer{} Minuten \\[0.5cm]
  83. \end{multicols}
  84. \textbf{\ding{46}} Wie war der \textbf{Prüfungsstil des Prüfers / der Prüferin?} \\
  85. \begin{minipage}[t][10cm]{\linewidth}
  86. %% Hier ist Platz fuer deinen Kommentar
  87. Die Fragen waren größtenteils klar. Teilweise war es mir
  88. nicht klar und in der Prüfung hatte ich das Gefühl, dass dies schlecht
  89. ist. Aber an der Note und der Begründung später sieht man ja, dass es kein
  90. Problem war.\\
  91. Es wurden einige Standard-Fragen gestellt und wenn nicht die Standardantworten
  92. gekommen sind (insbesondere wenn etwas gefehlt hat) wurde nachgebohrt. Aber
  93. nie besonders tief. Sehr viele Fragen in die Breite.
  94. \end{minipage}
  95. \begin{flushright}$\hookrightarrow$\textbf{Rückseite bitte nicht vergessen!}\end{flushright}
  96. \newpage
  97. \columnseprule=.4pt
  98. \begin{multicols}{2}
  99. \ding{46} Hat sich der \textbf{Besuch / Nichtbesuch} der Veranstaltung für dich gelohnt? \\
  100. \begin{minipage}[t][6.8cm]{\linewidth}
  101. %% Hier ist Platz fuer deinen Kommentar
  102. Ja. Wenn man wenig Erfahrung mit Neuronalen Netzen hat werden in der
  103. Vorlesung die Zusammenhänge klarer. Allerdings kann ich die Übung
  104. (\enquote{Praktikum}) leider nicht empfehlen. Man sollte sich die Aufgaben
  105. sowie die Folien der Besprechung; die Besprechung an sich war in meinem
  106. Jahr leider nicht so gut. Aber mit Prof.~Waibel kann man gut reden;
  107. eventuell wird das in kommenden Jahren besser.
  108. \end{minipage}
  109. \ding{46} Wie lange und wie hast du dich \textbf{alleine bzw. mit anderen vorbereitet}? \\
  110. \begin{minipage}[t][7cm]{\linewidth}
  111. %% Hier ist Platz fuer deinen Kommentar
  112. \begin{itemize}
  113. \item viel Vorwissen
  114. \item Vorlesung zu 100\% besucht
  115. \item ca. 10 Treffen à 2 Stunden mit einem Lernpartern
  116. \item ca. 2~Wochen mit ca. 8~Stunden pro Tag
  117. \end{itemize}
  118. \end{minipage}
  119. \ding{46} Welche \textbf{Tips zur Vorbereitung} kannst du geben?
  120. \\
  121. \begin{minipage}[t][7cm]{\linewidth}
  122. %% Hier ist Platz fuer deinen Kommentar
  123. Folien lesen und verstehen, Protokolle durchgehen und
  124. meinen Blog lesen:\\
  125. \href{https://martin-thoma.com/neuronale-netze-vorlesung}{martin-thoma.com/neuronale-netze-vorlesung}
  126. \end{minipage}
  127. \columnbreak
  128. \ding{46} Kannst du ihn/sie \textbf{weiterempfehlen}?
  129. %% entsprechende \boxempty bitte durch \boxtimes ersetzen.
  130. $\boxtimes$ Ja / $\boxempty$ Nein\newline Warum? \\
  131. \begin{minipage}[t][6.8cm]{\linewidth}
  132. %% Hier ist Platz fuer deinen Kommentar
  133. Die Prüfung war sehr routiniert. Ich glaube wenn man den Stoff gut
  134. beherrscht kann man gut eine 1.0 bekommen. Der Prüfer ist fair, weiß aber
  135. auch sehr genau was er will und ist fordernd. In anderen Fächern kann man
  136. sicherlich deutlich leichter eine (sehr) gute Note bekommen.
  137. \end{minipage}
  138. \ding{46} Fanden vor der Prüfung \textbf{Absprachen} zu Form oder Inhalt statt? \\
  139. \begin{minipage}[t][7cm]{\linewidth}
  140. %% Hier ist Platz fuer deinen Kommentar
  141. Nein, es gab keine Absprachen.
  142. \end{minipage}
  143. \ding{46} Kannst du Ratschläge für das \textbf{Verhalten in der Prüfung} geben? \\
  144. \begin{minipage}[t][6.8cm]{\linewidth}
  145. %% Hier ist Platz fuer deinen Kommentar
  146. Nein, ich kann keine Tipps geben die nicht offensichtlich sind:
  147. Sagt was ihr wisst, lernt den Stoff vorher gut und schaut euch Protokolle
  148. an.
  149. \end{minipage}
  150. %
  151. \end{multicols}
  152. \clearpage
  153. \section*{Inhalte der Prüfung:}
  154. \begin{itemize}
  155. \item \textbf{Welche Anwendungen von Neuronalen Netzen kennen Sie?}
  156. \item[$\Rightarrow$] Klassifikation, Funktionsapproximation, Prädiktion,
  157. Collaborative Filtering, Dimensionalitätsreduktion,
  158. Denoising / Rekonstruktion.
  159. \item \textbf{Welche Netztypen haben wir in der Vorlesung kennen gelernt?}
  160. \item[$\Rightarrow$] McCullogh-Pitts Perzeptron, Rosenblatt Perzeptron,
  161. Multi-Layer Perzeptron (MLP), (Denoising)
  162. Auto-Encoder, Restricted Boltzmann Machines (RBMs),
  163. Hopfield-Netze, CNNs / TDNNs, Rekurrente Netze
  164. (LSTMs). Ich habe noch \enquote{Gated Recurrent Units} (GRU)
  165. erwähnt; das war aber nicht Teil der Vorlesung.
  166. \item Sie bekommen von ihrem Boss einen Datensatz, der bereits
  167. Vorverarbeitet / gefiltert wurde. Sie müssen ein
  168. Klassifikationsproblem mit 3~Klassen lösen. Was machen sie als
  169. erstes?
  170. \item[$\Rightarrow$] \textbf{Split in Trainings- und Testset}. Gegebenenfalls
  171. noch Validation-Set und Development-Set.
  172. \item \textbf{Wie sieht ein Perzeptron aus?}
  173. \item[$\Rightarrow$] Aufgezeichnet und erklärt: Inputs $x_1, \dots, x_n$,
  174. Bias $1$, gewichte $w_0, \dots, w_n$. Summe davon
  175. ergibt \texttt{net}, darauf wird
  176. Aktivierungsfunktion $\varphi$ angewendet. Bei
  177. McCullogh-Pitts / Rosenblatt die Heavy-Side
  178. step function
  179. \item Was macht der Bias? Wo kann man den sehen?
  180. \item[$\Rightarrow$] Trennebene aufgezeichnet. Bias ist der Abstand
  181. zur 0 wenn man das Lot von der Trennebene auf
  182. die 0 fällt. (Hier habe ich mich verhaspelt.)
  183. \item \textbf{Wie sieht ein Multi-Layer Perzeptron aus?}
  184. \item[$\Rightarrow$] Aufgezeichnet (3 Layer - Input, Hidden, Ouptut. Bias nicht vergessen.)
  185. \item \textbf{Welche Aktivierungsfunktionen kennen sie?} Zeichnen sie auf.
  186. \item[$\Rightarrow$] Signum (smooth: tanh), Heavy-Side step function (smooth: sigmoid),
  187. ReLU (smooth: softplus), Leaky ReLU, ELU. Softmax
  188. und Maxout kann man nicht so einfach Zeichnen,
  189. weil sie auf der Ausgabe einer ganzen Schicht
  190. arbeiten.\\
  191. Softmax ist für Klassifikationsprobleme gut, da
  192. Softmax eine Wahrscheinlichkeitsverteilung (WKV) ausgibt,
  193. wenn man One-Hot Encoding der Labels hat
  194. (Jede Klasse ein Neuron; label ist ein Vektor der
  195. eine 1 bei der richtigen Klasse hat und sonst 0.)
  196. Cross-entropy Fehlerfunktion erwähnt.
  197. \item Softmax gibt nur unter bestimmten Annahmen eine WKV aus. Welche?
  198. \item[$\Rightarrow$] (Wusste ich nicht): Normalverteilte Daten,
  199. sigmoid-Aktivierungsfunktion sind nötig, damit
  200. man eine A posteriori Verteilung annehmen kann.
  201. \item Was sind Bottleneck-features?
  202. \item[$\Rightarrow$] MLP, bei dem man überwacht lernt und einen kleinen
  203. Layer zwischendrin hat.
  204. (Hier habe ich anscheinend etwas falsch verstanden.
  205. Laut Sebastian versteht man unter Bottleneck-Features
  206. immer überwachtes lernen. Unüberwacht kann man
  207. zwar auch Bottlenecks haben und man lernt auch
  208. Features, aber es wird halt nicht so genannt.)
  209. \item Was sind Denoising Auto-Encoder?
  210. \item[$\Rightarrow$] Man hat Daten $X$. Diese werden als Labels
  211. verwendet. Dem Netz gibt man $\tilde X = X + $
  212. Noise. Das Netz lernt also den Noise
  213. herauszufiltern. Als Beispiel finde ich schlecht
  214. empfangene Fernsehbilder gut (ist mir spontan eingefallen :-) )
  215. Man weiß wie der Noise aussieht und kann den
  216. vorher auf typische Fernsehbilder tun.
  217. Dann könnte man im Fernseher etwas haben, was
  218. diesen Noise entfernt und das unverrauschte Bild
  219. rekonstruiert.
  220. \end{itemize}
  221. \pagebreak
  222. \begin{itemize}
  223. \item Nun haben sie ein MLP und folgende Fehlerkurve (Aufgezeichnet - x-Achse: Epoche, y-Achse: Fehler; Trainingsfehler und Validierungsfehler). Der Trainingsfehler
  224. geht runter, aber der Testfehler bleibt gleich. Was ist der mögliche Grund?
  225. \item[$\Rightarrow$] Overfitting. Das Netzwerk ist zu groß / für das
  226. Netzwerk gibt es zu wenig Daten.
  227. \item Nun machen sie das Netzwerk kleiner und bekommen folgende Kurven
  228. (Zeichnung; An beiden Fehlern tut sich nicht mehr wirklich was)
  229. \item[$\Rightarrow$] Nun ist das Netzwerk zu klein; es kann nicht mehr
  230. lernen.
  231. \item Wie kann man nun sinnvoll eine Topologie aufbauen?
  232. \item[$\Rightarrow$] Es gibt 3 Gruppen von Verfahren, aber nur zwei
  233. haben wir in der Vorlesung besprochen:
  234. \begin{itemize}
  235. \item \textbf{Generative Verfahren} (Meiosis, Cascade Correlation),
  236. \item \textbf{Pruning-Verfahren} (Weight Decay, Optimal Brain Damage,
  237. Optimal Brain Surgeon, Regularisierung ($L_1$, $L_2$, Dropout)),
  238. \item \textbf{Genetische Algorithmen} (NEAT, HyerNEAT).
  239. \end{itemize}
  240. \item Beschreiben sie Meiosis.
  241. \item[$\Rightarrow$] Aufgezeichnet (schaut euch mein YouTube Video an
  242. sowie die Antwort in der StackExchange Frage.
  243. Ist in meinem Blog-Artikel
  244. \url{https://martin-thoma.com/neuronale-netze-vorlesung}
  245. verlinkt.)
  246. \item Wie funktioniert Meiosis?
  247. \item[$\Rightarrow$] Wir lernen Mean und Variance der Gewichte. Wenn
  248. ein Kriterium erfüllt ist (vgl. Folien / Meiosis-Paper), dann
  249. splitten wir den Knoten mit Mean $\mu$ in zwei
  250. Knoten. Es gilt $\mu = \frac{\mu_1 + \mu_2}{2}$,
  251. aber $\mu \neq \mu_1 \neq \mu_2$.
  252. \item Was heißt Meiosis auf Deutsch?
  253. \item[$\Rightarrow$] Zellteilung.
  254. \end{itemize}
  255. \textit{Hinweis:} Das ist ein Gedächtnisprotokoll. Es gab noch ein paar
  256. andere Fragen, aber dies waren die Wichtigsten. Meine Antworten waren
  257. ausführlicher, aber die wichtigsten Punkte wurden hier genannt.
  258. Mit Denoising Auto-Encoder / Bottleneck-Features habe ich mich etwas
  259. verrannt.
  260. \end{document}