Programmiersprachen.tex 8.7 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219
  1. %!TEX root = Programmierparadigmen.tex
  2. \chapter{Programmiersprachen}
  3. Im folgenden werden einige Begriffe definiert anhand derer
  4. Programmiersprachen unterschieden werden können.
  5. \begin{definition}\xindex{Programmiersprache}\xindex{Programm}%
  6. Eine \textbf{Programmiersprache} ist eine formale Sprache, die durch eine
  7. Spezifikation definiert wird und mit der Algorithmen beschrieben werden
  8. können. Elemente dieser Sprache heißen \textbf{Programme}.
  9. \end{definition}
  10. Ein Beispiel für eine Sprachspezifikation ist die \textit{Java Language Specification}.\footnote{Zu finden unter \url{http://docs.oracle.com/javase/specs/}} Obwohl es kein guter Stil ist, ist auch
  11. eine Referenzimplementierung eine Form der Spezifikation.
  12. Im Folgenden wird darauf eingegangen, anhand welcher Kriterien man
  13. Programmiersprachen unterscheiden kann.
  14. \section{Abstraktion}
  15. Wie nah an den physikalischen Prozessen im Computer ist die Sprache?
  16. Wie nah ist sie an einer mathematisch / algorithmischen Beschreibung?
  17. \begin{definition}\xindex{Maschinensprache}\xindex{Befehlssatz}%
  18. Eine \textbf{Maschinensprache} beinhaltet ausschließlich Instruktionen, die direkt
  19. von einer CPU ausgeführt werden können. Die Menge dieser Instruktionen
  20. sowie deren Syntax wird \textbf{Befehlssatz} genannt.
  21. \end{definition}
  22. \begin{beispiel}[Maschinensprachen]
  23. \begin{bspenum}
  24. \item \xindex{x86}x86:
  25. \item \xindex{SPARC}SPARC:
  26. \end{bspenum}
  27. \end{beispiel}
  28. \begin{definition}[Assembler]\xindex{Assembler}%
  29. Eine Assemblersprache ist eine Programmiersprache, deren Befehle dem
  30. Befehlssatz eines Prozessor entspricht.
  31. \end{definition}
  32. \begin{beispiel}[Assembler]%
  33. Folgendes Beispiel stammt von \url{https://de.wikibooks.org/wiki/Assembler-Programmierung_für_x86-Prozessoren/_Das_erste_Assemblerprogramm}:
  34. \inputminted[linenos, numbersep=5pt, tabsize=4, frame=lines, label=firstp.asm]{nasm}{scripts/assembler/firstp.asm}
  35. \end{beispiel}
  36. \begin{definition}[Höhere Programmiersprache]\xindex{Programmiersprache!höhere}%
  37. Eine Programmiersprache heißt \textit{höher}, wenn sie nicht ausschließlich
  38. für eine Prozessorarchitektur geschrieben wurde und turing-vollständig ist.
  39. \end{definition}
  40. \begin{beispiel}[Höhere Programmiersprachen]
  41. Java, Python, Haskell, Ruby, TCL, \dots
  42. \end{beispiel}
  43. \begin{definition}[Domänenspezifische Sprache]\xindex{Sprache!domänenspezifische}%
  44. Eine domänenspezifische Sprache (engl. domain-specific language; kurz DSL)
  45. ist eine formale Sprache, die für ein bestimmtes Problemfeld
  46. entworfen wurde.
  47. \end{definition}
  48. \begin{beispiel}[Domänenspezifische Sprache]
  49. \begin{bspenum}
  50. \item HTML
  51. \item VHDL
  52. \end{bspenum}
  53. \end{beispiel}
  54. \section{Paradigmen}
  55. Die grundlegendste Art, wie man Programmiersprachen unterscheiden
  56. kann ist das sog. \enquote{Programmierparadigma}, also die Art wie
  57. man Probleme löst.
  58. \begin{definition}[Imperatives Paradigma]\xindex{Programmierung!imperative}
  59. In der imperativen Programmierung betrachtet man Programme als
  60. eine folge von Anweisungen, die vorgibt auf welche Art etwas
  61. Schritt für Schritt gemacht werden soll.
  62. \end{definition}
  63. \begin{definition}[Prozedurales Paradigma]\xindex{Programmierung!prozedurale}
  64. Die prozeduralen Programmierung ist eine Erweiterung des imperativen
  65. Programmierparadigmas, bei dem man versucht die Probleme in
  66. kleinere Teilprobleme zu zerlegen.
  67. \end{definition}
  68. \begin{definition}[Funktionales Paradigma]\xindex{Programmierung!funktionale}
  69. In der funktionalen Programmierung baut man auf Funktionen und
  70. ggf. Funktionen höherer Ordnung, die eine Aufgabe ohne Nebeneffekte
  71. lösen.
  72. \end{definition}
  73. Haskell ist eine funktionale Programmiersprache, C ist eine
  74. nicht-funktionale Programmiersprache.
  75. Wichtige Vorteile von funktionalen Programmiersprachen sind:
  76. \begin{itemize}
  77. \item Sie sind weitgehend (jedoch nicht vollständig) frei von Seiteneffekten.
  78. \item Der Code ist häufig sehr kompakt und manche Probleme lassen
  79. sich sehr elegant formulieren.
  80. \end{itemize}
  81. \begin{definition}[Logisches Paradigma]\xindex{Programmierung!logische}
  82. In der logischen Programmierung baut auf der Unifikation auf.\todo{genauer!}
  83. \end{definition}
  84. \section{Typisierung}
  85. Eine weitere Art, Programmiersprachen zu unterscheiden ist die stärke
  86. ihrer Typisierung.
  87. \begin{definition}[Dynamische Typisierung]\xindex{Typisierung!dynamische}
  88. Bei dynamisch typisierten Sprachen kann eine Variable ihren Typ ändern.
  89. \end{definition}
  90. Beispiele sind Python und PHP.
  91. \begin{definition}[Statische Typisierung]\xindex{Typisierung!statische}
  92. Bei statisch typisierten Sprachen kann eine niemals ihren Typ ändern.
  93. \end{definition}
  94. Beispiele sind C, Haskell und Java.
  95. \section{Kompilierte und interpretierte Sprachen}
  96. Sprachen werden überlicherweise entweder interpretiert oder kompiliert,
  97. obwohl es Programmiersprachen gibt, die beides unterstützen.
  98. C und Java werden kompiliert, Python und TCL interpretiert.
  99. \section{Dies und das}
  100. \begin{definition}[Seiteneffekt]\xindex{Seiteneffekt}\index{Nebeneffekt|see{Seiteneffekt}}\index{Wirkung|see{Seiteneffekt}}%
  101. Seiteneffekte sind Veränderungen des Zustandes.\todo{Das geht besser}
  102. \end{definition}
  103. Manchmal werden Seiteneffekte auch als Nebeneffekt oder Wirkung bezeichnet.
  104. \begin{definition}[Unifikation]\xindex{Unifikation}%
  105. Die Unifikation ist eine Operation in der Logik und dient zur Vereinfachung
  106. prädikatenlogischer Ausdrücke.
  107. Der Unifikator ist also eine Abbildung, die in einem Schritt dafür sorgt, dass
  108. auf beiden Seiten der Gleichung das selbe steht.
  109. \end{definition}
  110. \begin{beispiel}[Unifikation\footnotemark]
  111. Gegeben seien die Ausdrücke
  112. \begin{align*}
  113. A_1 &= \left(X, Y, f(b) \right)\\
  114. A_2 &= \left(a, b, Z \right)
  115. \end{align*}
  116. Großbuchstaben stehen dabei für Variablen und Kleinbuchstaben für atomare
  117. Ausdrücke.
  118. Ersetzt man in $A_1$ nun $X$ durch $a$, $Y$ durch $b$ und in $A_2$
  119. die Variable $Z$ durch $f\left(b\right)$, so sind sie gleich oder
  120. \enquote{unifiziert}. Man erhält
  121. \begin{align*}
  122. \sigma(A_1) &= \left(a, b, f(b) \right)\\
  123. \sigma(A_2) &= \left(a, b, f(b) \right)
  124. \end{align*}
  125. mit
  126. \[\sigma = \{X \mapsto a, Y \mapsto b, Z \mapsto f(b)\}\]
  127. \end{beispiel}
  128. \begin{definition}[Allgemeinster Unifikator]\xindex{Unifikator!allgemeinster}%
  129. Ein Unifikator $\sigma$ heißt \textit{allgemeinster Unifikator}, wenn
  130. es für jeden Unifikator $\gamma$ eine Substitution $\delta$ mit
  131. \[\gamma = \delta \circ \sigma\]
  132. gibt.
  133. \end{definition}
  134. \begin{beispiel}[Allgemeinster Unifikator\footnotemark]
  135. Sei
  136. \[C = \Set{f(a,D) = Y, X = g(b), g(Z) = X}\]
  137. eine Menge von Gleichungen über Terme.
  138. Dann ist
  139. \[\gamma = [Y \text{\pointer} f(a,b), D \text{\pointer} b, X \text{\pointer} g(b), Z \text{\pointer} b]\]
  140. ein Unifikator für $C$. Jedoch ist
  141. \[\sigma = [Y \text{\pointer} f(a,D), X \text{\pointer} g(b), Z \text{\pointer} b]\]
  142. der allgemeinste Unifikator. Mit
  143. \[\delta = [D \text{\pointer} b]\]
  144. gilt $\gamma = \delta \circ \sigma$.
  145. \end{beispiel}
  146. \footnotetext{Folie 268 von Prof. Snelting}
  147. \begin{algorithm}[h]
  148. \begin{algorithmic}
  149. \Function{unify}{Gleichungsmenge $C$}
  150. \If{$C == \emptyset$}
  151. \State \Return $[]$
  152. \Else
  153. \State Es sei $\Set{\theta_l = \theta_r} \cup C' == C$
  154. \If{$\theta_l == \theta_r$}
  155. \State \Call{unify}{$C'$}
  156. \ElsIf{$\theta_l == Y$ and $Y \notin FV(\theta_r)$}
  157. \State \Call{unify}{$[Y \text{\pointer} \theta_r] C'$} $\circ [Y \text{\pointer} \theta_r]$
  158. \ElsIf{$\theta_r == Y$ and $Y \notin FV(\theta_l)$}
  159. \State \Call{unify}{$[Y \text{\pointer} \theta_l] C'$} $\circ [Y \text{\pointer} \theta_l]$
  160. \ElsIf{$\theta_l == f(\theta_l^1, \dots, \theta_l^n)$ and $\theta_r == f(\theta_r^1, \dots, \theta_r^n$}
  161. \State \Call{unify}{$C' \cup \Set{\theta_l^1 = \theta_r^1, \dots \theta_l^n = \theta_r^n}$}
  162. \Else
  163. \State fail
  164. \EndIf
  165. \EndIf
  166. \EndFunction
  167. \end{algorithmic}
  168. \caption{Klassischer Unifikationsalgorithmus}
  169. \label{alg:klassischer-unifikationsalgorithmus}
  170. \end{algorithm}
  171. Dieser klassische Algorithmus hat eine Laufzeit von $\mathcal{O}(2^n)$ für folgendes
  172. Beispiel:
  173. \[f(X_1, X_2, \dots, X_n) = f(g(X_0, X_0), g(X_1, X_1), \dots, g(X_{n-1}, X_{n-1}) )\]
  174. Der \textit{Paterson-Wegman-Unifikationsalgorithmus}\xindex{Paterson-Wegman-Unifikationsalgorithmus} ist deutlich effizienter.
  175. Er basiert auf dem \textit{Union-Find-Algorithmus}\xindex{Union-Find-Algorithmus}.
  176. \footnotetext{\url{https://de.wikipedia.org/w/index.php?title=Unifikation\_(Logik)&oldid=116848554\#Beispiel}}