Browse Source

documents/Warteschlangen: real umlauts, to make the PDF searchable

Martin Thoma 10 years ago
parent
commit
e6b89f74ee
3 changed files with 300 additions and 298 deletions
  1. 3 0
      documents/Warteschlangen/README.md
  2. 158 159
      documents/Warteschlangen/klaus.tex
  3. 139 139
      documents/Warteschlangen/pantelis.tex

+ 3 - 0
documents/Warteschlangen/README.md

@@ -0,0 +1,3 @@
+Das hier angebotene Skript wurde von Karl Grill erstellt.
+Das original ist [hier](http://www.ci.tuwien.ac.at/~grill/) zu finden. Die hier
+angebotene Version wurde (in Kleinigkeiten) von Martin Thoma überarbeitet.

+ 158 - 159
documents/Warteschlangen/klaus.tex

@@ -1,26 +1,26 @@
 
 
 %-----------------------------------------------------------------------------------------------------------------
 %-----------------------------------------------------------------------------------------------------------------
-\chapter{Absch"atzungen und N"aherungen}
+\chapter{Abschätzungen und Näherungen}
 %-----------------------------------------------------------------------------------------------------------------
 %-----------------------------------------------------------------------------------------------------------------
-\section{Absch"atzungen}
+\section{Abschätzungen}
 %------------------------------------------------------------------------------------------------------------------
 %------------------------------------------------------------------------------------------------------------------
-Die Ergebnisse des vorigen Abschnittes sind deswegen etwas unbefriedigend, weil die angestrebte Zerlegung nur in 
-Spezialf"allen m"oglich ist. Im allgemeinen Fall m"ussen wir uns darauf beschr"anken, Absch"atzungen und
-n"aherungsweise L"osungen zu finden.
+Die Ergebnisse des vorigen Abschnittes sind deswegen etwas unbefriedigend, weil die angestrebte Zerlegung nur in
+Spezialfällen möglich ist. Im allgemeinen Fall müssen wir uns darauf beschränken, Abschätzungen und
+näherungsweise Lösungen zu finden.
 
 
 Wir gehen wieder von unserer Rekursionsgleichung aus:
 Wir gehen wieder von unserer Rekursionsgleichung aus:
 \[w_{n+1} = (w_{n}+u_{n})_{+} \]
 \[w_{n+1} = (w_{n}+u_{n})_{+} \]
-Wir f"uhren eine neue Zufallsvariable $y_{n}$ ein, die den entsprechenden Negativteil darstellt:
+Wir führen eine neue Zufallsvariable $y_{n}$ ein, die den entsprechenden Negativteil darstellt:
 \[y_{n} = (w_{n}+u_{n})_{-}  ~ ~ ~ ~ ~ ((x)_{-} := (-x)_{+}) ~. \]
 \[y_{n} = (w_{n}+u_{n})_{-}  ~ ~ ~ ~ ~ ((x)_{-} := (-x)_{+}) ~. \]
 Damit erhalten wir
 Damit erhalten wir
 \[ w_{n+1}-y_{n} = w_{n}+u_{n} ~.\]
 \[ w_{n+1}-y_{n} = w_{n}+u_{n} ~.\]
-Das gibt f"ur die Erwartungswerte:
+Das gibt für die Erwartungswerte:
 \[\E(w_{n+1})-\E(y_{n}) = \E(w_{n})+\E(u_{n}) ~.\]
 \[\E(w_{n+1})-\E(y_{n}) = \E(w_{n})+\E(u_{n}) ~.\]
-F"ur $n$ $\rightarrow$ $\infty$ ergibt sich
+Für $n$ $\rightarrow$ $\infty$ ergibt sich
 \[-\E(y) = \E(u) = \E(x) - \E(t) \qquad \mbox{oder} \qquad \E(y) = \E(t) - \E(x) ~.\]
 \[-\E(y) = \E(u) = \E(x) - \E(t) \qquad \mbox{oder} \qquad \E(y) = \E(t) - \E(x) ~.\]
-Leider haben wir keine Beziehung f"ur die Wartezeit (Anmerkung: in den letzten Gleichungen steht nur eine Beziehung f"ur die Verteilungen).
+Leider haben wir keine Beziehung für die Wartezeit (Anmerkung: in den letzten Gleichungen steht nur eine Beziehung für die Verteilungen).
 
 
-Als n"achstes quadrieren wir die Ausgangsgleichung
+Als nächstes quadrieren wir die Ausgangsgleichung
 \[ w_{n+1}^{2}+y_{n}^{2}-2w_{n+1}y_{n}=w_{n}^{2}+2w_{n}u_{n}+u_{n}^{2} ~.\]
 \[ w_{n+1}^{2}+y_{n}^{2}-2w_{n+1}y_{n}=w_{n}^{2}+2w_{n}u_{n}+u_{n}^{2} ~.\]
 Wegen \( (x)_{+}(x)_{-} = 0 \)  ist \( w_{n+1}y_{n} = 0 ~,\) also
 Wegen \( (x)_{+}(x)_{-} = 0 \)  ist \( w_{n+1}y_{n} = 0 ~,\) also
 \[w_{n+1}^2 + y_{n}^2 = w_{n}^2+2w_{n}u_{n}+u_{n}^2 ~.\]
 \[w_{n+1}^2 + y_{n}^2 = w_{n}^2+2w_{n}u_{n}+u_{n}^2 ~.\]
@@ -29,104 +29,104 @@ Wenn wir wieder die Erwartungswerte berchnen und \(n \rightarrow \infty \) gehen
 \E(w^{2})+\E(y^{2})&=&\E(w^{2})+2\E(wu)+\E(u^{2}) = \\
 \E(w^{2})+\E(y^{2})&=&\E(w^{2})+2\E(wu)+\E(u^{2}) = \\
                    &=&\E(w^{2})+2\E(w)\E(u)+\E(u^{2}) \\
                    &=&\E(w^{2})+2\E(w)\E(u)+\E(u^{2}) \\
 \end{eqnarray*}
 \end{eqnarray*}
-($w_{n}$ und $u_{n}$ sind ja unabh"angig).
+($w_{n}$ und $u_{n}$ sind ja unabhängig).
 
 
-Schlie"slich haben wir
+Schließlich haben wir
 \[\E(w) = \frac{\E(u^{2})-\E(y^{2})}{-2\E(u)} \qquad [\E(u) \mbox{ ist ja negativ}] ~.\]
 \[\E(w) = \frac{\E(u^{2})-\E(y^{2})}{-2\E(u)} \qquad [\E(u) \mbox{ ist ja negativ}] ~.\]
-Wir erhalten eine obere Absch"atzung, wenn wir $\E(y^{2})$ nach unten absch"atzen. Dazu verhilft uns die Ungleichung
+Wir erhalten eine obere Abschätzung, wenn wir $\E(y^{2})$ nach unten abschätzen. Dazu verhilft uns die Ungleichung
 \[\E(y^{2}) \geq (\E(y))^{2} = (\E(u))^{2} \qquad  \mbox{also }\]
 \[\E(y^{2}) \geq (\E(y))^{2} = (\E(u))^{2} \qquad  \mbox{also }\]
 \[\E(w^{2}) \leq \frac{{\bf Var}(u)}{-2\E(u)} = \frac{{\bf Var}(x)+{\bf Var}(t)}{-2\E(u)} ~.\]
 \[\E(w^{2}) \leq \frac{{\bf Var}(u)}{-2\E(u)} = \frac{{\bf Var}(x)+{\bf Var}(t)}{-2\E(u)} ~.\]
-F"ur eine obere Absch"atzung f"ur $\E(y^{2})$ beachten wir, da"s
+Für eine obere Abschätzung für $\E(y^{2})$ beachten wir, daß
 \[y=(w+u)_{-} \leq (u)_{-} \quad \mbox{da} \quad w \geq 0 ~.\]
 \[y=(w+u)_{-} \leq (u)_{-} \quad \mbox{da} \quad w \geq 0 ~.\]
 Wegen$ \quad u^{2} = ((u)_{+}-(u)_{-})^{2} = ((u)_{+})^{2}+((u)_{-})^{2} \quad $erhalten wir
 Wegen$ \quad u^{2} = ((u)_{+}-(u)_{-})^{2} = ((u)_{+})^{2}+((u)_{-})^{2} \quad $erhalten wir
 \[\E(w) \geq \frac{(\E((u)_{+}))^{2}}{-2\E(u)} ~.\]
 \[\E(w) \geq \frac{(\E((u)_{+}))^{2}}{-2\E(u)} ~.\]
-Ein weiterer Weg, eine untere Absch"atzung zu finden ist folgender:
-\[\E(w_{n+1}) = \E(w_{n}+u_{n})_{+} = \E[\E((w_{n}+u_{n})_{+}\vert w_{n})] ~.\] 
-Wenn wir f"ur die Verteilungsfunktion von $u_{n}$
+Ein weiterer Weg, eine untere Abschätzung zu finden ist folgender:
+\[\E(w_{n+1}) = \E(w_{n}+u_{n})_{+} = \E[\E((w_{n}+u_{n})_{+}\vert w_{n})] ~.\]
+Wenn wir für die Verteilungsfunktion von $u_{n}$
 \[C(y)=\PP(u_{n} \leq y)    \]
 \[C(y)=\PP(u_{n} \leq y)    \]
 setzen, erhalten wir
 setzen, erhalten wir
 \[\E((w_{n}+u_{n})_{+} \vert w_{n} = y) = \int_{-y}^{\infty}(u+z)dC(z) = \int_{-y}^{\infty}(1-C(z))dz =: g(y) ~.\]
 \[\E((w_{n}+u_{n})_{+} \vert w_{n} = y) = \int_{-y}^{\infty}(u+z)dC(z) = \int_{-y}^{\infty}(1-C(z))dz =: g(y) ~.\]
 Also
 Also
 \[\E(w_{n+1}) = \E(g(w_{n}))\]
 \[\E(w_{n+1}) = \E(g(w_{n}))\]
-$g$ ist konvex ($g'$ ist monoton), also k"onnen wir die JENSEN'sche Ungleichung anwenden:
+$g$ ist konvex ($g'$ ist monoton), also können wir die JENSEN'sche Ungleichung anwenden:
 \[\E(g(w_{n})) \geq g(\E(w_{n}))~.\]
 \[\E(g(w_{n})) \geq g(\E(w_{n}))~.\]
-F"ur $n \rightarrow \infty$ ergibt sich
+Für $n \rightarrow \infty$ ergibt sich
 \[\E(w) \geq g(\E(w)) ~.\]
 \[\E(w) \geq g(\E(w)) ~.\]
-Wir betrachten die Gleichung 
+Wir betrachten die Gleichung
 \[g(y) = y ~.\]
 \[g(y) = y ~.\]
 Die Funktion $y-g(y)$ hat die Ableitung $G(-y) \geq 0$, ist also monoton.\\
 Die Funktion $y-g(y)$ hat die Ableitung $G(-y) \geq 0$, ist also monoton.\\
 Weiters ist $g(0) = \E((u_{n})_{+}) > 0 \mbox{ falls } W(u_{n} > 0) > 0$ ist (andernfalls ist $w = 0$).\\
 Weiters ist $g(0) = \E((u_{n})_{+}) > 0 \mbox{ falls } W(u_{n} > 0) > 0$ ist (andernfalls ist $w = 0$).\\
-F"ur $n \rightarrow \infty$ ist $g(y) \rightarrow \E(u) < 0$, es gibt also eine eindeutig bestimmte L"osung $y_{0}$, f"ur die $g(y_{0}) = y_{o}$, und 
+Für $n \rightarrow \infty$ ist $g(y) \rightarrow \E(u) < 0$, es gibt also eine eindeutig bestimmte Lösung $y_{0}$, für die $g(y_{0}) = y_{o}$, und
 \[\E(w) \geq g(y_{o}) ~.\]
 \[\E(w) \geq g(y_{o}) ~.\]
 
 
 %------------------------------------
 %------------------------------------
-\section{N"aherungen}
+\section{Näherungen}
 %------------------------------------
 %------------------------------------
 \bigskip
 \bigskip
-"Ahnlich wie die Absch"atzungen des vorigen Kapitels sollen uns die N"aherungen dieses Abschnittes dazu dienen, ungef"ahre Aussagen "uber das qualitative
-Verhalten einer Warteschlange zu treffen. Eine M"oglichkeit besteht darin, die auftretenden Verteilungen durch solche zu ersetzen, f"ur die wir exakte Ergebnisse
-kennen. Dazu k"onnen wir etwa folgende Klassen von Verteilungen verwenden:
+Ähnlich wie die Abschätzungen des vorigen Kapitels sollen uns die Näherungen dieses Abschnittes dazu dienen, ungefähre Aussagen über das qualitative
+Verhalten einer Warteschlange zu treffen. Eine Möglichkeit besteht darin, die auftretenden Verteilungen durch solche zu ersetzen, für die wir exakte Ergebnisse
+kennen. Dazu können wir etwa folgende Klassen von Verteilungen verwenden:
 \begin{enumerate}
 \begin{enumerate}
 
 
 \item {\bf Verteilungen mit rationaler Laplacetransformation}
 \item {\bf Verteilungen mit rationaler Laplacetransformation}
 
 
-Man kann jede Verteilung durch Verteilungen mit rationalen Laplacetransformationen ann"ahern. F"ur diese Verteilungen kann \\
- man die Spektralzerlegung f"ur $G/G/1$ 'leicht' durchf"uhren: \\
-man findet die Nullstellen von Z"ahler und Nenner und ordnet sie, je nachdem in welcher Halbebene sie liegen, entweder
+Man kann jede Verteilung durch Verteilungen mit rationalen Laplacetransformationen annähern. Für diese Verteilungen kann \\
+ man die Spektralzerlegung für $G/G/1$ 'leicht' durchführen: \\
+man findet die Nullstellen von Zähler und Nenner und ordnet sie, je nachdem in welcher Halbebene sie liegen, entweder
 der Funktion $\Psi^{+}$ oder $\Psi^{-}$zu.
 der Funktion $\Psi^{+}$ oder $\Psi^{-}$zu.
 
 
 \item {\bf Diskrete Verteilungen}
 \item {\bf Diskrete Verteilungen}
 
 
-"Ahnlich wie unter $1.$ kann man jede Verteilung durch eine diskrete Verteilung ann"ahern. Das folgende Beispiel zeigt, wie die diskreten Verteilungen behandelt
-werden k"onnen:\\
-Es sei 
+Ähnlich wie unter $1.$ kann man jede Verteilung durch eine diskrete Verteilung annähern. Das folgende Beispiel zeigt, wie die diskreten Verteilungen behandelt
+werden können:\\
+Es sei
 \begin{eqnarray*}
 \begin{eqnarray*}
   \PP(t_{n}=1)=a, \quad \PP(t_{n}=2)=1-a \\
   \PP(t_{n}=1)=a, \quad \PP(t_{n}=2)=1-a \\
-  \PP(x_{n}=1)=b, \quad \PP(x_{n}=2)=1-b 
+  \PP(x_{n}=1)=b, \quad \PP(x_{n}=2)=1-b
 \end{eqnarray*}
 \end{eqnarray*}
 [$b>a$].
 [$b>a$].
 
 
-F"ur $u_{n}=x_{n}-t_{n+1}$ ergibt sich:
+Für $u_{n}=x_{n}-t_{n+1}$ ergibt sich:
 \begin{eqnarray*}
 \begin{eqnarray*}
    \PP(u_{n}=-1)&=&b(1-a) \\
    \PP(u_{n}=-1)&=&b(1-a) \\
    \PP(u_{n}=1)&=&a(1-b) \\
    \PP(u_{n}=1)&=&a(1-b) \\
    \PP(u_{n}=0)&=&ab+(1-a)(1-b) ~.
    \PP(u_{n}=0)&=&ab+(1-a)(1-b) ~.
 \end{eqnarray*}
 \end{eqnarray*}
-F"ur die station"are Verteilung der Wartezeit $w$ ergibt sich die Rekursion
+Für die stationäre Verteilung der Wartezeit $w$ ergibt sich die Rekursion
 \begin{eqnarray*}
 \begin{eqnarray*}
   p_{k}&=&a(1-b)p_{k-1}+(ab+(1-a)(1-b))p_{k}+b(1-a)p_{k+1} \\
   p_{k}&=&a(1-b)p_{k-1}+(ab+(1-a)(1-b))p_{k}+b(1-a)p_{k+1} \\
-  p_{0}&=&(a(1-b)+ab-(1-a)(1-b))p_{0}+b(1-a)p_{1} ~. 
-\end{eqnarray*} 
+  p_{0}&=&(a(1-b)+ab-(1-a)(1-b))p_{0}+b(1-a)p_{1} ~.
+\end{eqnarray*}
 Wir erhalten
 Wir erhalten
 \begin{eqnarray*}
 \begin{eqnarray*}
   p_{k}&=&p_{0}\left( \frac{a(1-b)}{b(1-a)}\right)^{k} \\
   p_{k}&=&p_{0}\left( \frac{a(1-b)}{b(1-a)}\right)^{k} \\
   p_{0}&=&1-\frac{a(1-b)}{b(1-a)}=\frac{b-a}{b(1-a)} ~.\\
   p_{0}&=&1-\frac{a(1-b)}{b(1-a)}=\frac{b-a}{b(1-a)} ~.\\
 \end{eqnarray*}
 \end{eqnarray*}
-Falls wir mehr als zwei m"ogliche Werte f"ur $x$ bzw. $t$ haben, m"ussen wir eine Rekursion h"oherer Ordnung l"osen; dazu sind bekanntlich die Nullstellen des
-charakteristischen Polynoms zu bestimmen. Auch hier, ebenso wie im im vorigen Abschnitt, reduziert sich also das Problem auf die L"osung einer algebraischen
-Gleichung. Diese L"osung ist f"ur hohe Polynomgrade nur numerisch m"oglich. Dies und die Tatsache, da"s man nicht genau wei"s, wie eine 'gute' N"aherung zu
-w"ahlen
-ist, reduziert die Brauchbarkeit dieser beiden N"aherungen.
+Falls wir mehr als zwei mögliche Werte für $x$ bzw. $t$ haben, müssen wir eine Rekursion höherer Ordnung lösen; dazu sind bekanntlich die Nullstellen des
+charakteristischen Polynoms zu bestimmen. Auch hier, ebenso wie im im vorigen Abschnitt, reduziert sich also das Problem auf die Lösung einer algebraischen
+Gleichung. Diese Lösung ist für hohe Polynomgrade nur numerisch möglich. Dies und die Tatsache, daß man nicht genau weiß, wie eine 'gute' Näherung zu
+wählen
+ist, reduziert die Brauchbarkeit dieser beiden Näherungen.
 
 
-\item {\bf Approximation f"ur starke Auslastung ('Heavy traffic approximation')}
+\item {\bf Approximation für starke Auslastung ('Heavy traffic approximation')}
 
 
 Wir betrachten den Fall $\rho \approx 1$. \\
 Wir betrachten den Fall $\rho \approx 1$. \\
 Ausgangspunkt unserer Betrachtungen ist die Spektralzerlegung der $G/G/1$:
 Ausgangspunkt unserer Betrachtungen ist die Spektralzerlegung der $G/G/1$:
 \[\frac{\Psi^{+}(s)}{\Psi^{-}(s)}=\tilde A (-s)\tilde B (s)-1 ~.\]
 \[\frac{\Psi^{+}(s)}{\Psi^{-}(s)}=\tilde A (-s)\tilde B (s)-1 ~.\]
-F"ur $s \rightarrow 0$ erhalten wir daraus die Entwicklung
+Für $s \rightarrow 0$ erhalten wir daraus die Entwicklung
 \begin{eqnarray*}
 \begin{eqnarray*}
-  \frac{\Psi^{+}(s)}{\Psi^{-}(s)}&=&(\E(t)-\E(x))s+\frac{s^{2}}{2}\E((x-t)^{2})+o(s^{2})= \\   
+  \frac{\Psi^{+}(s)}{\Psi^{-}(s)}&=&(\E(t)-\E(x))s+\frac{s^{2}}{2}\E((x-t)^{2})+o(s^{2})= \\
                                  &=&(1-\rho)s\E(t)+\frac{s^{2}}{2}\E((x-t)^{2})+o(s^{2})=  \\
                                  &=&(1-\rho)s\E(t)+\frac{s^{2}}{2}\E((x-t)^{2})+o(s^{2})=  \\
                                  &=&(1-\rho)s\E(t)+\frac{s^{2}}{2}({\bf Var}(x)+{\bf Var}(t)+ \\
                                  &=&(1-\rho)s\E(t)+\frac{s^{2}}{2}({\bf Var}(x)+{\bf Var}(t)+ \\
                                  &+&(1-\rho)^{2}(\E(t))^{2}) + o(s^{2}) ~.
                                  &+&(1-\rho)^{2}(\E(t))^{2}) + o(s^{2}) ~.
 \end{eqnarray*}
 \end{eqnarray*}
-F"ur $\rho \approx 1$ ist $(1-\rho)^{2}(\E(t))^{2}$ zu vernachl"assigen, also
+Für $\rho \approx 1$ ist $(1-\rho)^{2}(\E(t))^{2}$ zu vernachlässigen, also
 \begin{eqnarray*}
 \begin{eqnarray*}
   \frac{\Psi^{+}(s)}{\Psi^{-}(s)}&\approx&(1-\rho)s\E(t)+\frac{s^{2}}{2}({\bf Var}(x)+{\bf Var}(t))+o(s^{2}) \approx \\
   \frac{\Psi^{+}(s)}{\Psi^{-}(s)}&\approx&(1-\rho)s\E(t)+\frac{s^{2}}{2}({\bf Var}(x)+{\bf Var}(t))+o(s^{2}) \approx \\
   &\approx&s(s-s_{0}) \frac{{\bf Var}(x)+{\bf Var}(t)}{2} ~.
   &\approx&s(s-s_{0}) \frac{{\bf Var}(x)+{\bf Var}(t)}{2} ~.
 \end{eqnarray*}
 \end{eqnarray*}
 
 
-$\Psi^{+}(s)$ ist in der N"ahe von $0$ stetig, also haben wir
+$\Psi^{+}(s)$ ist in der Nähe von $0$ stetig, also haben wir
 \[\Psi^{+}(s) \approx Cs(s-s_{o})\]
 \[\Psi^{+}(s) \approx Cs(s-s_{o})\]
 mit
 mit
 \[s_{0}=-\frac{2(1-\rho)\E(t)}{{\bf Var}(x)+{\bf Var}(t)} \]
 \[s_{0}=-\frac{2(1-\rho)\E(t)}{{\bf Var}(x)+{\bf Var}(t)} \]
@@ -134,47 +134,47 @@ und
 \[C=\Psi^{-}(0)\frac{{\bf Var}(x)+{\bf Var}(t)}{2} ~. \]
 \[C=\Psi^{-}(0)\frac{{\bf Var}(x)+{\bf Var}(t)}{2} ~. \]
 Wir erhalten daraus
 Wir erhalten daraus
 \[\Phi(s) \approx -\frac{s_{0}}{s(s-s_{0})}=\frac{1}{s}-\frac{1}{s-s_{0}} ~.\]
 \[\Phi(s) \approx -\frac{s_{0}}{s(s-s_{0})}=\frac{1}{s}-\frac{1}{s-s_{0}} ~.\]
-Also ergibt sich f"ur die Verteilungsfunktion der Wartezeit
+Also ergibt sich für die Verteilungsfunktion der Wartezeit
 \[ F(y) \approx 1 - e^{-y\frac{2\E(t)(1-\rho)}{{\bf Var}(x)+{\bf Var}(t)}} ~.\]
 \[ F(y) \approx 1 - e^{-y\frac{2\E(t)(1-\rho)}{{\bf Var}(x)+{\bf Var}(t)}} ~.\]
-Die Wartezeit ist also n"aherungsweise exponentialverteilt mit Mittel
+Die Wartezeit ist also näherungsweise exponentialverteilt mit Mittel
 \[\E(w)=\frac{{\bf Var}(x)+{\bf Var}(t)}{2\E(t)(1-\rho)} ~.\]
 \[\E(w)=\frac{{\bf Var}(x)+{\bf Var}(t)}{2\E(t)(1-\rho)} ~.\]
-Dieses Ergebnis kann man als \index{Satz!Zentraler Grenzwertsatz f\"{u}r Warteschlangen}'zentralen Grenzwertsatz' f"ur Warteschlangen betrachten.
+Dieses Ergebnis kann man als \index{Satz!Zentraler Grenzwertsatz für Warteschlangen}'zentralen Grenzwertsatz' für Warteschlangen betrachten.
 
 
 Das Mittel dieser Exponentialverteilung haben wir bereits als obere
 Das Mittel dieser Exponentialverteilung haben wir bereits als obere
-Absch"atzung f"ur die mittlere Wartezeit erhalten.
+Abschätzung für die mittlere Wartezeit erhalten.
 
 
 \item{\bf Die Flussapproximation}
 \item{\bf Die Flussapproximation}
 
 
-Diese N"aherung geht von einer einfachen Idee aus:\\
-Wir ersetzen die Ank"unfte und Bedienvorg"ange durch konstante Str"ome von $\lambda$ bzw. $\mu$ Kunden
-pro Zeiteinheit. In unserem Standardmodell $(\lambda < \mu)$ ergibt sich aus dieser N"aherung nat"urlich, da"s die 
+Diese Näherung geht von einer einfachen Idee aus:\\
+Wir ersetzen die Ankünfte und Bedienvorgänge durch konstante Ströme von $\lambda$ bzw. $\mu$ Kunden
+pro Zeiteinheit. In unserem Standardmodell $(\lambda < \mu)$ ergibt sich aus dieser Näherung natürlich, daß die
 Schlange stets leer ist, was offensichtlich nicht sehr brauchbar ist.
 Schlange stets leer ist, was offensichtlich nicht sehr brauchbar ist.
 
 
-F"ur zwei F"alle gibt diese Approximation aber doch interessante Resultate:
+Für zwei Fälle gibt diese Approximation aber doch interessante Resultate:
    \begin{enumerate}
    \begin{enumerate}
-   \item Falls $\mu < \lambda$ ist, w"achst die Anzahl der Kunden im System um $(\lambda - \mu)$ Kunden pro Zeiteinheit. 
-   \item Falls $\lambda < \mu$ ist, und falls die Anzahl der Kunden gro"s ist, kann man die Zeit, bis das System wieder leer ist, mit Hilfe dieser
-         N"aherung berechnen.
+   \item Falls $\mu < \lambda$ ist, wächst die Anzahl der Kunden im System um $(\lambda - \mu)$ Kunden pro Zeiteinheit.
+   \item Falls $\lambda < \mu$ ist, und falls die Anzahl der Kunden groß ist, kann man die Zeit, bis das System wieder leer ist, mit Hilfe dieser
+         Näherung berechnen.
    \end{enumerate}
    \end{enumerate}
 
 
-\item{\bf Die Diffusionsn"aherung}
+\item{\bf Die Diffusionsnäherung}
 
 
-Dies ist wie die vorige N"aherung eine Approximation durch einen kontinuierlichen Proze"s. Diesmal wird auch die Varianz betrachtet.
+Dies ist wie die vorige Näherung eine Approximation durch einen kontinuierlichen Prozeß. Diesmal wird auch die Varianz betrachtet.
 
 
 Es sei $N_{a}(u)$ die Anzahl der Kunden, die bis zur Zeit $t$ ankommen.\\
 Es sei $N_{a}(u)$ die Anzahl der Kunden, die bis zur Zeit $t$ ankommen.\\
 Es gilt die Beziehung
 Es gilt die Beziehung
 \[ N_{a}(u) \geq n \Leftrightarrow T_{n} \geq u \]
 \[ N_{a}(u) \geq n \Leftrightarrow T_{n} \geq u \]
-$T_{n}$ ist, wie "ublich, die Ankunftszeit des $n$-ten Kunden.
+$T_{n}$ ist, wie üblich, die Ankunftszeit des $n$-ten Kunden.
 
 
-Aus dem Gesetz der gro"sen Zahlen folgt:
+Aus dem Gesetz der großen Zahlen folgt:
 \[ T_{n} \approx n\E(t) ~.\]
 \[ T_{n} \approx n\E(t) ~.\]
 Das impliziert
 Das impliziert
 \[N_{a}(u) \approx \lambda u ~. \]
 \[N_{a}(u) \approx \lambda u ~. \]
 Der zentrale Grenzwertsatz gibt uns
 Der zentrale Grenzwertsatz gibt uns
 \[\PP(T_{n} \leq n\E(t)+z\sqrt{n{\bf Var}(t)}) = \Phi (z) ~.   \]
 \[\PP(T_{n} \leq n\E(t)+z\sqrt{n{\bf Var}(t)}) = \Phi (z) ~.   \]
-Daraus ergibt sich f"ur gro"ses n
+Daraus ergibt sich für großes n
 \begin{eqnarray*}
 \begin{eqnarray*}
-& &\PP(N_{a}\geq\lambda u + y\sqrt{u}) = \\ 
+& &\PP(N_{a}\geq\lambda u + y\sqrt{u}) = \\
 & & ~ ~=\PP(T_{\lambda u + y\sqrt{u}} \leq u) = \\
 & & ~ ~=\PP(T_{\lambda u + y\sqrt{u}} \leq u) = \\
 & & ~ ~=\PP(T_{\lambda u + y\sqrt{u}} \leq \E(t)(\lambda u + y\sqrt{u}) - y\E(t)\sqrt{u} ) = \\
 & & ~ ~=\PP(T_{\lambda u + y\sqrt{u}} \leq \E(t)(\lambda u + y\sqrt{u}) - y\E(t)\sqrt{u} ) = \\
 & & ~ ~=\PP(T_{\lambda u + y\sqrt{u}} \leq \E(t)(\lambda u + y\sqrt{u}) - \\
 & & ~ ~=\PP(T_{\lambda u + y\sqrt{u}} \leq \E(t)(\lambda u + y\sqrt{u}) - \\
@@ -183,22 +183,22 @@ Daraus ergibt sich f"ur gro"ses n
 & & ~ ~ ~ ~ ~-\frac{y}{\sqrt{\lambda ^{3}{\bf Var}(t)}}\sqrt{{\bf Var}(t)(\lambda u + y\sqrt{u})}) \\
 & & ~ ~ ~ ~ ~-\frac{y}{\sqrt{\lambda ^{3}{\bf Var}(t)}}\sqrt{{\bf Var}(t)(\lambda u + y\sqrt{u})}) \\
 & &~ ~=1 - \Phi(\frac{y}{\sqrt{\lambda ^{3}{\bf Var}(t)}}) ~.
 & &~ ~=1 - \Phi(\frac{y}{\sqrt{\lambda ^{3}{\bf Var}(t)}}) ~.
 \end{eqnarray*}
 \end{eqnarray*}
-$N_{a}(u)$ ist also n"aherungsweise normalverteilt mit Mittel $u\lambda$ und Varianz $u\lambda^{3}{\bf Var}(t)$. Genauso erh"alt man f"ur die Anzahl $N_{b}(u)$
+$N_{a}(u)$ ist also näherungsweise normalverteilt mit Mittel $u\lambda$ und Varianz $u\lambda^{3}{\bf Var}(t)$. Genauso erhält man für die Anzahl $N_{b}(u)$
 der
 der
-Kunden, die w"ahrend der Zeit $u$ bedient werden (wenn die Schlange nicht leer ist) eine n"aherungsweise Normalverteilung mit Mittel $\mu u$ und Varianz
-$\mu^{3}u{\bf Var}(x)$. Wir nehmen jetzt an, da"s diese Werte durch kontinuierliche Beitr"age zustande kommen, d.h. die 'Anzahl' der Ank"unfte (bzw.
-Bedienvorg"ange)
+Kunden, die während der Zeit $u$ bedient werden (wenn die Schlange nicht leer ist) eine näherungsweise Normalverteilung mit Mittel $\mu u$ und Varianz
+$\mu^{3}u{\bf Var}(x)$. Wir nehmen jetzt an, daß diese Werte durch kontinuierliche Beiträge zustande kommen, d.h. die 'Anzahl' der Ankünfte (bzw.
+Bedienvorgänge)
 in der kurzen Zeit $\Delta u$ soll normalverteilt mit Mittel $\lambda\Delta u$ (bzw. $\mu\Delta u$) und Varianz $\lambda^{3}\Delta u{\bf Var}(t)$ (bzw.
 in der kurzen Zeit $\Delta u$ soll normalverteilt mit Mittel $\lambda\Delta u$ (bzw. $\mu\Delta u$) und Varianz $\lambda^{3}\Delta u{\bf Var}(t)$ (bzw.
 $\mu^{3}\Delta
 $\mu^{3}\Delta
-u{\bf Var}(x)$) sein. Die Anzahl der Ank"unfte bzw. Bedienvorg"ange "uber disjunkten Intervallen sollen nat"urlich unabh"angig sein. Die "Anderung der Anzahl der
+u{\bf Var}(x)$) sein. Die Anzahl der Ankünfte bzw. Bedienvorgänge über disjunkten Intervallen sollen natürlich unabhängig sein. Die Änderung der Anzahl der
 Kunden
 Kunden
-im System w"ahrend der Zeit $\Delta u$ ist dann normalverteilt mit Mittel $\Delta u(\lambda - \mu)$ und Varianz $\Delta u\sigma^{2}$ mit $\sigma^{2} =
+im System während der Zeit $\Delta u$ ist dann normalverteilt mit Mittel $\Delta u(\lambda - \mu)$ und Varianz $\Delta u\sigma^{2}$ mit $\sigma^{2} =
 \lambda^{3}{\bf Var}(t) + \mu^{3}{\bf Var}(x)$.\\
 \lambda^{3}{\bf Var}(t) + \mu^{3}{\bf Var}(x)$.\\
-(Die letzte Beziehung gilt nat"urlich nur, wenn die Anzahl der Kunden im System $> 0$ ist).
+(Die letzte Beziehung gilt natürlich nur, wenn die Anzahl der Kunden im System $> 0$ ist).
 
 
-Es sei nun 
+Es sei nun
 \[F(x,u) = \PP(N(u) \leq x) ~.\]
 \[F(x,u) = \PP(N(u) \leq x) ~.\]
-Wir stellen eine Gleichung f"ur $F(x,u+\Delta u)$ auf, dabei sei $X(\Delta u)$ die "Anderung der Kunden w"ahrend $\Delta u$: 
+Wir stellen eine Gleichung für $F(x,u+\Delta u)$ auf, dabei sei $X(\Delta u)$ die Änderung der Kunden während $\Delta u$:
 \begin{eqnarray*}
 \begin{eqnarray*}
 F(x,u+\Delta u)&=&\PP(N(u+\Delta u) \leq x) = \\
 F(x,u+\Delta u)&=&\PP(N(u+\Delta u) \leq x) = \\
                &=&\PP(N(u)+X(\Delta u) \leq x) = \\
                &=&\PP(N(u)+X(\Delta u) \leq x) = \\
@@ -211,7 +211,7 @@ F(x,u+\Delta u)&=&\PP(N(u+\Delta u) \leq x) = \\
                &=&F(x,u)-F_{x}(x,u)\Delta u(\lambda-\mu) + \\
                &=&F(x,u)-F_{x}(x,u)\Delta u(\lambda-\mu) + \\
                & &+\frac{1}{2}F_{xx}(x,u)\sigma^{2}\Delta u + o(\Delta u) ~.
                & &+\frac{1}{2}F_{xx}(x,u)\sigma^{2}\Delta u + o(\Delta u) ~.
 \end{eqnarray*}
 \end{eqnarray*}
-Wenn man $F(x,u)$ nach links bringt, durch $\Delta u$ dividiert, und $\Delta u \rightarrow 0$ gehen l"a"st, ergibt sich
+Wenn man $F(x,u)$ nach links bringt, durch $\Delta u$ dividiert, und $\Delta u \rightarrow 0$ gehen läßt, ergibt sich
 \begin{eqnarray*}
 \begin{eqnarray*}
 F_{u}(x,u)&=&(\mu - \lambda)F_{x}(x,u) + \frac{1}{2}\sigma^{2}F_{xx}(x,u) \qquad (x \geq 0) \\
 F_{u}(x,u)&=&(\mu - \lambda)F_{x}(x,u) + \frac{1}{2}\sigma^{2}F_{xx}(x,u) \qquad (x \geq 0) \\
       & & \\
       & & \\
@@ -219,10 +219,10 @@ F(x,0)&=&1 \qquad (x \geq 0) \\
 F(x,0)&=&0 \qquad (x < 0) \\
 F(x,0)&=&0 \qquad (x < 0) \\
 F(0,u)&=&0 \qquad (u > 0) ~.
 F(0,u)&=&0 \qquad (u > 0) ~.
 \end{eqnarray*}
 \end{eqnarray*}
-Die Anfangsbedingung ergibt sich aus der Forderung, da"s das System zur Zeit $0$ leer sein soll, und die Randbedingung daraus, da"s die Anzahl der Kunden nicht
+Die Anfangsbedingung ergibt sich aus der Forderung, daß das System zur Zeit $0$ leer sein soll, und die Randbedingung daraus, daß die Anzahl der Kunden nicht
 negativ sein darf.
 negativ sein darf.
 
 
-Man kann sehr leicht die L"osung der Gleichung ohne Randbedingung finden, indem man die Laplace-Transformation anwendet:
+Man kann sehr leicht die Lösung der Gleichung ohne Randbedingung finden, indem man die Laplace-Transformation anwendet:
 \[G(z,u)=\int_{-\infty}^{\infty} e^{-xz}F(x,u)dx ~.\]
 \[G(z,u)=\int_{-\infty}^{\infty} e^{-xz}F(x,u)dx ~.\]
 Wir erhalten nach einigen partiellen Integrationen:
 Wir erhalten nach einigen partiellen Integrationen:
 \[G_{u}(z,u) = (\mu-\lambda)zG(z,u)+\frac{1}{2}\lambda^{2}z^{2}G(z,u) ~, \]
 \[G_{u}(z,u) = (\mu-\lambda)zG(z,u)+\frac{1}{2}\lambda^{2}z^{2}G(z,u) ~, \]
@@ -232,49 +232,48 @@ und, da $G(z,0)=\frac{1}{z}$
 \[G(z,u) = \frac{1}{z}e^{\frac{1}{2}\sigma^{2}uz^{2}+(\mu - \lambda)zu} ~.\]
 \[G(z,u) = \frac{1}{z}e^{\frac{1}{2}\sigma^{2}uz^{2}+(\mu - \lambda)zu} ~.\]
 Die Inversion der Laplace-Transformation liefert
 Die Inversion der Laplace-Transformation liefert
 \[F(x,u)=\Phi\left(\frac{x+(\mu - \lambda)u}{\sqrt{\sigma^{2}u}}\right) ~.  \]
 \[F(x,u)=\Phi\left(\frac{x+(\mu - \lambda)u}{\sqrt{\sigma^{2}u}}\right) ~.  \]
-Um die Gleichung mit der Randbedingung zu l"osen, suchen wir zuerst die station"are Verteilung. Diese ergibt sich aus der obigen Gleichung, wenn $F(x,u)$ nicht
-von $u$ abh"angt. Dann ist nat"urlich die Ableitung nach $u = 0$, und wir erhalten:
+Um die Gleichung mit der Randbedingung zu lösen, suchen wir zuerst die stationäre Verteilung. Diese ergibt sich aus der obigen Gleichung, wenn $F(x,u)$ nicht
+von $u$ abhängt. Dann ist natürlich die Ableitung nach $u = 0$, und wir erhalten:
 \[ F'_{0}(x)(\mu - \lambda)+\frac{1}{2}\sigma^{2}F''(x)=0 ~. \]
 \[ F'_{0}(x)(\mu - \lambda)+\frac{1}{2}\sigma^{2}F''(x)=0 ~. \]
-Diese Gleichung hat die allgemeine L"osung
+Diese Gleichung hat die allgemeine Lösung
 \[F(x) = C_{1}+C_{2}e^{\frac{2(\lambda - \mu)}{\sigma^{2}}x} ~. \]
 \[F(x) = C_{1}+C_{2}e^{\frac{2(\lambda - \mu)}{\sigma^{2}}x} ~. \]
 Da $F(0) = 0$ und $F(\infty) = 1$ sein soll, erhalten wir
 Da $F(0) = 0$ und $F(\infty) = 1$ sein soll, erhalten wir
 \[F(x) = 1-e^{\frac{2(\lambda - \mu)}{\sigma^{2}}x} ~.  \]
 \[F(x) = 1-e^{\frac{2(\lambda - \mu)}{\sigma^{2}}x} ~.  \]
-Es ergibt sich also wieder eine Exponentialverteilung f"ur die Wartezeit. F"ur $\rho \rightarrow 1$ stimmt diese Verteilung in erster N"aherung mit der aus
-Abschnitt $3.$ "uberein. Mit etwas mehr Arbeit kann man die folgende L"osung der partiellen Differentialgleichung erhalten:
+Es ergibt sich also wieder eine Exponentialverteilung für die Wartezeit. Für $\rho \rightarrow 1$ stimmt diese Verteilung in erster Näherung mit der aus
+Abschnitt $3.$ überein. Mit etwas mehr Arbeit kann man die folgende Lösung der partiellen Differentialgleichung erhalten:
 \[F(x,u)=\Phi\left(\frac{x+u(\mu - \lambda)}{\sqrt{\sigma^{2}u}}\right)-e^{\frac{2(\mu - \lambda)}{\sigma^{2}}x}\Phi\left(\frac{-x+u(\mu -
 \[F(x,u)=\Phi\left(\frac{x+u(\mu - \lambda)}{\sqrt{\sigma^{2}u}}\right)-e^{\frac{2(\mu - \lambda)}{\sigma^{2}}x}\Phi\left(\frac{-x+u(\mu -
-\lambda)}{\sigma^{2}}\right) ~.\] 
+\lambda)}{\sigma^{2}}\right) ~.\]
 \end {enumerate}
 \end {enumerate}
 %------------------------------------------------------------------------------------
 %------------------------------------------------------------------------------------
 \chapter{Time-Sharing}
 \chapter{Time-Sharing}
 %------------------------------------------------------------------------------------
 %------------------------------------------------------------------------------------
 Wir wollen jetzt unsere Kenntnisse auf eine Analyse von Fragen anwenden, die bei Time-sharing Anwendungen auftreten. \\
 Wir wollen jetzt unsere Kenntnisse auf eine Analyse von Fragen anwenden, die bei Time-sharing Anwendungen auftreten. \\
-Wir betrachten den einfachsten Fall, da"s nur eine CPU vorhanden ist, die 'gleichzeitig' mehrere Programme bearbeiten mu"s.
-Dazu wird jeweils eines der wartenden Programme ausgew"ahlt, in den Hauptspeicher geladen, eine kurze Zeit (die sog. \index{Zeitscheibe}'Zeitscheibe') gerechnet,
+Wir betrachten den einfachsten Fall, daß nur eine CPU vorhanden ist, die 'gleichzeitig' mehrere Programme bearbeiten muß.
+Dazu wird jeweils eines der wartenden Programme ausgewählt, in den Hauptspeicher geladen, eine kurze Zeit (die sog. \index{Zeitscheibe}'Zeitscheibe') gerechnet,
 aus dem
 aus dem
-Hauptspeicher entfernt, und das Spiel mit dem n"achsten Programm fortgesetzt. Jedes Programm braucht eine bestimmte \index{Rechenzeit}Rechenzeit $x$, und sobald
+Hauptspeicher entfernt, und das Spiel mit dem nächsten Programm fortgesetzt. Jedes Programm braucht eine bestimmte \index{Rechenzeit}Rechenzeit $x$, und sobald
 diese Zeit (in
 diese Zeit (in
-Form von einzelnen Zeitscheiben) abgearbeitet ist, verl"a"st das Programm das System. Da wir keine a-priori Information "uber die Rechenzeit eines Programmes 
-voraussetzen, k"onnen wir die Jobs nur aufgrund der schon verbrauchten Rechenzeit klassifizieren, und die Auswahl des n"achsten Programms nach dieser verbrauchten 
-Rechenzeit treffen. Dabei k"onnen wir verschiedene Ziele verfolgen:
-\begin{enumerate}
+Form von einzelnen Zeitscheiben) abgearbeitet ist, verläßt das Programm das System. Da wir keine a-priori Information über die Rechenzeit eines Programmes
+voraussetzen, können wir die Jobs nur aufgrund der schon verbrauchten Rechenzeit klassifizieren, und die Auswahl des nächsten Programms nach dieser verbrauchten
+Rechenzeit treffen. Dabei können wir verschiedene Ziele verfolgen:
+
 \begin{enumerate}
 \begin{enumerate}
-\item kurze Programme sollen m"oglichst schnell erledigt werden. Dadurch wird die Anzahl der Programme im System klein gehalten, was den Verwaltungsaufwand
-reduziert; au"serdem ist es psychologisch ung"unstig, wenn ein Kunde auf ein 2-Sekunden-Programm eine Stunde warten mu"s. 
-\item eine m"oglichst 'gerechte' Verteilung w"are eine, bei der die Zeit, die ein Job im System verbringt, proportional zur Rechenzeit ist; nur dann ist es nicht 
-m"oglich, durch Aufteilen eines langen Programmes in mehrere k"urzere bzw. durch Zusammenfassen mehrere k"urzere Programme einen Zeitgewinn zu erzielen.
-\end{enumerate} 
+\item kurze Programme sollen möglichst schnell erledigt werden. Dadurch wird die Anzahl der Programme im System klein gehalten, was den Verwaltungsaufwand
+reduziert; außerdem ist es psychologisch ungünstig, wenn ein Kunde auf ein 2-Sekunden-Programm eine Stunde warten muß.
+\item eine möglichst 'gerechte' Verteilung wäre eine, bei der die Zeit, die ein Job im System verbringt, proportional zur Rechenzeit ist; nur dann ist es nicht
+möglich, durch Aufteilen eines langen Programmes in mehrere kürzere bzw. durch Zusammenfassen mehrere kürzere Programme einen Zeitgewinn zu erzielen.
 \end{enumerate}
 \end{enumerate}
 
 
 Wir machen folgende Annahmen:
 Wir machen folgende Annahmen:
 \begin{enumerate}
 \begin{enumerate}
-\item Die Ank"unfte erfolgen nach einem Poissonproze"s mit Rate $\lambda$, die Rechenzeiten sind unabh"angig mit Verteilungsfunktion $B$ (wir haben also eine
+\item Die Ankünfte erfolgen nach einem Poissonprozeß mit Rate $\lambda$, die Rechenzeiten sind unabhängig mit Verteilungsfunktion $B$ (wir haben also eine
 $M/G/1$-Situation) mit Dichte $b$.
 $M/G/1$-Situation) mit Dichte $b$.
-\item Die Zeitscheibe nehmen wir als infinitesimal an; weiters nehmen wir an, da"s wir die Zeit zum Austauschen vernachl"assigen k"onnen.
-\item Wir betrachten nur die station"aren Verteilungen.
+\item Die Zeitscheibe nehmen wir als infinitesimal an; weiters nehmen wir an, daß wir die Zeit zum Austauschen vernachlässigen können.
+\item Wir betrachten nur die stationären Verteilungen.
 \end{enumerate}
 \end{enumerate}
-$N(u)$ sei die mittlere Anzahl von Jobs, deren verbrauchte Rechenzeit $\leq u$ ist. Dazu m"oge eine Dichte $n(u)$ existieren, soda"s
+$N(u)$ sei die mittlere Anzahl von Jobs, deren verbrauchte Rechenzeit $\leq u$ ist. Dazu möge eine Dichte $n(u)$ existieren, sodaß
 \[N(u)=\int_{0}^{u}n(s)ds  \]
 \[N(u)=\int_{0}^{u}n(s)ds  \]
-ist. 
+ist.
 
 
 $T(u)$ sei die Zeit, die im Durchschnitt vergeht, bis ein Job $u$ Sekunden Rechenzeit bekommt. \\
 $T(u)$ sei die Zeit, die im Durchschnitt vergeht, bis ein Job $u$ Sekunden Rechenzeit bekommt. \\
 $W(u)$ sei die Wartezeit eines Jobs mit $u$ Sekunden Rechenzeit, also
 $W(u)$ sei die Wartezeit eines Jobs mit $u$ Sekunden Rechenzeit, also
@@ -287,7 +286,7 @@ Mithilfe des Satzes von Little ergibt sich die Beziehung
 Wir betrachten die folgende Strategien:
 Wir betrachten die folgende Strategien:
 \begin{enumerate}
 \begin{enumerate}
 \item {\bf FCFS} ('Batch')
 \item {\bf FCFS} ('Batch')
-\item {\bf LCFS} (pr"a-emptiv): ein Job, der das System betritt, wird sofort bearbeitet (ein eventuell laufender Job wird dazu unterbrochen); wenn ein Job fertig
+\item {\bf LCFS} (prä-emptiv): ein Job, der das System betritt, wird sofort bearbeitet (ein eventuell laufender Job wird dazu unterbrochen); wenn ein Job fertig
 ist, wird der zuletzt unterbrochene weiterbearbeitet.
 ist, wird der zuletzt unterbrochene weiterbearbeitet.
 \item {\bf \index{Round Robin}Round Robin (RR)}: alle Jobs, die im System sind, werden der Reihe nach bearbeitet (abwechselnd).
 \item {\bf \index{Round Robin}Round Robin (RR)}: alle Jobs, die im System sind, werden der Reihe nach bearbeitet (abwechselnd).
 \item Es wird jeweils der Job bearbeitet, der am wenigsten Rechenzeit verbraucht hat.
 \item Es wird jeweils der Job bearbeitet, der am wenigsten Rechenzeit verbraucht hat.
@@ -295,13 +294,13 @@ ist, wird der zuletzt unterbrochene weiterbearbeitet.
 Es sollte Strategie 4 kurze Jobs am meisten bevorzugen, 1 am wenigsten, 2 und 3 sollten dazwischen liegen.
 Es sollte Strategie 4 kurze Jobs am meisten bevorzugen, 1 am wenigsten, 2 und 3 sollten dazwischen liegen.
 
 
 \begin{enumerate}
 \begin{enumerate}
-\item Kennen wir von fr"uher; hier ist die Wartezeit $W(u)$ konstant, und zwar ist
+\item Kennen wir von früher; hier ist die Wartezeit $W(u)$ konstant, und zwar ist
 \[W(u) = \frac{\lambda \E(x^{2})}{2(1-\rho)} \]
 \[W(u) = \frac{\lambda \E(x^{2})}{2(1-\rho)} \]
 und
 und
 \[T(u) = u + \frac{\lambda \E(x^{2})}{2(1-\rho)} ~.  \]
 \[T(u) = u + \frac{\lambda \E(x^{2})}{2(1-\rho)} ~.  \]
-\item Hier ist $T(u)$ leicht zu bestimmen. Denn $T(u)$ ist gleich der Rechenzeit $u$ plus der Summe der Rechenzeiten aller Programme, die w"ahrend $T(u)$
+\item Hier ist $T(u)$ leicht zu bestimmen. Denn $T(u)$ ist gleich der Rechenzeit $u$ plus der Summe der Rechenzeiten aller Programme, die während $T(u)$
 ankommen.
 ankommen.
-W"ahrend $T(u)$ kommen $\lambda T(u)$ Programme an, jedes bringt im Schnitt $\E(x)$ Sekunden Rechenzeit mit, also gilt
+Während $T(u)$ kommen $\lambda T(u)$ Programme an, jedes bringt im Schnitt $\E(x)$ Sekunden Rechenzeit mit, also gilt
 \[T(u) = u + \lambda T(u)\E(x)=u + \rho T(u) ~,\]
 \[T(u) = u + \lambda T(u)\E(x)=u + \rho T(u) ~,\]
 also
 also
 \[T(u)=\frac{u}{1-\rho} ~. \]
 \[T(u)=\frac{u}{1-\rho} ~. \]
@@ -309,11 +308,11 @@ Wir haben also ein 'gerechtes' Verfahren gefunden.
 \item Wenn sich $N$ Programme im System befinden, bekommt ein bestimmtes Programm $\frac{1}{N}$ der gesamten Rechenzeit. \\
 \item Wenn sich $N$ Programme im System befinden, bekommt ein bestimmtes Programm $\frac{1}{N}$ der gesamten Rechenzeit. \\
 Daher ist $dT(u) = Ndu$. Da nur gerechnet wird, wenn das System nicht leer ist, ergibt sich:
 Daher ist $dT(u) = Ndu$. Da nur gerechnet wird, wenn das System nicht leer ist, ergibt sich:
 \[ T(u)=u\E(N \mid N \not= 0)=Cu, \]
 \[ T(u)=u\E(N \mid N \not= 0)=Cu, \]
-also wieder ein 'gerechtes' System. Um $C$ zu bestimmen, betrachten wir den Fall $u \rightarrow \infty$. Wenn $u$ gro"s ist, werden die meisten Jobs, die w"ahrend
-$T(u)$ ankommen, auch noch w"ahrend $T(u)$ das System verlassen. F"ur gro"ses $u$ ist also das Verhalten "ahnlich wie im vorigen Fall, und wir erhalten wieder
+also wieder ein 'gerechtes' System. Um $C$ zu bestimmen, betrachten wir den Fall $u \rightarrow \infty$. Wenn $u$ groß ist, werden die meisten Jobs, die während
+$T(u)$ ankommen, auch noch während $T(u)$ das System verlassen. Für großes $u$ ist also das Verhalten ähnlich wie im vorigen Fall, und wir erhalten wieder
 \[T(u)=\frac{u}{1-\rho} ~. \]
 \[T(u)=\frac{u}{1-\rho} ~. \]
-\item Wenn wir ein Programm betrachten, das genau $u$ Sekunden Rechenzeit ben"otigt, dann sehen wir, da"s f"ur $T(u)$ von der Rechenzeit aller anderen Programme
-nur der Teil von Bedeutung ist, der kleiner als $u$ ist. Aus der Sicht dieses Programmes k"onnen wir also $x$ durch $(x \land u)$ ersetzen, und die
+\item Wenn wir ein Programm betrachten, das genau $u$ Sekunden Rechenzeit benötigt, dann sehen wir, daß für $T(u)$ von der Rechenzeit aller anderen Programme
+nur der Teil von Bedeutung ist, der kleiner als $u$ ist. Aus der Sicht dieses Programmes können wir also $x$ durch $(x \land u)$ ersetzen, und die
 Verteilungsfunktion $B$ durch:
 Verteilungsfunktion $B$ durch:
 \[
 \[
 B_{u}(y) =  \left\{
 B_{u}(y) =  \left\{
@@ -321,30 +320,30 @@ B_{u}(y) =  \left\{
 B(y) & y<u \\
 B(y) & y<u \\
 1 & y \geq u
 1 & y \geq u
 \end{array} \right. ~.
 \end{array} \right. ~.
-\] 
+\]
 $W(u)$ setzt sich jetzt zusammen aus der restlichen Rechenzeit aller Programme, die vor unserem Programm angekommen sind, plus der Summe der Rechenzeiten von
 $W(u)$ setzt sich jetzt zusammen aus der restlichen Rechenzeit aller Programme, die vor unserem Programm angekommen sind, plus der Summe der Rechenzeiten von
-allen Programmen, die w"ahrend $T(u)$ ankommen. Der erste Teil ist im Mittel gleich der Wartezeit in $M_{\lambda}/B_{u}/1$, also gleich
+allen Programmen, die während $T(u)$ ankommen. Der erste Teil ist im Mittel gleich der Wartezeit in $M_{\lambda}/B_{u}/1$, also gleich
 \[W_{u}=\frac{\lambda \E((x \land u)^{2})}{2(1-\rho _{u})}  \]
 \[W_{u}=\frac{\lambda \E((x \land u)^{2})}{2(1-\rho _{u})}  \]
 mit
 mit
 \[\rho _{u}=\lambda \E(x \wedge u) ~.\]
 \[\rho _{u}=\lambda \E(x \wedge u) ~.\]
-F"ur den zweiten Teil ergibt sich
+Für den zweiten Teil ergibt sich
 \[\lambda T(u)\E(x \wedge u) = T(u)\rho _{u} ~.\]
 \[\lambda T(u)\E(x \wedge u) = T(u)\rho _{u} ~.\]
 Wir bekommen die Gleichung
 Wir bekommen die Gleichung
 \[T(u)=u+W_{u}+\rho _{u}T(u) ~,  \]
 \[T(u)=u+W_{u}+\rho _{u}T(u) ~,  \]
 also
 also
 \[T(u)=\frac{u+W_{u}}{1-\rho_{u}} ~. \]
 \[T(u)=\frac{u+W_{u}}{1-\rho_{u}} ~. \]
-F"ur $u \rightarrow 0$ ergibt sich
+Für $u \rightarrow 0$ ergibt sich
 \[T(u) \approx u ~, \]
 \[T(u) \approx u ~, \]
-f"ur $u \rightarrow \infty$
+für $u \rightarrow \infty$
 \[T(u) \approx \frac{u}{1-\rho} ~. \]
 \[T(u) \approx \frac{u}{1-\rho} ~. \]
 \end{enumerate}
 \end{enumerate}
- 
+
 %-------------------------------------------------------------------------------------------
 %-------------------------------------------------------------------------------------------
-\chapter{Priorit"aten}
+\chapter{Prioritäten}
 %----------------------------------------------------------------------------------------------
 %----------------------------------------------------------------------------------------------
-Wir betrachten den Fall, da"s es mehrere \index{Klassen}Klassen von Kunden gibt, die von unserem System unterschiedlich behandelt werden. Genauer gesagt soll es
+Wir betrachten den Fall, daß es mehrere \index{Klassen}Klassen von Kunden gibt, die von unserem System unterschiedlich behandelt werden. Genauer gesagt soll es
 $p > 0$ Klassen
 $p > 0$ Klassen
-von Kunden geben. Die Kunden aus Klasse $i$ kommen nach einem Poissonproze"s mit Rate $\lambda_{i}$ an und ben"otigen eine Bedienzeit mit Verteilungsfunktion
+von Kunden geben. Die Kunden aus Klasse $i$ kommen nach einem Poissonprozeß mit Rate $\lambda_{i}$ an und benötigen eine Bedienzeit mit Verteilungsfunktion
 $B_{i}$ (wir betrachten also wieder eine $M/G/1$-Situation). Weiters sei
 $B_{i}$ (wir betrachten also wieder eine $M/G/1$-Situation). Weiters sei
 \begin{eqnarray*}
 \begin{eqnarray*}
 \lambda &=& \sum_{i=1}^{p}\lambda _{i} \\
 \lambda &=& \sum_{i=1}^{p}\lambda _{i} \\
@@ -352,12 +351,12 @@ B(y) &=& \frac{1}{\lambda}\sum_{i=1}^{p}\lambda _{i}B_{i}(y) \\
 \rho _{i} &=& \lambda _{i}\int ydB_{i}(y) \\
 \rho _{i} &=& \lambda _{i}\int ydB_{i}(y) \\
 \rho &=& \lambda \int ydB(y) ~.
 \rho &=& \lambda \int ydB(y) ~.
 \end{eqnarray*}
 \end{eqnarray*}
-Es gibt jetzt eine ganze Reihe von M"oglichkeiten, Disziplinen zu definieren, die eine Klasse gegeb"uber anderen bevorzugen. Wir sprechen von unterschiedlichen
-{\bf \index{Priorit\"{a}ten}Priorit"aten}.
+Es gibt jetzt eine ganze Reihe von Möglichkeiten, Disziplinen zu definieren, die eine Klasse gegebüber anderen bevorzugen. Wir sprechen von unterschiedlichen
+{\bf \index{Prioritäten}Prioritäten}.
 
 
 Die Disziplinen, die wir untersuchen, sollen folgende Eigenschaften haben:
 Die Disziplinen, die wir untersuchen, sollen folgende Eigenschaften haben:
 \begin{enumerate}
 \begin{enumerate}
-\item {\bf Nicht-pr"a-emptiv}: Ein einmal begonnener Bedienvorgang wird ohne Unterbrechung zu Ende gef"uhrt.
+\item {\bf Nicht-prä-emptiv}: Ein einmal begonnener Bedienvorgang wird ohne Unterbrechung zu Ende geführt.
 \item {\bf Arbeitserhaltend}: Niemand, der wartet, wird weggeschickt, ohne bedient zu worden zu sein.
 \item {\bf Arbeitserhaltend}: Niemand, der wartet, wird weggeschickt, ohne bedient zu worden zu sein.
 \end{enumerate}
 \end{enumerate}
 Weiters soll immer, wenn das System nicht leer ist, bedient werden.
 Weiters soll immer, wenn das System nicht leer ist, bedient werden.
@@ -366,83 +365,83 @@ Weiters soll immer, wenn das System nicht leer ist, bedient werden.
 \section{Ein Erhaltungssatz}
 \section{Ein Erhaltungssatz}
 %------------------------------
 %------------------------------
 
 
-$U_{t}$ sei die unverrichtete Zeit im System, d.h. die Zeit, die ben"otigt wird, um alle anwesenden Kunden fertig zu bedienen. Offensichtlich ist die Verteilung
-von $U_{t}$  unabh"angig von der Disziplin:  \\
-$U_{t}$ w"achst mit jeder Ankunft eines Kunden um seine Bedienzeit an, und f"allt pro Sekunde um $1$ Sekunde, solange $U_{t}>0$ ist. Die station"are Verteilung
-von $U_{t}$ entspricht der Verteilung der Wartezeit eines zuf"allig ankommenden Kunden bei der FCFS-Disziplin. \\
+$U_{t}$ sei die unverrichtete Zeit im System, d.h. die Zeit, die benötigt wird, um alle anwesenden Kunden fertig zu bedienen. Offensichtlich ist die Verteilung
+von $U_{t}$  unabhängig von der Disziplin:  \\
+$U_{t}$ wächst mit jeder Ankunft eines Kunden um seine Bedienzeit an, und fällt pro Sekunde um $1$ Sekunde, solange $U_{t}>0$ ist. Die stationäre Verteilung
+von $U_{t}$ entspricht der Verteilung der Wartezeit eines zufällig ankommenden Kunden bei der FCFS-Disziplin. \\
 Insbesondere ist
 Insbesondere ist
 \[\E(U) = \frac{\lambda \E(x^{2})}{2(1-\rho)} ~  \]
 \[\E(U) = \frac{\lambda \E(x^{2})}{2(1-\rho)} ~  \]
 wobei $x$ nach der Funktion $B$ verteilt ist.
 wobei $x$ nach der Funktion $B$ verteilt ist.
 
 
-Wir berechnen jetzt $\E(U)$ auf eine andere Art. Dazu bezeichnen wir mit $W_{i}$, $i=1, \dots , p$, die mittlere Wartezeit eines Kunden mit Priorit"at $i$, und
+Wir berechnen jetzt $\E(U)$ auf eine andere Art. Dazu bezeichnen wir mit $W_{i}$, $i=1, \dots , p$, die mittlere Wartezeit eines Kunden mit Priorität $i$, und
 mit
 mit
-$N_{i}$ die Anzahl der Kunden aus der $i$-ten Priorit"atsgruppe in der Warteschlange.
+$N_{i}$ die Anzahl der Kunden aus der $i$-ten Prioritätsgruppe in der Warteschlange.
 
 
-$\E(U)$ setzt sich jetzt aus folgenden Beitr"agen zusammen:
+$\E(U)$ setzt sich jetzt aus folgenden Beiträgen zusammen:
 \begin{enumerate}
 \begin{enumerate}
-\item $W_{0}$: die mittlere restliche Bedienzeit f"ur den Kunden, der gerade bedient wird.
-\item Die Summe der mittleren Bedienzeiten f"ur alle Kunden, die sich in der Warteschlange befinden.
+\item $W_{0}$: die mittlere restliche Bedienzeit für den Kunden, der gerade bedient wird.
+\item Die Summe der mittleren Bedienzeiten für alle Kunden, die sich in der Warteschlange befinden.
 \end{enumerate}
 \end{enumerate}
-Um $W_{0}$ zu bestimmen, stellen wir fest, da"s $W_{0}$ gleich der Zeit ist, die ein zuf"allig ankommender Kunde warten mu"s, bis der Kunde fertig ist, der gerade
+Um $W_{0}$ zu bestimmen, stellen wir fest, daß $W_{0}$ gleich der Zeit ist, die ein zufällig ankommender Kunde warten muß, bis der Kunde fertig ist, der gerade
 bedient wird. Mit Wahrscheinlichkeit $(1-\rho)$ findet der ankommende Kunde das System leer vor. Falls der Server besetzt ist, kann man die Verteilung der
 bedient wird. Mit Wahrscheinlichkeit $(1-\rho)$ findet der ankommende Kunde das System leer vor. Falls der Server besetzt ist, kann man die Verteilung der
-restlichen Bedienzeit folgenderma"sen bestimmen: \\
-Wir betrachten eine gro"se Anzahl $n$ von unabh"angigen Variablen mit Verteilung $B$. Ihre Summe ist nach dem Gesetz der gro"sen Zahlen $\approx n\E(x)$. Wenn wir
-in dem Intervall der L"ange $n\E(x)$ einen Punkt zuf"allig w"ahlen, ist die Chance, da"s wir bis zum Ende des Teilintervalls, in das der zuf"allig gew"ahlte Punkt
-f"allt, einen Abstand zwischen $u$ und $u+\Delta u$ haben, gleich $\frac{\Delta u}{n\E(x)}$ mal der Anzahl der Intervalle mit L"ange $> u$, also
-\[  \approx \frac{\Delta u}{n\E(x)}n(1-B(u)) ~.  \] 
- F"ur $n \rightarrow \infty$ ergibt sich f"ur die Verteilung der restlichen Wartezeit die Dichte
+restlichen Bedienzeit folgendermaßen bestimmen: \\
+Wir betrachten eine große Anzahl $n$ von unabhängigen Variablen mit Verteilung $B$. Ihre Summe ist nach dem Gesetz der großen Zahlen $\approx n\E(x)$. Wenn wir
+in dem Intervall der Länge $n\E(x)$ einen Punkt zufällig wählen, ist die Chance, daß wir bis zum Ende des Teilintervalls, in das der zufällig gewählte Punkt
+fällt, einen Abstand zwischen $u$ und $u+\Delta u$ haben, gleich $\frac{\Delta u}{n\E(x)}$ mal der Anzahl der Intervalle mit Länge $> u$, also
+\[  \approx \frac{\Delta u}{n\E(x)}n(1-B(u)) ~.  \]
+ Für $n \rightarrow \infty$ ergibt sich für die Verteilung der restlichen Wartezeit die Dichte
 \[f(u)=\frac{1-B(u)}{\E(x)} ~. \]
 \[f(u)=\frac{1-B(u)}{\E(x)} ~. \]
-Schlie"slich ist
+Schließlich ist
 \[W_{0}=\rho \int_{0}^{\infty}uf(u)du = \frac{\rho \E(x^{2})}{2\E(x)}=\frac{\lambda \E(x^{2})}{2} ~. \]
 \[W_{0}=\rho \int_{0}^{\infty}uf(u)du = \frac{\rho \E(x^{2})}{2\E(x)}=\frac{\lambda \E(x^{2})}{2} ~. \]
-Die Summe der Bedienzeiten der Kunden in der Warteschlange ergibt sich nat"urlich aus der Summe der gesamten Bedienzeiten der Kunden in den einzelnen Gruppen.
-Es sind im Schnitt $N_{i}$ Kunden aus der $i$-ten Gruppe anwesend. F"ur jeden wird im Schnitt eine Bedienzeit $\E(x_{i})$ ($x_{i}$ soll eine $ZV$ mit Verteilung
-$B_{i}$ sein) ben"otigt. \\
+Die Summe der Bedienzeiten der Kunden in der Warteschlange ergibt sich natürlich aus der Summe der gesamten Bedienzeiten der Kunden in den einzelnen Gruppen.
+Es sind im Schnitt $N_{i}$ Kunden aus der $i$-ten Gruppe anwesend. Für jeden wird im Schnitt eine Bedienzeit $\E(x_{i})$ ($x_{i}$ soll eine $ZV$ mit Verteilung
+$B_{i}$ sein) benötigt. \\
 Damit gilt
 Damit gilt
 \[\E(U)=W_{0}+\sum_{i=1}^{p}\E(x_{i})N_{i}=\frac{W_{0}}{1-\rho} ~. \]
 \[\E(U)=W_{0}+\sum_{i=1}^{p}\E(x_{i})N_{i}=\frac{W_{0}}{1-\rho} ~. \]
-Nach Little gilt $N_{i}=\lambda_{i}W_{i}$, also schlie"slich
+Nach Little gilt $N_{i}=\lambda_{i}W_{i}$, also schließlich
 \[ \sum_{i=1}^{p}\rho_{i}W_{i}=\frac{\rho W_{0}}{1-\rho}=\frac{\lambda \rho \E(x^{2})}{2(1-\rho)} ~.\]
 \[ \sum_{i=1}^{p}\rho_{i}W_{i}=\frac{\rho W_{0}}{1-\rho}=\frac{\lambda \rho \E(x^{2})}{2(1-\rho)} ~.\]
-Dieses Ergebnis zeigt, da"s wir eine Gruppe nur bevorzugen k"onnen, indem eine andere Gruppe gr"o"sere Wartezeiten in Kauf nehmen mu"s.
+Dieses Ergebnis zeigt, daß wir eine Gruppe nur bevorzugen können, indem eine andere Gruppe größere Wartezeiten in Kauf nehmen muß.
 
 
 %----------------------------------------------------
 %----------------------------------------------------
-\section{Eine Methode zur Bestimmung der Wartezeit} 
+\section{Eine Methode zur Bestimmung der Wartezeit}
 %----------------------------------------------------
 %----------------------------------------------------
 
 
 Wir betrachten einen Kunden aus der Gruppe $i$, der das System betritt: \\
 Wir betrachten einen Kunden aus der Gruppe $i$, der das System betritt: \\
 $N_{ij} \dots$ mittlere Anzahl der Kunden aus Gruppe $j$, die unser Kunde im System antrifft, und die vor ihm bedient werden (ausgenommen der Kunde, der eventuell
 $N_{ij} \dots$ mittlere Anzahl der Kunden aus Gruppe $j$, die unser Kunde im System antrifft, und die vor ihm bedient werden (ausgenommen der Kunde, der eventuell
 gerade bedient werden, wenn unser Kunde ankommt). \\
 gerade bedient werden, wenn unser Kunde ankommt). \\
-$M_{ij} \dots$ mittlere Anzahl der Kunden aus Gruppe $j$, die w"ahrend der Wartezeit unseres Kunden ankommen und vor ihm bedient werden. \\
+$M_{ij} \dots$ mittlere Anzahl der Kunden aus Gruppe $j$, die während der Wartezeit unseres Kunden ankommen und vor ihm bedient werden. \\
 Damit gilt
 Damit gilt
 \[W_{i}=W_{0}+\sum_{j=1}^{p}(N_{ij}+M_{ij})\E(x_{j}) ~.  \]
 \[W_{i}=W_{0}+\sum_{j=1}^{p}(N_{ij}+M_{ij})\E(x_{j}) ~.  \]
-Wir verwenden diesen Zugang f"ur die einfachste Disziplin: \\
+Wir verwenden diesen Zugang für die einfachste Disziplin: \\
 Jeder Kunde aus Gruppe $i$ wird vor allen Kunden aus Gruppe $i-1$ bedient, und innerhalb einer Gruppe wird nach $FCFS$ gearbeitet. \\
 Jeder Kunde aus Gruppe $i$ wird vor allen Kunden aus Gruppe $i-1$ bedient, und innerhalb einer Gruppe wird nach $FCFS$ gearbeitet. \\
 Dann ist
 Dann ist
 \begin{eqnarray*}
 \begin{eqnarray*}
 N_{ij}&=&0 \qquad j<i \\
 N_{ij}&=&0 \qquad j<i \\
 M_{ij}&=&0 \qquad j \leq i ~.
 M_{ij}&=&0 \qquad j \leq i ~.
 \end{eqnarray*}
 \end{eqnarray*}
-F"ur $j \geq i$ ist
+Für $j \geq i$ ist
 \[N_{ij}=N_{j}=\lambda _{j}W_{j} ~. \]
 \[N_{ij}=N_{j}=\lambda _{j}W_{j} ~. \]
-F"ur $j>i$ ist $M_{ij}$ die Anzahl der Kunden aus Gruppe $j$, die im Mittel w"ahrend $W_{i} = \lambda _{j}W_{i}$ ankommen.
+Für $j>i$ ist $M_{ij}$ die Anzahl der Kunden aus Gruppe $j$, die im Mittel während $W_{i} = \lambda _{j}W_{i}$ ankommen.
 
 
 Wir erhalten
 Wir erhalten
 \begin{eqnarray*}
 \begin{eqnarray*}
 W_{i}&=&W_{0}+\sum_{j=i}^{p}\rho _{j}W_{j}+\sum_{j=i+1}^{p}\rho_{j}W_{i} = \\
 W_{i}&=&W_{0}+\sum_{j=i}^{p}\rho _{j}W_{j}+\sum_{j=i+1}^{p}\rho_{j}W_{i} = \\
 &=&W_{0} + W_{i}\sum_{j=i}^{p}\rho_{j} + \sum_{j=i+1}^{p}\rho_{j}W_{j}
 &=&W_{0} + W_{i}\sum_{j=i}^{p}\rho_{j} + \sum_{j=i+1}^{p}\rho_{j}W_{j}
 \end{eqnarray*}
 \end{eqnarray*}
-oder 
+oder
 \[W_{i}(1-\sum_{j=i}^{p}\rho_{j})=W_{0}+\sum_{j=i+1}^{p}\rho_{j}W_{j} ~. \]
 \[W_{i}(1-\sum_{j=i}^{p}\rho_{j})=W_{0}+\sum_{j=i+1}^{p}\rho_{j}W_{j} ~. \]
 Wir schreiben
 Wir schreiben
 \[\sigma_{j} = \sum_{j=i}^{p}\rho_{j}  \]
 \[\sigma_{j} = \sum_{j=i}^{p}\rho_{j}  \]
 und erhalten
 und erhalten
 \[W_{i-1}(1-\sigma_{i-1})=W_{i}(1-\sigma_{i})+\rho_{i}W_{i}=W_{i}(1-\sigma_{i+1}) ~, \]
 \[W_{i-1}(1-\sigma_{i-1})=W_{i}(1-\sigma_{i})+\rho_{i}W_{i}=W_{i}(1-\sigma_{i+1}) ~, \]
-und schlie"slich
+und schließlich
 \[W_{i}=\frac{W_{0}}{(1-\sigma_{i})(1-\sigma_{i+1})} ~. \]
 \[W_{i}=\frac{W_{0}}{(1-\sigma_{i})(1-\sigma_{i+1})} ~. \]
 
 
 %----------------------------------------------------------------------------
 %----------------------------------------------------------------------------
 \begin{appendix}
 \begin{appendix}
 \chapter{Transformationen}
 \chapter{Transformationen}
 %----------------------------------------------------------------------------
 %----------------------------------------------------------------------------
-F"ur unsere Untersuchungen ben"otigen wir die folgenden Transformationen:
+Für unsere Untersuchungen benötigen wir die folgenden Transformationen:
 \begin{enumerate}
 \begin{enumerate}
 \item Die erzeugende Funktion oder \index{erzeugende Funktion}$z$ - Transformierte: Falls $p_{n}$, $n
 \item Die erzeugende Funktion oder \index{erzeugende Funktion}$z$ - Transformierte: Falls $p_{n}$, $n
 \geq 0$ eine diskrete Verteilung ist, nennen wir
 \geq 0$ eine diskrete Verteilung ist, nennen wir
@@ -453,8 +452,8 @@ die erzeugende Funktion von $(p_{n})$. Falls $X$ die Verteilung $(p_{n})$
 hat, so gilt
 hat, so gilt
 \begin{displaymath}
 \begin{displaymath}
 P^{*}(z) = \E (z^{X}) ~.
 P^{*}(z) = \E (z^{X}) ~.
-\end{displaymath}  
-$P^{*}(z)$ existiert jedenfalls f"ur $|z|<1$. Bekanntlich kann man aus 
+\end{displaymath}
+$P^{*}(z)$ existiert jedenfalls für $|z|<1$. Bekanntlich kann man aus
 $P^{*}$ eindeutig $(p_{n})$ bestimmen:
 $P^{*}$ eindeutig $(p_{n})$ bestimmen:
 \begin{displaymath}
 \begin{displaymath}
 p_{n} = \frac{1}{n!} P^{*^{n}} (0) ~.
 p_{n} = \frac{1}{n!} P^{*^{n}} (0) ~.
@@ -468,33 +467,33 @@ hei\3t
 \begin{displaymath}
 \begin{displaymath}
 \hat F(t) = \int_{0}^{\infty} e^{-xt} f(x)dx
 \hat F(t) = \int_{0}^{\infty} e^{-xt} f(x)dx
 \end{displaymath}
 \end{displaymath}
-die \index{Laplace - Transformierte}Laplace - Transformierte von $f$. Dieses Integral ist f"ur $t \geq 0$
+die \index{Laplace - Transformierte}Laplace - Transformierte von $f$. Dieses Integral ist für $t \geq 0$
 endlich, und es gibt auch hier eine eindeutige Beziehung zwischen $\hat F$
 endlich, und es gibt auch hier eine eindeutige Beziehung zwischen $\hat F$
 und $f$. Falls $X$ mit der Dichte $f$ verteilt ist, ist
 und $f$. Falls $X$ mit der Dichte $f$ verteilt ist, ist
 \begin{displaymath}
 \begin{displaymath}
 \hat F(t) = \E (e^{-Xt}) ~.
 \hat F(t) = \E (e^{-Xt}) ~.
 \end{displaymath}
 \end{displaymath}
 Diese Beziehung kann man auch verwenden, um die Laplace - Transformierte
 Diese Beziehung kann man auch verwenden, um die Laplace - Transformierte
-f"ur nicht stetige Verteilungen zu definieren.
-\end{enumerate}    
+für nicht stetige Verteilungen zu definieren.
+\end{enumerate}
 Es bestehen folgende Eigenschaften der Transformationen:
 Es bestehen folgende Eigenschaften der Transformationen:
 \begin{enumerate}
 \begin{enumerate}
-\item $P^{*}(z)$ ist regul"ar f"ur $|z| \leq 1$.
-\item $ \hat F(z)$ ist regul"ar f"ur $ \Re (z) \geq 0$. Falls $X$ eine
+\item $P^{*}(z)$ ist regulär für $|z| \leq 1$.
+\item $ \hat F(z)$ ist regulär für $ \Re (z) \geq 0$. Falls $X$ eine
 Verteilung $(p_{n})$ hat, ist
 Verteilung $(p_{n})$ hat, ist
 \begin{displaymath}
 \begin{displaymath}
 \E(X) = (P^{*})^{'}(1) ~.
 \E(X) = (P^{*})^{'}(1) ~.
-\end{displaymath}  
+\end{displaymath}
 Falls $X$ Dichte $f$ hat, ist
 Falls $X$ Dichte $f$ hat, ist
 \begin{displaymath}
 \begin{displaymath}
 \E(X) = -\hat F^{'}(0) ~.
 \E(X) = -\hat F^{'}(0) ~.
-\end{displaymath}  
-\item Falls $X$, $T$ unabh"angig sind, ist die Transformierte der Summe
+\end{displaymath}
+\item Falls $X$, $T$ unabhängig sind, ist die Transformierte der Summe
 das Produkt der Transformierten.
 das Produkt der Transformierten.
 \item Weiters sei $N_{t}$ ein \index{Poissonproze\3}Poissonproze\3 (d.h. eine Folge von
 \item Weiters sei $N_{t}$ ein \index{Poissonproze\3}Poissonproze\3 (d.h. eine Folge von
 Ereignissen, wobei die Zeit zwischen zwei Ereignissen nach $M_{\lambda}$
 Ereignissen, wobei die Zeit zwischen zwei Ereignissen nach $M_{\lambda}$
 verteilt ist. $N_{t}$ ist die Anzahl dieser Ereignisse im Intervall
 verteilt ist. $N_{t}$ ist die Anzahl dieser Ereignisse im Intervall
-$[0,t])$. F"ur eine zuf"allige Zeit $T$ wollen wir die Anzahl $N_{T}$ von
+$[0,t])$. Für eine zufällige Zeit $T$ wollen wir die Anzahl $N_{T}$ von
 Ereignissen in $[0,T]$ bestimmen. Falls $T=t$ ist, ist diese Anzahl
 Ereignissen in $[0,T]$ bestimmen. Falls $T=t$ ist, ist diese Anzahl
 Poisson - verteilt mit Parameter $\lambda t$:
 Poisson - verteilt mit Parameter $\lambda t$:
 \begin{displaymath}
 \begin{displaymath}

+ 139 - 139
documents/Warteschlangen/pantelis.tex

@@ -2,27 +2,27 @@
 \chapter{Einleitung}
 \chapter{Einleitung}
 %-----------------------------------------------------------------------------
 %-----------------------------------------------------------------------------
 Wir betrachten folgendes grundlegendes Modell:  Kunden kommen zu
 Wir betrachten folgendes grundlegendes Modell:  Kunden kommen zu
-zuf"alligen Zeiten  $T_{1} < T_{2} < \dots <T_{n} < \dots$ im System an,
+zufälligen Zeiten  $T_{1} < T_{2} < \dots <T_{n} < \dots$ im System an,
 wobei $T_{n}$
 wobei $T_{n}$
 die \index{Ankunftszeit}Ankunftszeit des $n$-ten Kunden bezeichnet.
 die \index{Ankunftszeit}Ankunftszeit des $n$-ten Kunden bezeichnet.
 
 
-Ein oder mehrere Bediener arbeiten die Schlange ab und f"ur jeden Kunden
-wird eine bestimmte \index{Bedienzeit}`Bedienzeit' ben"otigt. Es sei $x_{n}$ die Bedienzeit
-des $n$-ten Kunden. 
+Ein oder mehrere Bediener arbeiten die Schlange ab und für jeden Kunden
+wird eine bestimmte \index{Bedienzeit}`Bedienzeit' benötigt. Es sei $x_{n}$ die Bedienzeit
+des $n$-ten Kunden.
 Die Reihenfolge der Bedienung der Kunden wird durch
 Die Reihenfolge der Bedienung der Kunden wird durch
 die sogenannte \index{Disziplin}`Disziplin' der Warteschlange bestimmt.Wir nehmen meistens
 die sogenannte \index{Disziplin}`Disziplin' der Warteschlange bestimmt.Wir nehmen meistens
-FCFS (First Come First Serve) an. Andere M"oglichkeiten w"aren LCFS (Last
-Come First Serve) oder `Priorit"aten'.
+FCFS (First Come First Serve) an. Andere Möglichkeiten wären LCFS (Last
+Come First Serve) oder `Prioritäten'.
 
 
 Folgende Annahmen werden getroffen:
 Folgende Annahmen werden getroffen:
 \begin{enumerate}
 \begin{enumerate}
-\item Die $x_{n}$ sollen unabh"angig und identisch verteilt sein. 
-\item $t_{n}$ ist die $n$-te \index{Zwischenankunftszeit}Zwischenankunftszeit also $t_{n}= T_{n} - 
+\item Die $x_{n}$ sollen unabhängig und identisch verteilt sein.
+\item $t_{n}$ ist die $n$-te \index{Zwischenankunftszeit}Zwischenankunftszeit also $t_{n}= T_{n} -
 T_{n-1}$,  $T_{0}=0$ (Die Zeit zwischen der Ankunft des $n$-ten und des
 T_{n-1}$,  $T_{0}=0$ (Die Zeit zwischen der Ankunft des $n$-ten und des
-$(n-1)$-ten Kunden). Die $t_{n}$ sind auch unabh"angig und identisch
-verteilt. 
+$(n-1)$-ten Kunden). Die $t_{n}$ sind auch unabhängig und identisch
+verteilt.
 \end{enumerate}
 \end{enumerate}
-Wir verwenden folgende \index{Warteschlangen!Kurznotation}Kurznotation f"ur
+Wir verwenden folgende \index{Warteschlangen!Kurznotation}Kurznotation für
 Warteschlangen: $A/B/s$.
 Warteschlangen: $A/B/s$.
 
 
 $A \dots$ Verteilung der Zwischenankuftszeiten $t_{n}$, wobei $a$ die Dichte
 $A \dots$ Verteilung der Zwischenankuftszeiten $t_{n}$, wobei $a$ die Dichte
@@ -31,19 +31,19 @@ $B \dots$ Verteilung der Bedienzeiten $x_{n}$ wobei $b$ die Dichte von
 $x_{n}$ ist. \\
 $x_{n}$ ist. \\
 $s \dots$ Anzahl der Bediener \index{Server}(Server).
 $s \dots$ Anzahl der Bediener \index{Server}(Server).
 
 
-Kurznotationen f"ur Verteilungen sind: \\
-$M$ $\dots$ \index{Verteilung!Exponential-}Exponentialverteilung (`memoryless'). \\ 
+Kurznotationen für Verteilungen sind: \\
+$M$ $\dots$ \index{Verteilung!Exponential-}Exponentialverteilung (`memoryless'). \\
 Dichtefunktion:
 Dichtefunktion:
 \begin{displaymath}
 \begin{displaymath}
 f(x) = \lambda e^{-\lambda x} \qquad x\geq 0.
 f(x) = \lambda e^{-\lambda x} \qquad x\geq 0.
 \end{displaymath}
 \end{displaymath}
-$E_{n}$ $\dots$ \index{Verteilung!Erlang-}Erlangverteilung: Die Summe von $n$ unabh"angigen
+$E_{n}$ $\dots$ \index{Verteilung!Erlang-}Erlangverteilung: Die Summe von $n$ unabhängigen
 Exponentialverteilungen.\\
 Exponentialverteilungen.\\
  Dichtefunktion:
  Dichtefunktion:
 \begin{displaymath}
 \begin{displaymath}
 f(x)=\frac{\lambda^{n}x^{n-1}}{(n-1)!}e^{-\lambda x} \qquad x\geq 0.
 f(x)=\frac{\lambda^{n}x^{n-1}}{(n-1)!}e^{-\lambda x} \qquad x\geq 0.
-\end{displaymath} 
-$H$ $\dots$ \index{Verteilung!Hyperexponentelle}Hyperexponentielle Verteilung: Die Mischung von unabh"angigen
+\end{displaymath}
+$H$ $\dots$ \index{Verteilung!Hyperexponentelle}Hyperexponentielle Verteilung: Die Mischung von unabhängigen
 Exponentialverteilungen. Wir haben $p_{1} \dots p_{n}$,  $p_{i} \geq 0$,
 Exponentialverteilungen. Wir haben $p_{1} \dots p_{n}$,  $p_{i} \geq 0$,
  und
  und
 $\sum_{i=1}^{n} p_{i} = 1$, $\lambda_{1} \dots \lambda_{n} \geq 0$. \\
 $\sum_{i=1}^{n} p_{i} = 1$, $\lambda_{1} \dots \lambda_{n} \geq 0$. \\
@@ -52,55 +52,55 @@ Dichtefunktion:
 f(x)=\sum_{i=1}^{n} p_{i} \lambda_{i} e^{-\lambda_{i}x}.
 f(x)=\sum_{i=1}^{n} p_{i} \lambda_{i} e^{-\lambda_{i}x}.
 \end{displaymath}
 \end{displaymath}
 $D$ $\dots$ \index{Verteilung!Deterministische}Deterministisch: Ein fixer Wert wird angenommen. \\
 $D$ $\dots$ \index{Verteilung!Deterministische}Deterministisch: Ein fixer Wert wird angenommen. \\
-$G$ $\dots$ \index{Verteilung!Allgemeine}`General': Allgemeine Verteilung (alles, was nicht vorher erw"ahnt
-wurde). 
+$G$ $\dots$ \index{Verteilung!Allgemeine}`General': Allgemeine Verteilung (alles, was nicht vorher erwähnt
+wurde).
 
 
-Die Sonderstellung der Exponentialverteilung ist begr"undet durch ihre
-Ged"achtnislosigkeit. Falls n"amlich etwa eine Wartezeit
+Die Sonderstellung der Exponentialverteilung ist begründet durch ihre
+Gedächtnislosigkeit. Falls nämlich etwa eine Wartezeit
 exponentialverteilt ist, und wir schon t Zeiteinheiten gewartet haben, so
 exponentialverteilt ist, und wir schon t Zeiteinheiten gewartet haben, so
 ist die Verteilung der restlichen Wartezeit gegeben durch
 ist die Verteilung der restlichen Wartezeit gegeben durch
 \begin{eqnarray*}
 \begin{eqnarray*}
 \PP(\mbox{restliche Wartezeit} \geq x \mid \mbox{schon $t$
 \PP(\mbox{restliche Wartezeit} \geq x \mid \mbox{schon $t$
 gewartet}) = \\
 gewartet}) = \\
-= \PP(T \geq t+x \mid T \geq t) = \frac{\PP(T \geq t+x)}{\PP(T\geq t)} ~.   
-\end{eqnarray*}  
+= \PP(T \geq t+x \mid T \geq t) = \frac{\PP(T \geq t+x)}{\PP(T\geq t)} ~.
+\end{eqnarray*}
 Angenommen $T$  sei exponentialverteilt $\Rightarrow$ $\PP(T \geq t) =
 Angenommen $T$  sei exponentialverteilt $\Rightarrow$ $\PP(T \geq t) =
 e^{-\lambda t}$  $\Rightarrow$
 e^{-\lambda t}$  $\Rightarrow$
 \begin{displaymath}
 \begin{displaymath}
 \frac{\PP(T \geq t+x)}{\PP(T \geq t)} = \frac{e^{-\lambda
 \frac{\PP(T \geq t+x)}{\PP(T \geq t)} = \frac{e^{-\lambda
 (t+x)}}{e^{-\lambda
 (t+x)}}{e^{-\lambda
 t}}= e^{-\lambda x},
 t}}= e^{-\lambda x},
-\end{displaymath} 
-also unabh"angig davon, wie lange wir schon vorher gewartet haben.
+\end{displaymath}
+also unabhängig davon, wie lange wir schon vorher gewartet haben.
 
 
-Es gibt abgeleitete Gr"o\3en, die das Verhalten der Warteschlange
+Es gibt abgeleitete Grö\3en, die das Verhalten der Warteschlange
 beschreiben wie:
 beschreiben wie:
 \begin{enumerate}
 \begin{enumerate}
 \item $w_{n}$ $\dots$ \index{Wartezeit}Wartezeit des $n$-ten Kunden.
 \item $w_{n}$ $\dots$ \index{Wartezeit}Wartezeit des $n$-ten Kunden.
 \item $z_{n} = w_{n} + x_{n} \dots$ Zeit, die der $n$-te Kunde im System
 \item $z_{n} = w_{n} + x_{n} \dots$ Zeit, die der $n$-te Kunde im System
-verbringt. 
+verbringt.
 \item $N_{t}$ $\dots$ Anzahl der Kunden, die zum Zeitpunkt $t$ im System
 \item $N_{t}$ $\dots$ Anzahl der Kunden, die zum Zeitpunkt $t$ im System
 sind ($=$ wartende + eventuell die, die gerade bedient werden).
 sind ($=$ wartende + eventuell die, die gerade bedient werden).
 \end{enumerate}
 \end{enumerate}
 Es gibt einige Fragen, die uns interessieren:
 Es gibt einige Fragen, die uns interessieren:
 \begin{enumerate}
 \begin{enumerate}
 \item Die Verteilungen von $w_{n}$, $z_{n}$, $N_{t}$.
 \item Die Verteilungen von $w_{n}$, $z_{n}$, $N_{t}$.
-\item Gibt es Grenzverteilungen f"ur $n \rightarrow \infty$ bzw. $t
+\item Gibt es Grenzverteilungen für $n \rightarrow \infty$ bzw. $t
 \rightarrow \infty$ (d.h. pendelt sich das Verhalten der Schlange auf
 \rightarrow \infty$ (d.h. pendelt sich das Verhalten der Schlange auf
-einen station"aren Zustand ein?) und Bestimmung der Grenzverteilungen.
+einen stationären Zustand ein?) und Bestimmung der Grenzverteilungen.
 \item Erwartungswerte der Grenzverteilungen in 2.
 \item Erwartungswerte der Grenzverteilungen in 2.
-\item Absch"atzungen f"ur 3.
+\item Abschätzungen für 3.
 \end{enumerate}
 \end{enumerate}
 Die Aufgaben sind hier in abnehmender Schwierigkeit geordnet. Leider sind
 Die Aufgaben sind hier in abnehmender Schwierigkeit geordnet. Leider sind
-die genauen Verteilungen 1. nicht leicht zu bestimmen, also beschr"anken
+die genauen Verteilungen 1. nicht leicht zu bestimmen, also beschränken
 wir uns meist auf 2. ; im ganz allgemeinen Fall wird es sogar notwendig
 wir uns meist auf 2. ; im ganz allgemeinen Fall wird es sogar notwendig
-sein, nur Absch"atzungen zu betrachten. 
+sein, nur Abschätzungen zu betrachten.
 %-----------------------------------------------------------------------------
 %-----------------------------------------------------------------------------
 \chapter{Erste Resultate}
 \chapter{Erste Resultate}
-\section{Eine Rekursion f"ur die Wartezeit}
+\section{Eine Rekursion für die Wartezeit}
 %----------------------------------------------------------------------------
 %----------------------------------------------------------------------------
 Wir wollen nun die Wartezeit des $(n+1)$-ten Kunden durch die des $n$-ten
 Wir wollen nun die Wartezeit des $(n+1)$-ten Kunden durch die des $n$-ten
-Kunden ausdrucken. Dazu ist 
+Kunden ausdrucken. Dazu ist
 \begin{enumerate}
 \begin{enumerate}
 \item $T_{n} \ldots $ die Ankunftszeit des $n$-ten Kunden.
 \item $T_{n} \ldots $ die Ankunftszeit des $n$-ten Kunden.
 \item $T_{n} + w_{n} \ldots$ die Zeit, wenn der $n$-te Kunde bedient wird.
 \item $T_{n} + w_{n} \ldots$ die Zeit, wenn der $n$-te Kunde bedient wird.
@@ -112,13 +112,13 @@ Kunden.
 Falls $T_{n+1} < T_{n} + w_{n} + x_{n}$,
 Falls $T_{n+1} < T_{n} + w_{n} + x_{n}$,
 dann ist $w_{n+1} = T_{n+1} + w_{n} + x_{n} - T_{n+1} = w_{n} + x_{n} -
 dann ist $w_{n+1} = T_{n+1} + w_{n} + x_{n} - T_{n+1} = w_{n} + x_{n} -
 t_{n+1}$. Falls  $T_{n+1} \geq T_{n} + w_{n} + x_{n}$ ist $w_{n+1} = 0$.
 t_{n+1}$. Falls  $T_{n+1} \geq T_{n} + w_{n} + x_{n}$ ist $w_{n+1} = 0$.
-Also 
+Also
 \begin{displaymath}
 \begin{displaymath}
-w_{n+1}= \max (w_{n}+x_{n}-t_{n+1}, 0) =: (w_{n} + x_{n} - t_{n+1})_{+} ~. 
+w_{n+1}= \max (w_{n}+x_{n}-t_{n+1}, 0) =: (w_{n} + x_{n} - t_{n+1})_{+} ~.
 \end{displaymath}
 \end{displaymath}
-Sei  $u_{n} = x_{n} - t_{n+1}.$ Die $u_{i}$ sind unabh"angig und
+Sei  $u_{n} = x_{n} - t_{n+1}.$ Die $u_{i}$ sind unabhängig und
 identisch verteilt.
 identisch verteilt.
-\begin{eqnarray*}   
+\begin{eqnarray*}
 \Rightarrow w_{n} &=& \max (w_{n-1}+ u_{n-1}, 0) = 0 \\
 \Rightarrow w_{n} &=& \max (w_{n-1}+ u_{n-1}, 0) = 0 \\
 \Rightarrow w_{n} &=& \max (0, u_{n-1} + \max (w_{n-2} + u_{n-2}, 0)) = \\
 \Rightarrow w_{n} &=& \max (0, u_{n-1} + \max (w_{n-2} + u_{n-2}, 0)) = \\
  &=& \max (0, u_{n-1}, u_{n-1} + u_{n-2} + w_{n-2}) = \dots\\
  &=& \max (0, u_{n-1}, u_{n-1} + u_{n-2} + w_{n-2}) = \dots\\
@@ -132,22 +132,22 @@ Also ist die Verteilung von $w_{n}$ dieselbe wie die  von  $\tilde w_{n}$ mit
 \end{displaymath}
 \end{displaymath}
 Offensichtlich ist $\tilde w_{n}$ eine monoton nichtfallende Folge, also
 Offensichtlich ist $\tilde w_{n}$ eine monoton nichtfallende Folge, also
 existiert
 existiert
-\[ \tilde w = \lim_{n \rightarrow \infty} w_{n}. \] 
+\[ \tilde w = \lim_{n \rightarrow \infty} w_{n}. \]
 Falls $\E u > 0$, dann geht $u_{1}+ \cdots + u_{n-1}$ $\rightarrow
 Falls $\E u > 0$, dann geht $u_{1}+ \cdots + u_{n-1}$ $\rightarrow
 \infty$, also auch  $\tilde w$. Falls $\E u < 0$, dann geht $u_{1}+ \cdots
 \infty$, also auch  $\tilde w$. Falls $\E u < 0$, dann geht $u_{1}+ \cdots
-+ u_{n-1}$ $\rightarrow -\infty$, also ist f"ur $n>n_{0}$ $u_{1}+ \cdots +
++ u_{n-1}$ $\rightarrow -\infty$, also ist für $n>n_{0}$ $u_{1}+ \cdots +
 u_{n-1} <0 $, was bedeutet da\3 nur die ersten Glieder in der Definition
 u_{n-1} <0 $, was bedeutet da\3 nur die ersten Glieder in der Definition
 von  $\tilde w_{n}$ wichtig sind; also ist $\tilde w$ endlich. Falls $\E
 von  $\tilde w_{n}$ wichtig sind; also ist $\tilde w$ endlich. Falls $\E
-u = 0$, ist k"onnen wir den einfachen Fall $D/D/1$ betrachten. In diesem
-Fall ist $w_{n}=0$, also ist das Verhalten station"ar. Leider ist das der
+u = 0$, ist können wir den einfachen Fall $D/D/1$ betrachten. In diesem
+Fall ist $w_{n}=0$, also ist das Verhalten stationär. Leider ist das der
 einzige Fall; sobald $A$ oder $B$ nicht degenerierte Verteilungen haben,
 einzige Fall; sobald $A$ oder $B$ nicht degenerierte Verteilungen haben,
 kann $\tilde w_{n}$ nicht gegen eine endliche Zufallsvariable
 kann $\tilde w_{n}$ nicht gegen eine endliche Zufallsvariable
-konvergieren, weil etwa nach dem zentralen Grenzwertsatz f"ur $n$ gro\3
+konvergieren, weil etwa nach dem zentralen Grenzwertsatz für $n$ gro\3
 genug
 genug
 \begin{displaymath}
 \begin{displaymath}
 \PP(\tilde w_{n} > a \sqrt{n.{\bf Var}(u)}) \geq 1- \Phi(a)- \epsilon > 0 ~.
 \PP(\tilde w_{n} > a \sqrt{n.{\bf Var}(u)}) \geq 1- \Phi(a)- \epsilon > 0 ~.
-\end{displaymath}  
-Somit ist f"ur jedes $n$
+\end{displaymath}
+Somit ist für jedes $n$
 \begin{displaymath}
 \begin{displaymath}
 \PP(\tilde w > a \sqrt{n.{\bf Var}(u)}) \geq 1- \Phi(a)- \epsilon ~,
 \PP(\tilde w > a \sqrt{n.{\bf Var}(u)}) \geq 1- \Phi(a)- \epsilon ~,
 \end{displaymath}
 \end{displaymath}
@@ -155,7 +155,7 @@ also
 \begin{displaymath}
 \begin{displaymath}
 \PP(\tilde w = \infty)  \geq  1- \Phi(a)- \epsilon ~.
 \PP(\tilde w = \infty)  \geq  1- \Phi(a)- \epsilon ~.
 \end{displaymath}
 \end{displaymath}
-Es bleibt uns also f"ur station"ares Verhalten (au\3er im Trivialfall \\
+Es bleibt uns also für stationäres Verhalten (au\3er im Trivialfall \\
 $D/D/1$) die Bedingung
 $D/D/1$) die Bedingung
 \begin{displaymath}
 \begin{displaymath}
 \E (u) < 0 \Leftrightarrow \E (x) < \E (t) \Leftrightarrow \rho=
 \E (u) < 0 \Leftrightarrow \E (x) < \E (t) \Leftrightarrow \rho=
@@ -167,26 +167,26 @@ sind dies die Anzahl von Kunden, die in einem langen Zeitraum
 durchschnittlich pro Zeiteinheit ankommen bzw. bedient werden, falls
 durchschnittlich pro Zeiteinheit ankommen bzw. bedient werden, falls
 ununterbrochen
 ununterbrochen
 bedient wird. Mit diesen Bezeichnungen ist $\rho = \frac{\lambda}{\mu}$ \index{Auslastung}(Auslastung)
 bedient wird. Mit diesen Bezeichnungen ist $\rho = \frac{\lambda}{\mu}$ \index{Auslastung}(Auslastung)
-und die Bedingung f"ur station"ares Verhalten wird zu $ \lambda < \mu$ bzw.\ 
+und die Bedingung für stationäres Verhalten wird zu $ \lambda < \mu$ bzw.\
 $\rho<1$.
 $\rho<1$.
 %--------------------------------------------------------------------------
 %--------------------------------------------------------------------------
 \section{Der Satz von Little}
 \section{Der Satz von Little}
 %---------------------------------------------------------------------------
 %---------------------------------------------------------------------------
-Wir nehmen jetzt an, da\3 in unserer Schlange station"ares Verhalten
+Wir nehmen jetzt an, da\3 in unserer Schlange stationäres Verhalten
 herrscht; wir wollen eine Beziehung zwischen der Ankuftsrate, der mittleren
 herrscht; wir wollen eine Beziehung zwischen der Ankuftsrate, der mittleren
 Anzahl der Kunden im System und der mittleren Aufenthaltsdauer finden.
 Anzahl der Kunden im System und der mittleren Aufenthaltsdauer finden.
-Dazu nehmen wir an, da\3 wir jeden Kunden f"ur die Zeit, die er im System
-verbringt, bezahlen m"ussen. Die Summe, die insgesamt zu bezahlen ist,
+Dazu nehmen wir an, da\3 wir jeden Kunden für die Zeit, die er im System
+verbringt, bezahlen müssen. Die Summe, die insgesamt zu bezahlen ist,
 berechnet sich als $T \E (N)$, da zu jedem Zeitpunkt durchschnittlich $\E
 berechnet sich als $T \E (N)$, da zu jedem Zeitpunkt durchschnittlich $\E
 (N)$
 (N)$
 Kunden anwesend sind. Andererseits bekommt jeder Kunde durchschnittlich
 Kunden anwesend sind. Andererseits bekommt jeder Kunde durchschnittlich
 $\E (z)$ bezahlt. In der Zeit $T$ kommen $\lambda T$ Kunden an, also ist
 $\E (z)$ bezahlt. In der Zeit $T$ kommen $\lambda T$ Kunden an, also ist
 die
 die
-zu bezahlende Summe auch gleich $\lambda T \E (z)$. 
+zu bezahlende Summe auch gleich $\lambda T \E (z)$.
 
 
-Beide Gleichungen sind nicht vollst"andig exakt, weil in beiden F"allen
-noch zuf"allige Schwankungen dazukommen, und weil bei der zweiten
-Gleichung auch nicht ber"ucksichtigt wurde, da\3 einige Kunden noch nach
+Beide Gleichungen sind nicht vollständig exakt, weil in beiden Fällen
+noch zufällige Schwankungen dazukommen, und weil bei der zweiten
+Gleichung auch nicht berücksichtigt wurde, da\3 einige Kunden noch nach
 $T$ bleiben. Diese Fehler sind aber von kleineren Ordnung als $T$. Wir
 $T$ bleiben. Diese Fehler sind aber von kleineren Ordnung als $T$. Wir
 haben also
 haben also
 \begin{displaymath}
 \begin{displaymath}
@@ -202,7 +202,7 @@ Mittlere Anzahl der Kunden, die gerade bedient werden =
 \begin{displaymath}
 \begin{displaymath}
 \lambda  \E (x) = \frac{\lambda}{\mu} = \rho ~.
 \lambda  \E (x) = \frac{\lambda}{\mu} = \rho ~.
 \end{displaymath}
 \end{displaymath}
-Da aber h"ochstens 1 Kunde bedient wird, ist das gleich der
+Da aber höchstens 1 Kunde bedient wird, ist das gleich der
 Wahrscheinlichkeit, da\3 der Server besetzt ist, oder der Auslastung des
 Wahrscheinlichkeit, da\3 der Server besetzt ist, oder der Auslastung des
 Servers.
 Servers.
 %---------------------------------------------------------------------------
 %---------------------------------------------------------------------------
@@ -210,8 +210,8 @@ Servers.
 \section{Die Schlange $M/M/1$}
 \section{Die Schlange $M/M/1$}
 %---------------------------------------------------------------------------
 %---------------------------------------------------------------------------
 Im Folgenden gehen wir von der `FCFS'-Disziplin aus.
 Im Folgenden gehen wir von der `FCFS'-Disziplin aus.
-Um die zuk"unftige Entwicklung einer Warteschlange bestimmen zu k"onnen,
-ben"otigen wir 3 Angaben zur Zeit $t$.
+Um die zukünftige Entwicklung einer Warteschlange bestimmen zu können,
+benötigen wir 3 Angaben zur Zeit $t$.
 \begin{enumerate}
 \begin{enumerate}
 \item Die Anzahl $N_{t}$ der anwesenden Kunden.
 \item Die Anzahl $N_{t}$ der anwesenden Kunden.
 \item Die Zeit, die seit der letzten Ankunft vergangen ist.
 \item Die Zeit, die seit der letzten Ankunft vergangen ist.
@@ -219,16 +219,16 @@ ben"otigen wir 3 Angaben zur Zeit $t$.
 ist (falls dieser noch andauert).
 ist (falls dieser noch andauert).
 \end{enumerate}
 \end{enumerate}
 Die letzten beiden Angaben sind notwendig, damit wir die Verteilung der
 Die letzten beiden Angaben sind notwendig, damit wir die Verteilung der
-verbleibenden Zeit bis zur n"achsten Ankunft bzw. bis zum Ende des
-Bedienvorganges bestimmen k"onnen. F"ur den Fall $M/M/1$ sind diese
+verbleibenden Zeit bis zur nächsten Ankunft bzw. bis zum Ende des
+Bedienvorganges bestimmen können. Für den Fall $M/M/1$ sind diese
 Angaben nicht notwendig, weil diese Verteilungen wegen der
 Angaben nicht notwendig, weil diese Verteilungen wegen der
-Ged"achtnislosigkeit der Exponentialverteilung nicht von der schon
-verstrichenen Zeit abh"angen. Deshalb gen"ugt uns $N_{t}$ zur Beschreibung
+Gedächtnislosigkeit der Exponentialverteilung nicht von der schon
+verstrichenen Zeit abhängen. Deshalb genügt uns $N_{t}$ zur Beschreibung
 des Systems.
 des Systems.
 
 
 Wir betrachten jetzt die Anzahl der Kunden zur Zeit $t+ \Delta t$, wenn
 Wir betrachten jetzt die Anzahl der Kunden zur Zeit $t+ \Delta t$, wenn
 die Anzahl zur Zeit t bekannt ist. Die Anzahl kann sich in folgender Weise
 die Anzahl zur Zeit t bekannt ist. Die Anzahl kann sich in folgender Weise
-"andern:
+ändern:
 \begin{enumerate}
 \begin{enumerate}
 \item Es kann gar nichts geschehen.
 \item Es kann gar nichts geschehen.
 \item Es kann genau ein Kunde aufkommen.
 \item Es kann genau ein Kunde aufkommen.
@@ -238,58 +238,58 @@ die Anzahl zur Zeit t bekannt ist. Die Anzahl kann sich in folgender Weise
 Die Wahrscheinlichkeit, da\3 mindestens ein Kunde im Intervall $(t, t+ \Delta t)$
 Die Wahrscheinlichkeit, da\3 mindestens ein Kunde im Intervall $(t, t+ \Delta t)$
 ankommt, ist $1-e^{-\lambda \Delta t} = \lambda \Delta t + o (\Delta t)$.
 ankommt, ist $1-e^{-\lambda \Delta t} = \lambda \Delta t + o (\Delta t)$.
 Ebenso ist die Wahrscheinlichkeit, da\3 ein Kunde fertig wird $\mu \Delta
 Ebenso ist die Wahrscheinlichkeit, da\3 ein Kunde fertig wird $\mu \Delta
-t + o(\Delta t)$. Die Wahrscheinlichkeit f"ur 4. ist, wie man leicht
-einsieht, $o(\Delta t)$. Das gibt f"ur 1. die Wahrscheinlichkeit $1 -
+t + o(\Delta t)$. Die Wahrscheinlichkeit für 4. ist, wie man leicht
+einsieht, $o(\Delta t)$. Das gibt für 1. die Wahrscheinlichkeit $1 -
 (\lambda + \mu) \Delta t + o(\Delta t)$. Falls die Schlange leer ist,
 (\lambda + \mu) \Delta t + o(\Delta t)$. Falls die Schlange leer ist,
-fallen nat"urlich die Summanden mit $\mu$ weg (es kann ja niemand gehen).
-Somit gilt f"ur
+fallen natürlich die Summanden mit $\mu$ weg (es kann ja niemand gehen).
+Somit gilt für
 \begin{eqnarray*}
 \begin{eqnarray*}
 p_{n}(t) &=& \PP (N_{t} = n) \\
 p_{n}(t) &=& \PP (N_{t} = n) \\
 p_{n}(t+ \Delta t) &=& \mu \Delta t . p_{n+1}(t) + (1 - (\lambda +
 p_{n}(t+ \Delta t) &=& \mu \Delta t . p_{n+1}(t) + (1 - (\lambda +
 \mu) \Delta t) p_{n}(t) + \\
 \mu) \Delta t) p_{n}(t) + \\
  & &+ \lambda \Delta t p_{n-1}(t) + o(\Delta t)
  & &+ \lambda \Delta t p_{n-1}(t) + o(\Delta t)
-\qquad [n \geq 1] \\ 
+\qquad [n \geq 1] \\
 p_{0}(t + \Delta t) &=& \mu \Delta t . p_{1}(t) + (1 - \lambda \Delta t)
 p_{0}(t + \Delta t) &=& \mu \Delta t . p_{1}(t) + (1 - \lambda \Delta t)
 p_{0}(t) + o(\Delta t) ~.
 p_{0}(t) + o(\Delta t) ~.
 \end{eqnarray*}
 \end{eqnarray*}
 Wenn man $p_{n}(t)$ auf die linke Seite bringt und durch $\Delta t$
 Wenn man $p_{n}(t)$ auf die linke Seite bringt und durch $\Delta t$
-dividiert und $\Delta t \rightarrow 0$ l"a\3t, ergibt sich
+dividiert und $\Delta t \rightarrow 0$ lä\3t, ergibt sich
 \begin{eqnarray*}
 \begin{eqnarray*}
 p'_{n}(t) &=& \mu p_{n+1}(t)-(\lambda + \mu) p_{n}(t)+ \lambda p_{n-1}(t)
 p'_{n}(t) &=& \mu p_{n+1}(t)-(\lambda + \mu) p_{n}(t)+ \lambda p_{n-1}(t)
 \\
 \\
 p'_{0}(t) &=& \mu p_{1}(t)- \lambda p_{0}(t) ~.
 p'_{0}(t) &=& \mu p_{1}(t)- \lambda p_{0}(t) ~.
 \end{eqnarray*}
 \end{eqnarray*}
-Diese Gleichungen lassen sich etwa mit Hilfe von Transformationen l"osen,
-aber das Ergebnis ist nicht besonders sch"on. Wir beschr"anken uns daher
-jetzt und in der Folge auf die Bestimmung der station"aren L"osung. Diese
-ist nat"urlich dadurch gekennzeichnet, da\3 $p_{n}(t)$ nicht von der Zeit
-$t$ abh"angt, also $p'_{n}(t)=0$. Das ergibt die Gleichungen
+Diese Gleichungen lassen sich etwa mit Hilfe von Transformationen lösen,
+aber das Ergebnis ist nicht besonders schön. Wir beschränken uns daher
+jetzt und in der Folge auf die Bestimmung der stationären Lösung. Diese
+ist natürlich dadurch gekennzeichnet, da\3 $p_{n}(t)$ nicht von der Zeit
+$t$ abhängt, also $p'_{n}(t)=0$. Das ergibt die Gleichungen
 \begin{eqnarray*}
 \begin{eqnarray*}
 \mu p_{n+1}-(\lambda +\mu) p_{n} + \lambda p_{n-1} &=& 0 \\
 \mu p_{n+1}-(\lambda +\mu) p_{n} + \lambda p_{n-1} &=& 0 \\
 \mu p_{1} - \lambda p_{0} &=& 0 ~.
 \mu p_{1} - \lambda p_{0} &=& 0 ~.
-\end{eqnarray*}  
+\end{eqnarray*}
 Durch Induktion erhalten wir daraus
 Durch Induktion erhalten wir daraus
 \begin{displaymath}
 \begin{displaymath}
-\mu p_{n+1} - \lambda p_{n} = 0 ~, 
+\mu p_{n+1} - \lambda p_{n} = 0 ~,
 \end{displaymath}
 \end{displaymath}
 oder
 oder
 \begin{displaymath}
 \begin{displaymath}
-p_{n+1} = \frac{\lambda}{\mu} p_{n} = \rho p_{n} ~. 
+p_{n+1} = \frac{\lambda}{\mu} p_{n} = \rho p_{n} ~.
 \end{displaymath}
 \end{displaymath}
 Also ist
 Also ist
 \begin{displaymath}
 \begin{displaymath}
-p_{n} = \rho^{n}p_{0} 
+p_{n} = \rho^{n}p_{0}
 \end{displaymath}
 \end{displaymath}
 und wegen $\sum_{n=0}^{\infty} p_{n} = 1$
 und wegen $\sum_{n=0}^{\infty} p_{n} = 1$
-\begin{displaymath} 
-p_{0} = 1- \rho  
+\begin{displaymath}
+p_{0} = 1- \rho
 \end{displaymath}
 \end{displaymath}
 und
 und
 \begin{displaymath}
 \begin{displaymath}
 p_{n} = \rho^{n} (1- \rho) ~.
 p_{n} = \rho^{n} (1- \rho) ~.
 \end{displaymath}
 \end{displaymath}
 Die Anzahl der Kunden im System ist also geometrisch verteilt. Aus dieser
 Die Anzahl der Kunden im System ist also geometrisch verteilt. Aus dieser
-Verteilung k"onnen wir jetzt die Verteilungen von $w$ und $z$ bestimmen.
+Verteilung können wir jetzt die Verteilungen von $w$ und $z$ bestimmen.
 Die Zeit im System $z$, falls bei der Ankunft $n$ Personen anwesend sind,
 Die Zeit im System $z$, falls bei der Ankunft $n$ Personen anwesend sind,
 ist die Summe von $(n+1)$ exponentialverteilten Zufallsvariablen (die
 ist die Summe von $(n+1)$ exponentialverteilten Zufallsvariablen (die
 Bedienzeiten der $n$ anwesenden + die der neu hinzugekommenen), hat also
 Bedienzeiten der $n$ anwesenden + die der neu hinzugekommenen), hat also
@@ -314,16 +314,16 @@ Exponentialverteilung mit Parameter $\mu - \lambda$.
 %----------------------------------------------------------------------------
 %----------------------------------------------------------------------------
 \section{Das System $M/G/1$}
 \section{Das System $M/G/1$}
 %------------------------------------------------------------------------------
 %------------------------------------------------------------------------------
-Jetzt ben"otigen wir zus"atzlich zu $N_{t}$ die Information "uber die
+Jetzt benötigen wir zusätzlich zu $N_{t}$ die Information über die
 schon verbrauchte Bedienzeit. Die einfachste Methode besteht darin, das
 schon verbrauchte Bedienzeit. Die einfachste Methode besteht darin, das
 System nur in solchen Zeitpunkten zu betrachten, an denen die verbrauchte
 System nur in solchen Zeitpunkten zu betrachten, an denen die verbrauchte
-Bedienzeit bekannt ist (und zwar = 0), n"amlich die Zeitpunkte $T_{n}$, in
-denen der n-te Kunde das System verl"a\3t. Es sei $N_{n}$ die Anzahl der
+Bedienzeit bekannt ist (und zwar = 0), nämlich die Zeitpunkte $T_{n}$, in
+denen der n-te Kunde das System verlä\3t. Es sei $N_{n}$ die Anzahl der
 Kunden, die dann im System verbleiben. Es gilt: Falls $N_{n}=0$, so mu\3
 Kunden, die dann im System verbleiben. Es gilt: Falls $N_{n}=0$, so mu\3
 zuerst gewartet werden, bis ein neuer Kunde ankommt; wenn dieser Kunde
 zuerst gewartet werden, bis ein neuer Kunde ankommt; wenn dieser Kunde
-geht, sind noch genau die Kunden da, die w"ahrend seiner Bedienzeit
+geht, sind noch genau die Kunden da, die während seiner Bedienzeit
 angekommen sind; bezeichnet man $M_{n}$ als die Anzahl der Kunden, die
 angekommen sind; bezeichnet man $M_{n}$ als die Anzahl der Kunden, die
-w"ahrend der Bedienzeit des $n$-ten Kunden ankommen, so gilt
+während der Bedienzeit des $n$-ten Kunden ankommen, so gilt
 \begin{displaymath}
 \begin{displaymath}
 N_{n+1} = M_{n} ~.
 N_{n+1} = M_{n} ~.
 \end{displaymath}
 \end{displaymath}
@@ -335,8 +335,8 @@ Zusammengefa\3t ergibt sich:
 \begin{displaymath}
 \begin{displaymath}
 N_{n+1} = (N_{n} - 1)_{+} + M_{n} ~.
 N_{n+1} = (N_{n} - 1)_{+} + M_{n} ~.
 \end{displaymath}
 \end{displaymath}
-Wir suchen eine station"are L"osung; es sei also $\PP (N_{n}=k)=p_{k}$
-unabh"angig von $n$. Die erzeugende Funktion von $N_{n}$ ist
+Wir suchen eine stationäre Lösung; es sei also $\PP (N_{n}=k)=p_{k}$
+unabhängig von $n$. Die erzeugende Funktion von $N_{n}$ ist
 \begin{displaymath}
 \begin{displaymath}
 P^{*}(z) = \sum_{}^{}p_{k}z^{k} ~.
 P^{*}(z) = \sum_{}^{}p_{k}z^{k} ~.
 \end{displaymath}
 \end{displaymath}
@@ -345,9 +345,9 @@ Die erzeugende Funktion von $(N_{n}-1)_{+}=$
 = p_{0} + \sum_{k=1}^{\infty} p_{k} z^{k-1} &=& p_{0}+ \frac{\hat P
 = p_{0} + \sum_{k=1}^{\infty} p_{k} z^{k-1} &=& p_{0}+ \frac{\hat P
 (z) - p_{0}}{z} = \\
 (z) - p_{0}}{z} = \\
  &=& \frac{\hat P(z) - p_{0}(1-z)}{z} ~.
  &=& \frac{\hat P(z) - p_{0}(1-z)}{z} ~.
-\end{eqnarray*} 
+\end{eqnarray*}
 Mithilfe der Transformationen (Anhang A) ergibt sich die erzeugende Funktion von $M_{n}$
 Mithilfe der Transformationen (Anhang A) ergibt sich die erzeugende Funktion von $M_{n}$
-(die Ank"unfte bilden ja einen Poisson - Proze\3) als 
+(die Ankünfte bilden ja einen Poisson - Proze\3) als
 \begin{displaymath}
 \begin{displaymath}
 \tilde B (\lambda(1 - z)) ~,
 \tilde B (\lambda(1 - z)) ~,
 \end{displaymath}
 \end{displaymath}
@@ -368,8 +368,8 @@ P^{*}(z) = \frac{(1- \rho)(1-z) \tilde B ( \lambda (1-z))}{ \tilde B (
 \lambda(1-z)) - z} ~,
 \lambda(1-z)) - z} ~,
 \end{displaymath}
 \end{displaymath}
 eine sogenannte \index{Pollaczek - Khinchin Formel}Pollaczek - Khinchin Formel. Die Anzahl der Kunden, die der $n$-te
 eine sogenannte \index{Pollaczek - Khinchin Formel}Pollaczek - Khinchin Formel. Die Anzahl der Kunden, die der $n$-te
-Kunde zur"uckl"a\3t, ist genau die Anzahl der Kunden, die ankommen
-w"ahrend er im System ist (d.h. w"ahrend $z_{n}$), d.h. f"ur die
+Kunde zurücklä\3t, ist genau die Anzahl der Kunden, die ankommen
+während er im System ist (d.h. während $z_{n}$), d.h. für die
 $L$-Transformierte $ \tilde Z (t)$ der Verteilung von $z$ gilt:
 $L$-Transformierte $ \tilde Z (t)$ der Verteilung von $z$ gilt:
 \begin{displaymath}
 \begin{displaymath}
 \tilde Z (\lambda(1-z)) = P^{*}(z) ~,
 \tilde Z (\lambda(1-z)) = P^{*}(z) ~,
@@ -378,18 +378,18 @@ also
 \begin{displaymath}
 \begin{displaymath}
 \tilde Z (t) = \frac{(1- \rho)t \tilde B (t)}{t + \lambda \tilde B (t) -
 \tilde Z (t) = \frac{(1- \rho)t \tilde B (t)}{t + \lambda \tilde B (t) -
 \lambda} ~.
 \lambda} ~.
-\end{displaymath} 
-Auch das nennt man eine Pollaczek - Khinchin Formel. F"ur die Wartezeit
+\end{displaymath}
+Auch das nennt man eine Pollaczek - Khinchin Formel. Für die Wartezeit
 gilt
 gilt
 (wegen $z_{n} = w_{n} + x_{n}$)
 (wegen $z_{n} = w_{n} + x_{n}$)
 \begin{displaymath}
 \begin{displaymath}
-\tilde Z (t) = \tilde W (t) \tilde B(t) ~, 
-\end{displaymath} 
+\tilde Z (t) = \tilde W (t) \tilde B(t) ~,
+\end{displaymath}
 also
 also
 \begin{displaymath}
 \begin{displaymath}
 \tilde W (t) = \frac{(1- \rho)t}{t + \lambda \tilde B (t) - \lambda} ~.
 \tilde W (t) = \frac{(1- \rho)t}{t + \lambda \tilde B (t) - \lambda} ~.
 \end{displaymath}
 \end{displaymath}
-F"ur die Erwartungswerte ergibt sich:
+Für die Erwartungswerte ergibt sich:
 \begin{eqnarray*}
 \begin{eqnarray*}
 \E (N) &=& \rho + \frac{\lambda^{2} \E x^{2}}{2(1- \rho)} \\
 \E (N) &=& \rho + \frac{\lambda^{2} \E x^{2}}{2(1- \rho)} \\
 \E (Z) &=& \frac{1}{\mu} + \frac{\lambda \E x^{2}}{2(1 - \rho)} \\
 \E (Z) &=& \frac{1}{\mu} + \frac{\lambda \E x^{2}}{2(1 - \rho)} \\
@@ -402,49 +402,49 @@ Jetzt betrachten wir analog zum vorigen Kapitel das System zu den Zeiten
 $T_{n}$, wo der $n$-te Kunde ankommt. $N_{n}$ sei die Anzahl der
 $T_{n}$, wo der $n$-te Kunde ankommt. $N_{n}$ sei die Anzahl der
 anwesenden Kunden, die der $n$-te Kunde vorfindet.
 anwesenden Kunden, die der $n$-te Kunde vorfindet.
 \begin{displaymath}
 \begin{displaymath}
-N_{n+1} = N_{n}+1-\mbox{Anzahl der Kunden, die w"ahrend $t_{n+1}$ gehen.}
+N_{n+1} = N_{n}+1-\mbox{Anzahl der Kunden, die während $t_{n+1}$ gehen.}
 \end{displaymath}
 \end{displaymath}
-F"ur $n>0$ gilt, wenn wir $p_{k}= \PP (N_{n}=k)$ (station"ar!) setzen:
+Für $n>0$ gilt, wenn wir $p_{k}= \PP (N_{n}=k)$ (stationär!) setzen:
 \begin{displaymath}
 \begin{displaymath}
 p_{k} = \sum_{j=k-1}^{\infty} p_{j} q_{j+1-k} \qquad [k \geq 1] ~,
 p_{k} = \sum_{j=k-1}^{\infty} p_{j} q_{j+1-k} \qquad [k \geq 1] ~,
 \end{displaymath}
 \end{displaymath}
 wobei
 wobei
 \begin{displaymath}
 \begin{displaymath}
-q_{s} = \PP (\mbox{ $s$ Kunden gehen w" ahrend
-$t_{n+1}$)} = 
+q_{s} = \PP (\mbox{ $s$ Kunden gehen während
+$t_{n+1}$)} =
 \end{displaymath}
 \end{displaymath}
 \begin{eqnarray*}
 \begin{eqnarray*}
-= \PP (\mbox{w"ahrend $t_{n+1}$ treten genau $s$ Ereignisse eines Poissons 
+= \PP (\mbox{während $t_{n+1}$ treten genau $s$ Ereignisse eines Poissons
 -} \\
 -} \\
-\mbox{Prozesses mit Rate $\mu$ auf)} ~. & & 
-\end{eqnarray*} 
-Die Gleichung f"ur $k=0$ ist "uberfl"ussig, da sie aus den Gleichungen
-f"ur $k>0$ und der Beziehung $\sum_{}^{} p_{k}=1$ gefolgert werden kann.
-Man kann zeigen, da\3 diese Gleichung eine eindeutige L"osung besitzt.
-Falls nun $(p_{k})$ eine L"osung ist, ist auch 
+\mbox{Prozesses mit Rate $\mu$ auf)} ~. & &
+\end{eqnarray*}
+Die Gleichung für $k=0$ ist überflüssig, da sie aus den Gleichungen
+für $k>0$ und der Beziehung $\sum_{}^{} p_{k}=1$ gefolgert werden kann.
+Man kann zeigen, da\3 diese Gleichung eine eindeutige Lösung besitzt.
+Falls nun $(p_{k})$ eine Lösung ist, ist auch
 \begin{displaymath}
 \begin{displaymath}
 \tilde p_{k} = \frac{p_{k+1}}{1-p_{0}}
 \tilde p_{k} = \frac{p_{k+1}}{1-p_{0}}
 \end{displaymath}
 \end{displaymath}
-eine L"osung. Es mu\3 also
+eine Lösung. Es mu\3 also
 \begin{displaymath}
 \begin{displaymath}
 \tilde p_{k} = p_{k} ~,
 \tilde p_{k} = p_{k} ~,
 \end{displaymath}
 \end{displaymath}
 somit
 somit
 \begin{displaymath}
 \begin{displaymath}
-p_{k+1} = p_{k}(1-p_{0}) 
+p_{k+1} = p_{k}(1-p_{0})
 \end{displaymath}
 \end{displaymath}
 und
 und
 \begin{displaymath}
 \begin{displaymath}
-p_{k} = p_{0}(1-p_{0})^{k} = 
+p_{k} = p_{0}(1-p_{0})^{k} =
 \sigma^{k}(1- \sigma) \qquad [ \sigma := 1 - p_{0}] ~.
 \sigma^{k}(1- \sigma) \qquad [ \sigma := 1 - p_{0}] ~.
-\end{displaymath}  
-Setzt man das in die Gleichung f"ur $k=1$ ein, ergibt sich
+\end{displaymath}
+Setzt man das in die Gleichung für $k=1$ ein, ergibt sich
 \begin{displaymath}
 \begin{displaymath}
 \sigma = \sum_{j=0}^{\infty} \sigma^{j} q_{j} = \tilde A (\mu(1-\sigma))
 \sigma = \sum_{j=0}^{\infty} \sigma^{j} q_{j} = \tilde A (\mu(1-\sigma))
 ~.
 ~.
 \end{displaymath}
 \end{displaymath}
-Falls $\rho < 1$, gibt es genau eine L"osung $\sigma \in (0,1)$. Dann ist
-$N$ geometrisch verteilt mit Parameter $\sigma$. Wie f"ur die Schlange
+Falls $\rho < 1$, gibt es genau eine Lösung $\sigma \in (0,1)$. Dann ist
+$N$ geometrisch verteilt mit Parameter $\sigma$. Wie für die Schlange
 $M/M/1$ ergibt sich die Verteilung der Zeit $z$ im System als
 $M/M/1$ ergibt sich die Verteilung der Zeit $z$ im System als
 Exponentialverteilt mit Parameter $\mu(1- \sigma)$; die Wartezeit $w$ hat
 Exponentialverteilt mit Parameter $\mu(1- \sigma)$; die Wartezeit $w$ hat
 $\PP (w=0)= 1 - \sigma$ und die bedingte Verteilung von $w$ unter $[w>0]$
 $\PP (w=0)= 1 - \sigma$ und die bedingte Verteilung von $w$ unter $[w>0]$
@@ -455,19 +455,19 @@ ist wieder dieselbe Exponentialverteilung wie die von $z$.
 Hier sind beide Verteilungen - die der Zwischenankunftszeiten und die der
 Hier sind beide Verteilungen - die der Zwischenankunftszeiten und die der
 Bedienzeiten - allgemeine Verteilungen. Der Trick der vorigen beiden
 Bedienzeiten - allgemeine Verteilungen. Der Trick der vorigen beiden
 Kapitel funktioniert jetzt nicht mehr gut. Um beide Zeiten zu
 Kapitel funktioniert jetzt nicht mehr gut. Um beide Zeiten zu
-kontrollieren, m"u\3ten wir das System nun zu den Zeitpunkten betrachten,
+kontrollieren, mü\3ten wir das System nun zu den Zeitpunkten betrachten,
 in denen ein Kunde das leere System betritt; diese Zeitpunkte sind aber zu
 in denen ein Kunde das leere System betritt; diese Zeitpunkte sind aber zu
-selten, um vern"uftig damit zu arbeiten. Statt dessen gehen wir von der
-Rekursion f"ur die Wartezeiten aus:
+selten, um vernüftig damit zu arbeiten. Statt dessen gehen wir von der
+Rekursion für die Wartezeiten aus:
 \begin{displaymath}
 \begin{displaymath}
 w_{n+1} = (w_{n} + u_{n})_{+} ~.
 w_{n+1} = (w_{n} + u_{n})_{+} ~.
 \end{displaymath}
 \end{displaymath}
-Das bedeutet f"ur die Verteilungsfunktion $W(.)$ von $w$
+Das bedeutet für die Verteilungsfunktion $W(.)$ von $w$
 \begin{displaymath}
 \begin{displaymath}
 W(x) = \PP (w_{n+1} \leq x) = \left\{
 W(x) = \PP (w_{n+1} \leq x) = \left\{
 \begin{array}{lc}
 \begin{array}{lc}
 \PP (w_{n} + u_{n} \leq x) & x \geq 0 \\
 \PP (w_{n} + u_{n} \leq x) & x \geq 0 \\
-0 & x < 0 
+0 & x < 0
 \end{array} \right. ~.
 \end{array} \right. ~.
 \end{displaymath}
 \end{displaymath}
 Die Wahrscheinlichkeit $\PP (w_{n}+ u_{n} \leq x)$ berechnet sich als
 Die Wahrscheinlichkeit $\PP (w_{n}+ u_{n} \leq x)$ berechnet sich als
@@ -475,8 +475,8 @@ Die Wahrscheinlichkeit $\PP (w_{n}+ u_{n} \leq x)$ berechnet sich als
 \PP (w_{n} + u_{n} \leq x) = \int_{- \infty}^{\infty} W(x-u) c(u) du ~,
 \PP (w_{n} + u_{n} \leq x) = \int_{- \infty}^{\infty} W(x-u) c(u) du ~,
 \end{displaymath}
 \end{displaymath}
 wobei $c(u)$ die Dichte von $u_{n} = x_{n} - t_{n+1}$ ist. Falls in der
 wobei $c(u)$ die Dichte von $u_{n} = x_{n} - t_{n+1}$ ist. Falls in der
-Gleichung f"ur $W(x)$ die Fallunterscheidung nicht auftreten w"urde, w"are
-sie leicht durch Transformationen zu l"osen. Wir erreichen dies durch
+Gleichung für $W(x)$ die Fallunterscheidung nicht auftreten würde, wäre
+sie leicht durch Transformationen zu lösen. Wir erreichen dies durch
 einen Kunstgriff: Wir setzen
 einen Kunstgriff: Wir setzen
 \begin{displaymath}
 \begin{displaymath}
 Y(x) = \left\{
 Y(x) = \left\{
@@ -485,7 +485,7 @@ Y(x) = \left\{
 0 &  x \geq 0
 0 &  x \geq 0
 \end{array} \right. ~.
 \end{array} \right. ~.
 \end{displaymath}
 \end{displaymath}
-Dann ist 
+Dann ist
 \begin{displaymath}
 \begin{displaymath}
 W(x) + Y(x) = \int_{-\infty}^{\infty} W(x-u) c(u) du ~.
 W(x) + Y(x) = \int_{-\infty}^{\infty} W(x-u) c(u) du ~.
 \end{displaymath}
 \end{displaymath}
@@ -495,29 +495,29 @@ da\3
 \begin{displaymath}
 \begin{displaymath}
 \Phi (t) = \frac{1}{t} \tilde W(t)
 \Phi (t) = \frac{1}{t} \tilde W(t)
 \end{displaymath}
 \end{displaymath}
-gilt. F"ur die Transformationen ergeben sich die Formeln
+gilt. Für die Transformationen ergeben sich die Formeln
 \begin{displaymath}
 \begin{displaymath}
 \Phi (t) + \Phi^{-}(t) = \Phi (t) \tilde C (t) = \Phi (t) \tilde A (-t)
 \Phi (t) + \Phi^{-}(t) = \Phi (t) \tilde C (t) = \Phi (t) \tilde A (-t)
-\tilde B (t) ~,  
+\tilde B (t) ~,
 \end{displaymath}
 \end{displaymath}
 oder
 oder
 \begin{displaymath}
 \begin{displaymath}
 \frac{\Phi^{-}(t)}{\Phi (t)} = \tilde A (-t)  \tilde B (t) -1 ~.
 \frac{\Phi^{-}(t)}{\Phi (t)} = \tilde A (-t)  \tilde B (t) -1 ~.
 \end{displaymath}
 \end{displaymath}
-Wir nehmen an, da\3 $\tilde A(t)$ f"ur $t \geq -D$ existiert. (Das ist
-gleichbedeutend damit, da\3 $\PP (t_{n} \geq x)$ wie $e^{-Dx}$ f"allt).
-Dann existiert $\tilde A (-t) \tilde B (t) - 1$ f"ur $0 \leq t \leq D$;
-Ferner existiert $\Phi (t)$ f"ur $t >0$ und $t \Phi (t)$ ist in $\Re (t)
-\geq 0$ regul"ar und beschr"ankt; $\Phi^{-}(t)$ existiert f"ur $t \leq D$
-und in $\Re (t) < D$ ist $t\Phi^{-}(t)$ regul"ar und beschr"ankt. Wir
+Wir nehmen an, da\3 $\tilde A(t)$ für $t \geq -D$ existiert. (Das ist
+gleichbedeutend damit, da\3 $\PP (t_{n} \geq x)$ wie $e^{-Dx}$ fällt).
+Dann existiert $\tilde A (-t) \tilde B (t) - 1$ für $0 \leq t \leq D$;
+Ferner existiert $\Phi (t)$ für $t >0$ und $t \Phi (t)$ ist in $\Re (t)
+\geq 0$ regulär und beschränkt; $\Phi^{-}(t)$ existiert für $t \leq D$
+und in $\Re (t) < D$ ist $t\Phi^{-}(t)$ regulär und beschränkt. Wir
 versuchen 2 Funktionen $\Psi^{+}$ und $\Psi^{-}$ zu finden, die folgendes
 versuchen 2 Funktionen $\Psi^{+}$ und $\Psi^{-}$ zu finden, die folgendes
-erf"ullen:
+erfüllen:
 \begin{enumerate}
 \begin{enumerate}
 \item $\frac{\Psi^{+}(t)}{\Psi^{-}(t)} = \tilde A(-t) \tilde B(t) -1$ ~ ~\index{Spektralzerlegung}(Spektralzerlegung).
 \item $\frac{\Psi^{+}(t)}{\Psi^{-}(t)} = \tilde A(-t) \tilde B(t) -1$ ~ ~\index{Spektralzerlegung}(Spektralzerlegung).
-\item $\frac{\Psi^{+}(t)}{t}$ ist f"ur $\Re(t)>0$ regul"ar und beschr"ankt
+\item $\frac{\Psi^{+}(t)}{t}$ ist für $\Re(t)>0$ regulär und beschränkt
 und hat dort keine Nullstellen.
 und hat dort keine Nullstellen.
-\item $\frac{\Psi^{-}(t)}{t}$ ist f"ur $\Re (t) < D$ regul"ar und
-beschr"ankt und hat dort keine Nullstellen.
+\item $\frac{\Psi^{-}(t)}{t}$ ist für $\Re (t) < D$ regulär und
+beschränkt und hat dort keine Nullstellen.
 \end{enumerate}
 \end{enumerate}
 Dann gilt
 Dann gilt
 \begin{displaymath}
 \begin{displaymath}
@@ -528,9 +528,9 @@ oder
 \begin{displaymath}
 \begin{displaymath}
 \Phi^{-}(t) \Psi^{-}(t) = \Psi^{+}(t) \Phi (t) \qquad 0< \Re (t) < D ~.
 \Phi^{-}(t) \Psi^{-}(t) = \Psi^{+}(t) \Phi (t) \qquad 0< \Re (t) < D ~.
 \end{displaymath}
 \end{displaymath}
-Die linke Seite ist f"ur $\Re (t) < D$ regul"ar und beschr"ankt, die
-rechte Seite f"ur $\Re (t) > 0$. Es ist dadurch also eine Funktion
-bestimmt, die in der ganzen Ebene regul"ar und beschr"ankt ist. Nach dem
+Die linke Seite ist für $\Re (t) < D$ regulär und beschränkt, die
+rechte Seite für $\Re (t) > 0$. Es ist dadurch also eine Funktion
+bestimmt, die in der ganzen Ebene regulär und beschränkt ist. Nach dem
 Satz von \index{Satz!LIOUVILLE}LIOUVILLE mu\3 eine solche Funktion konstant sein. Es gilt also
 Satz von \index{Satz!LIOUVILLE}LIOUVILLE mu\3 eine solche Funktion konstant sein. Es gilt also
 \begin{displaymath}
 \begin{displaymath}
 \Phi (t) = \frac{K}{\Psi^{+}(t)} ~,
 \Phi (t) = \frac{K}{\Psi^{+}(t)} ~,
@@ -544,13 +544,13 @@ Es bleibt die Konstante $K$ zu bestimmen. Sie folgt wieder aus
 \tilde W (0) = 1 \qquad \mbox{zu} \qquad
 \tilde W (0) = 1 \qquad \mbox{zu} \qquad
 K = \frac{\Phi^{+}(t)}{t} \Bigg \bracevert_{t=0} = (\Phi^{+})^{'}(0) ~.
 K = \frac{\Phi^{+}(t)}{t} \Bigg \bracevert_{t=0} = (\Phi^{+})^{'}(0) ~.
 \end{displaymath}
 \end{displaymath}
-{\bf Beispiel: $M/M/1$} 
+{\bf Beispiel: $M/M/1$}
 \begin{displaymath}
 \begin{displaymath}
 A = M_{\lambda}: \quad \tilde A(t) = \frac{\lambda}{\lambda + t}, \quad
 A = M_{\lambda}: \quad \tilde A(t) = \frac{\lambda}{\lambda + t}, \quad
 B = M_{\mu}: \quad \tilde B(t) =\frac{\mu}{\mu +t}
 B = M_{\mu}: \quad \tilde B(t) =\frac{\mu}{\mu +t}
 \end{displaymath}
 \end{displaymath}
 \begin{eqnarray*}
 \begin{eqnarray*}
-\frac{\Psi^{+}(t)}{\Psi^{-}(t)} &=& \tilde A(-t) \tilde B(t)-1 = 
+\frac{\Psi^{+}(t)}{\Psi^{-}(t)} &=& \tilde A(-t) \tilde B(t)-1 =
 \frac{\lambda \mu}{(\lambda - t)(\mu + t)} - 1 = \\
 \frac{\lambda \mu}{(\lambda - t)(\mu + t)} - 1 = \\
  &=& \frac{t(\mu - \lambda + t)}{(\lambda - t)(\mu + t)}. \\
  &=& \frac{t(\mu - \lambda + t)}{(\lambda - t)(\mu + t)}. \\
 \Psi^{+}(t) &=& \frac{t(\mu -\lambda + t)}{(t + \mu} \\
 \Psi^{+}(t) &=& \frac{t(\mu -\lambda + t)}{(t + \mu} \\
@@ -560,6 +560,6 @@ B = M_{\mu}: \quad \tilde B(t) =\frac{\mu}{\mu +t}
 \frac{1}{t} - \frac{\lambda}{\mu(\mu - \lambda + t)} \\
 \frac{1}{t} - \frac{\lambda}{\mu(\mu - \lambda + t)} \\
 \Psi^{+'}(0) &=& \frac{\Psi^{+}(t)}{t} \Bigg \bracevert_{t=0} =\frac{\mu -
 \Psi^{+'}(0) &=& \frac{\Psi^{+}(t)}{t} \Bigg \bracevert_{t=0} =\frac{\mu -
 \lambda}{\mu} \\
 \lambda}{\mu} \\
-F(x) &=& 1 - \rho e^{-(\mu - \lambda)x} \quad \mbox{f"ur} \quad x \geq 0
+F(x) &=& 1 - \rho e^{-(\mu - \lambda)x} \quad \mbox{für} \quad x \geq 0
 \end{eqnarray*}
 \end{eqnarray*}
 also die Verteilung der Wartezeit aus dem ersten Kapitel.
 also die Verteilung der Wartezeit aus dem ersten Kapitel.