pantelis.tex 24 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222223224225226227228229230231232233234235236237238239240241242243244245246247248249250251252253254255256257258259260261262263264265266267268269270271272273274275276277278279280281282283284285286287288289290291292293294295296297298299300301302303304305306307308309310311312313314315316317318319320321322323324325326327328329330331332333334335336337338339340341342343344345346347348349350351352353354355356357358359360361362363364365366367368369370371372373374375376377378379380381382383384385386387388389390391392393394395396397398399400401402403404405406407408409410411412413414415416417418419420421422423424425426427428429430431432433434435436437438439440441442443444445446447448449450451452453454455456457458459460461462463464465466467468469470471472473474475476477478479480481482483484485486487488489490491492493494495496497498499500501502503504505506507508509510511512513514515516517518519520521522523524525526527528529530531532533534535536537538539540541542543544545546547548549550551552553554555556557558559560561562563564565566567568
  1. %-----------------------------------------------------------------------------
  2. \chapter{Einleitung}
  3. %-----------------------------------------------------------------------------
  4. Wir betrachten folgendes grundlegendes Modell: Kunden kommen zu
  5. zufälligen Zeiten $T_{1} < T_{2} < \dots <T_{n} < \dots$ im System an,
  6. wobei $T_{n}$
  7. die \index{Ankunftszeit}Ankunftszeit des $n$-ten Kunden bezeichnet.
  8. Ein oder mehrere Bediener arbeiten die Schlange ab und für jeden Kunden
  9. wird eine bestimmte \index{Bedienzeit}\enquote{Bedienzeit} benötigt. Es sei $x_{n}$ die Bedienzeit
  10. des $n$-ten Kunden.
  11. Die Reihenfolge der Bedienung der Kunden wird durch
  12. die sogenannte \index{Disziplin}\enquote{Disziplin} der Warteschlange bestimmt.Wir nehmen meistens
  13. FCFS (First Come First Serve) an. Andere Möglichkeiten wären LCFS (Last
  14. Come First Serve) oder \enquote{Prioritäten}.
  15. Folgende Annahmen werden getroffen:
  16. \begin{enumerate}
  17. \item Die $x_{n}$ sollen unabhängig und identisch verteilt sein.
  18. \item $t_{n}$ ist die $n$-te \index{Zwischenankunftszeit}Zwischenankunftszeit also $t_{n}= T_{n} -
  19. T_{n-1}$, $T_{0}=0$ (Die Zeit zwischen der Ankunft des $n$-ten und des
  20. $(n-1)$-ten Kunden). Die $t_{n}$ sind auch unabhängig und identisch
  21. verteilt.
  22. \end{enumerate}
  23. Wir verwenden folgende \index{Warteschlangen!Kurznotation}Kurznotation für
  24. Warteschlangen: $A/B/s$.
  25. $A \dots$ Verteilung der Zwischenankuftszeiten $t_{n}$, wobei $a$ die Dichte
  26. von $t_{n}$ ist. \\
  27. $B \dots$ Verteilung der Bedienzeiten $x_{n}$ wobei $b$ die Dichte von
  28. $x_{n}$ ist. \\
  29. $s \dots$ Anzahl der Bediener \index{Server}(Server).
  30. \begin{minipage}{\textwidth}
  31. Kurznotationen für Verteilungen sind:\\
  32. $M$ $\dots$ \index{Verteilung!Exponential-}Exponentialverteilung (\enquote{memoryless}). \\
  33. \end{minipage}
  34. Dichtefunktion:
  35. \begin{displaymath}
  36. f(x) = \lambda e^{-\lambda x} \qquad x\geq 0.
  37. \end{displaymath}
  38. $E_{n}$ $\dots$ \index{Verteilung!Erlang-}Erlangverteilung: Die Summe von $n$ unabhängigen
  39. Exponentialverteilungen.\\
  40. Dichtefunktion:
  41. \begin{displaymath}
  42. f(x)=\frac{\lambda^{n}x^{n-1}}{(n-1)!}e^{-\lambda x} \qquad x\geq 0.
  43. \end{displaymath}
  44. $H$ $\dots$ \index{Verteilung!Hyperexponentelle}Hyperexponentielle Verteilung: Die Mischung von unabhängigen
  45. Exponentialverteilungen. Wir haben $p_{1} \dots p_{n}$, $p_{i} \geq 0$,
  46. und
  47. $\sum_{i=1}^{n} p_{i} = 1$, $\lambda_{1} \dots \lambda_{n} \geq 0$. \\
  48. Dichtefunktion:
  49. \begin{displaymath}
  50. f(x)=\sum_{i=1}^{n} p_{i} \lambda_{i} e^{-\lambda_{i}x}.
  51. \end{displaymath}
  52. $D$ $\dots$ \index{Verteilung!Deterministische}Deterministisch: Ein fixer Wert wird angenommen. \\
  53. $G$ $\dots$ \index{Verteilung!Allgemeine}\enquote{General}: Allgemeine Verteilung (alles, was nicht vorher erwähnt
  54. wurde).
  55. Die Sonderstellung der Exponentialverteilung ist begründet durch ihre
  56. Gedächtnislosigkeit. Falls nämlich etwa eine Wartezeit
  57. exponentialverteilt ist, und wir schon t Zeiteinheiten gewartet haben, so
  58. ist die Verteilung der restlichen Wartezeit gegeben durch
  59. \begin{eqnarray*}
  60. \PP(\mbox{restliche Wartezeit} \geq x \mid \mbox{schon $t$
  61. gewartet}) = \\
  62. = \PP(T \geq t+x \mid T \geq t) = \frac{\PP(T \geq t+x)}{\PP(T\geq t)} ~.
  63. \end{eqnarray*}
  64. Angenommen $T$ sei exponentialverteilt $\Rightarrow$ $\PP(T \geq t) =
  65. e^{-\lambda t}$ $\Rightarrow$
  66. \begin{displaymath}
  67. \frac{\PP(T \geq t+x)}{\PP(T \geq t)} = \frac{e^{-\lambda
  68. (t+x)}}{e^{-\lambda
  69. t}}= e^{-\lambda x},
  70. \end{displaymath}
  71. also unabhängig davon, wie lange wir schon vorher gewartet haben.
  72. Es gibt abgeleitete Größen, die das Verhalten der Warteschlange
  73. beschreiben wie:
  74. \begin{enumerate}
  75. \item $w_{n}$ $\dots$ \index{Wartezeit}Wartezeit des $n$-ten Kunden.
  76. \item $z_{n} = w_{n} + x_{n} \dots$ Zeit, die der $n$-te Kunde im System
  77. verbringt.
  78. \item $N_{t}$ $\dots$ Anzahl der Kunden, die zum Zeitpunkt $t$ im System
  79. sind ($=$ wartende + eventuell die, die gerade bedient werden).
  80. \end{enumerate}
  81. Es gibt einige Fragen, die uns interessieren:
  82. \begin{enumerate}
  83. \item Die Verteilungen von $w_{n}$, $z_{n}$, $N_{t}$.
  84. \item Gibt es Grenzverteilungen für $n \rightarrow \infty$ bzw. $t
  85. \rightarrow \infty$ (d.h. pendelt sich das Verhalten der Schlange auf
  86. einen stationären Zustand ein?) und Bestimmung der Grenzverteilungen.
  87. \item Erwartungswerte der Grenzverteilungen in 2.
  88. \item Abschätzungen für 3.
  89. \end{enumerate}
  90. Die Aufgaben sind hier in abnehmender Schwierigkeit geordnet. Leider sind
  91. die genauen Verteilungen 1. nicht leicht zu bestimmen, also beschränken
  92. wir uns meist auf 2. ; im ganz allgemeinen Fall wird es sogar notwendig
  93. sein, nur Abschätzungen zu betrachten.
  94. %-----------------------------------------------------------------------------
  95. \chapter{Erste Resultate}
  96. \section{Eine Rekursion für die Wartezeit}
  97. %----------------------------------------------------------------------------
  98. Wir wollen nun die Wartezeit des $(n+1)$-ten Kunden durch die des $n$-ten
  99. Kunden ausdrucken. Dazu ist
  100. \begin{enumerate}
  101. \item $T_{n} \ldots $ die Ankunftszeit des $n$-ten Kunden.
  102. \item $T_{n} + w_{n} \ldots$ die Zeit, wenn der $n$-te Kunde bedient wird.
  103. \item $T_{n} + w_{n} + x_{n} \ldots$ die Zeit wenn der $n$-te Kunde geht.
  104. Ab jetzt kann der $(n+1)$-te bedient werden.
  105. \item $T_{n+1} = T_{n} + t_{n+1} \ldots$ Ankuftszeit des $(n+1)$-ten
  106. Kunden.
  107. \end{enumerate}
  108. Falls $T_{n+1} < T_{n} + w_{n} + x_{n}$,
  109. dann ist $w_{n+1} = T_{n+1} + w_{n} + x_{n} - T_{n+1} = w_{n} + x_{n} -
  110. t_{n+1}$. Falls $T_{n+1} \geq T_{n} + w_{n} + x_{n}$ ist $w_{n+1} = 0$.
  111. Also
  112. \begin{displaymath}
  113. w_{n+1}= \max (w_{n}+x_{n}-t_{n+1}, 0) =: (w_{n} + x_{n} - t_{n+1})_{+} ~.
  114. \end{displaymath}
  115. Sei $u_{n} = x_{n} - t_{n+1}.$ Die $u_{i}$ sind unabhängig und
  116. identisch verteilt.
  117. \begin{eqnarray*}
  118. \Rightarrow w_{n} &=& \max (w_{n-1}+ u_{n-1}, 0) = 0 \\
  119. \Rightarrow w_{n} &=& \max (0, u_{n-1} + \max (w_{n-2} + u_{n-2}, 0)) = \\
  120. &=& \max (0, u_{n-1}, u_{n-1} + u_{n-2} + w_{n-2}) = \dots\\
  121. &=& \max (0, u_{n-1}, u_{n-1} + u_{n-2}, \cdots , u_{n-1} + u_{n-2} +
  122. \cdots + u_{1}) ~.
  123. \end{eqnarray*}
  124. Also ist die Verteilung von $w_{n}$ dieselbe wie die von $\tilde w_{n}$ mit
  125. \begin{displaymath}
  126. \tilde w_{n} = \max (0, u_{1}, u_{1} + u_{2}, \cdots, u_{n-1}+ u_{n-2} +
  127. \cdots + u_{1}) ~.
  128. \end{displaymath}
  129. Offensichtlich ist $\tilde w_{n}$ eine monoton nichtfallende Folge, also
  130. existiert
  131. \[ \tilde w = \lim_{n \rightarrow \infty} w_{n}. \]
  132. Falls $\E u > 0$, dann geht $u_{1}+ \cdots + u_{n-1}$ $\rightarrow
  133. \infty$, also auch $\tilde w$. Falls $\E u < 0$, dann geht $u_{1}+ \cdots
  134. + u_{n-1}$ $\rightarrow -\infty$, also ist für $n>n_{0}$ $u_{1}+ \cdots +
  135. u_{n-1} <0 $, was bedeutet daß nur die ersten Glieder in der Definition
  136. von $\tilde w_{n}$ wichtig sind; also ist $\tilde w$ endlich. Falls $\E
  137. u = 0$, ist können wir den einfachen Fall $D/D/1$ betrachten. In diesem
  138. Fall ist $w_{n}=0$, also ist das Verhalten stationär. Leider ist das der
  139. einzige Fall; sobald $A$ oder $B$ nicht degenerierte Verteilungen haben,
  140. kann $\tilde w_{n}$ nicht gegen eine endliche Zufallsvariable
  141. konvergieren, weil etwa nach dem zentralen Grenzwertsatz für $n$ groß
  142. genug
  143. \begin{displaymath}
  144. \PP(\tilde w_{n} > a \sqrt{n.{\bf Var}(u)}) \geq 1- \Phi(a)- \epsilon > 0 ~.
  145. \end{displaymath}
  146. Somit ist für jedes $n$
  147. \begin{displaymath}
  148. \PP(\tilde w > a \sqrt{n.{\bf Var}(u)}) \geq 1- \Phi(a)- \epsilon ~,
  149. \end{displaymath}
  150. also
  151. \begin{displaymath}
  152. \PP(\tilde w = \infty) \geq 1- \Phi(a)- \epsilon ~.
  153. \end{displaymath}
  154. Es bleibt uns also für stationäres Verhalten (außer im Trivialfall \\
  155. $D/D/1$) die Bedingung
  156. \begin{displaymath}
  157. \E (u) < 0 \Leftrightarrow \E (x) < \E (t) \Leftrightarrow \rho=
  158. \frac{\E (x)}{\E (t)} < 1 ~.
  159. \end{displaymath}
  160. Wir bezeichnen den Kehrwert von $\E (t)$ als die \index{Ankunftsrate}\enquote{Ankunftsrate} $\lambda =
  161. \frac{1}{\E (t)}$ und $\mu = \frac{1}{\E (x)}$ als die \index{Bedienrate}\enquote{Bedienrate}. Es
  162. sind dies die Anzahl von Kunden, die in einem langen Zeitraum
  163. durchschnittlich pro Zeiteinheit ankommen bzw. bedient werden, falls
  164. ununterbrochen
  165. bedient wird. Mit diesen Bezeichnungen ist $\rho = \frac{\lambda}{\mu}$ \index{Auslastung}(Auslastung)
  166. und die Bedingung für stationäres Verhalten wird zu $ \lambda < \mu$ bzw.\
  167. $\rho<1$.
  168. %--------------------------------------------------------------------------
  169. \section{Der Satz von Little}
  170. %---------------------------------------------------------------------------
  171. Wir nehmen jetzt an, daß in unserer Schlange stationäres Verhalten
  172. herrscht; wir wollen eine Beziehung zwischen der Ankuftsrate, der mittleren
  173. Anzahl der Kunden im System und der mittleren Aufenthaltsdauer finden.
  174. Dazu nehmen wir an, daß wir jeden Kunden für die Zeit, die er im System
  175. verbringt, bezahlen müssen. Die Summe, die insgesamt zu bezahlen ist,
  176. berechnet sich als $T \E (N)$, da zu jedem Zeitpunkt durchschnittlich $\E
  177. (N)$
  178. Kunden anwesend sind. Andererseits bekommt jeder Kunde durchschnittlich
  179. $\E (z)$ bezahlt. In der Zeit $T$ kommen $\lambda T$ Kunden an, also ist
  180. die
  181. zu bezahlende Summe auch gleich $\lambda T \E (z)$.
  182. Beide Gleichungen sind nicht vollständig exakt, weil in beiden Fällen
  183. noch zufällige Schwankungen dazukommen, und weil bei der zweiten
  184. Gleichung auch nicht berücksichtigt wurde, daß einige Kunden noch nach
  185. $T$ bleiben. Diese Fehler sind aber von kleineren Ordnung als $T$. Wir
  186. haben also
  187. \begin{displaymath}
  188. T \E (N) = \lambda T \E (z) + o(T) ~.
  189. \end{displaymath}
  190. Dividieren wir durch $T$ und $T \rightarrow \infty$ gibt
  191. \begin{displaymath}
  192. \E (N) = \lambda \E (z) ~,
  193. \end{displaymath}
  194. d.h. Mittlere Anzahl = Ankuftsrate $*$ Mittlere Aufenthaltsdauer. Wendet
  195. man dieses Ergebnis auf den Server allein an, ergibt sich, daß die
  196. Mittlere Anzahl der Kunden, die gerade bedient werden =
  197. \begin{displaymath}
  198. \lambda \E (x) = \frac{\lambda}{\mu} = \rho ~.
  199. \end{displaymath}
  200. Da aber höchstens 1 Kunde bedient wird, ist das gleich der
  201. Wahrscheinlichkeit, daß der Server besetzt ist, oder der Auslastung des
  202. Servers.
  203. %---------------------------------------------------------------------------
  204. \chapter{Warteschlangensysteme}
  205. \section{Die Schlange $M/M/1$}
  206. %---------------------------------------------------------------------------
  207. Im Folgenden gehen wir von der \enquote{FCFS}-Disziplin aus.
  208. Um die zukünftige Entwicklung einer Warteschlange bestimmen zu können,
  209. benötigen wir 3 Angaben zur Zeit $t$.
  210. \begin{enumerate}
  211. \item Die Anzahl $N_{t}$ der anwesenden Kunden.
  212. \item Die Zeit, die seit der letzten Ankunft vergangen ist.
  213. \item Die Zeit, die seit dem Beginn des letzten Bedienvorgangs vergangen
  214. ist (falls dieser noch andauert).
  215. \end{enumerate}
  216. Die letzten beiden Angaben sind notwendig, damit wir die Verteilung der
  217. verbleibenden Zeit bis zur nächsten Ankunft bzw. bis zum Ende des
  218. Bedienvorganges bestimmen können. Für den Fall $M/M/1$ sind diese
  219. Angaben nicht notwendig, weil diese Verteilungen wegen der
  220. Gedächtnislosigkeit der Exponentialverteilung nicht von der schon
  221. verstrichenen Zeit abhängen. Deshalb genügt uns $N_{t}$ zur Beschreibung
  222. des Systems.
  223. Wir betrachten jetzt die Anzahl der Kunden zur Zeit $t+ \Delta t$, wenn
  224. die Anzahl zur Zeit t bekannt ist. Die Anzahl kann sich in folgender Weise
  225. ändern:
  226. \begin{enumerate}
  227. \item Es kann gar nichts geschehen.
  228. \item Es kann genau ein Kunde aufkommen.
  229. \item Es kann genau ein Kunde fertig werden.
  230. \item Es kann mehr als ein Ereignis (Ankunft, gehen) auftreten.
  231. \end{enumerate}
  232. Die Wahrscheinlichkeit, daß mindestens ein Kunde im Intervall $(t, t+ \Delta t)$
  233. ankommt, ist $1-e^{-\lambda \Delta t} = \lambda \Delta t + o (\Delta t)$.
  234. Ebenso ist die Wahrscheinlichkeit, daß ein Kunde fertig wird $\mu \Delta
  235. t + o(\Delta t)$. Die Wahrscheinlichkeit für 4. ist, wie man leicht
  236. einsieht, $o(\Delta t)$. Das gibt für 1. die Wahrscheinlichkeit $1 -
  237. (\lambda + \mu) \Delta t + o(\Delta t)$. Falls die Schlange leer ist,
  238. fallen natürlich die Summanden mit $\mu$ weg (es kann ja niemand gehen).
  239. Somit gilt für
  240. \begin{eqnarray*}
  241. p_{n}(t) &=& \PP (N_{t} = n) \\
  242. p_{n}(t+ \Delta t) &=& \mu \Delta t . p_{n+1}(t) + (1 - (\lambda +
  243. \mu) \Delta t) p_{n}(t) + \\
  244. & &+ \lambda \Delta t p_{n-1}(t) + o(\Delta t)
  245. \qquad [n \geq 1] \\
  246. p_{0}(t + \Delta t) &=& \mu \Delta t . p_{1}(t) + (1 - \lambda \Delta t)
  247. p_{0}(t) + o(\Delta t) ~.
  248. \end{eqnarray*}
  249. Wenn man $p_{n}(t)$ auf die linke Seite bringt und durch $\Delta t$
  250. dividiert und $\Delta t \rightarrow 0$ läßt, ergibt sich
  251. \begin{eqnarray*}
  252. p'_{n}(t) &=& \mu p_{n+1}(t)-(\lambda + \mu) p_{n}(t)+ \lambda p_{n-1}(t)
  253. \\
  254. p'_{0}(t) &=& \mu p_{1}(t)- \lambda p_{0}(t) ~.
  255. \end{eqnarray*}
  256. Diese Gleichungen lassen sich etwa mit Hilfe von Transformationen lösen,
  257. aber das Ergebnis ist nicht besonders schön. Wir beschränken uns daher
  258. jetzt und in der Folge auf die Bestimmung der stationären Lösung. Diese
  259. ist natürlich dadurch gekennzeichnet, daß $p_{n}(t)$ nicht von der Zeit
  260. $t$ abhängt, also $p'_{n}(t)=0$. Das ergibt die Gleichungen
  261. \begin{eqnarray*}
  262. \mu p_{n+1}-(\lambda +\mu) p_{n} + \lambda p_{n-1} &=& 0 \\
  263. \mu p_{1} - \lambda p_{0} &=& 0 ~.
  264. \end{eqnarray*}
  265. Durch Induktion erhalten wir daraus
  266. \begin{displaymath}
  267. \mu p_{n+1} - \lambda p_{n} = 0 ~,
  268. \end{displaymath}
  269. oder
  270. \begin{displaymath}
  271. p_{n+1} = \frac{\lambda}{\mu} p_{n} = \rho p_{n} ~.
  272. \end{displaymath}
  273. Also ist
  274. \begin{displaymath}
  275. p_{n} = \rho^{n}p_{0}
  276. \end{displaymath}
  277. und wegen $\sum_{n=0}^{\infty} p_{n} = 1$
  278. \begin{displaymath}
  279. p_{0} = 1- \rho
  280. \end{displaymath}
  281. und
  282. \begin{displaymath}
  283. p_{n} = \rho^{n} (1- \rho) ~.
  284. \end{displaymath}
  285. Die Anzahl der Kunden im System ist also geometrisch verteilt. Aus dieser
  286. Verteilung können wir jetzt die Verteilungen von $w$ und $z$ bestimmen.
  287. Die Zeit im System $z$, falls bei der Ankunft $n$ Personen anwesend sind,
  288. ist die Summe von $(n+1)$ exponentialverteilten Zufallsvariablen (die
  289. Bedienzeiten der $n$ anwesenden + die der neu hinzugekommenen), hat also
  290. die Dichte
  291. \begin{displaymath}
  292. f_{z}(u|N_{t}=n) = \frac{u^{n}}{n!} \mu^{n+1} e^{- \mu u} \qquad [u>0] ~.
  293. \end{displaymath}
  294. Die unbedingte Dichte ergibt sich also zu
  295. \begin{eqnarray*}
  296. f_{z}(u) &=& \sum_{n}^{} \PP(N_{t}=n).f_{z}(u|N_{t}=n) = \\
  297. &=& \sum_{n}^{} (1- \rho) \rho^{n}. \frac{u^{n}}{n!} \mu^{n+1} e^{- \mu
  298. u} = \\
  299. &=& (1- \rho) e^{- \mu(1- \rho)u} \qquad [u>0] ~.
  300. \end{eqnarray*}
  301. $z$ ist also exponentialverteilt mit Parameter
  302. \begin{displaymath}
  303. \mu (1- \rho) = \mu - \lambda ~.
  304. \end{displaymath}
  305. Die Verteilung von $w$ ist gemischt: $\PP (w=0) = 1- \rho$, und die
  306. bedingte Verteilung von $w$ unter der Bedingung $[w>0]$ ist wieder eine
  307. Exponentialverteilung mit Parameter $\mu - \lambda$.
  308. %----------------------------------------------------------------------------
  309. \section{Das System $M/G/1$}
  310. %------------------------------------------------------------------------------
  311. Jetzt benötigen wir zusätzlich zu $N_{t}$ die Information über die
  312. schon verbrauchte Bedienzeit. Die einfachste Methode besteht darin, das
  313. System nur in solchen Zeitpunkten zu betrachten, an denen die verbrauchte
  314. Bedienzeit bekannt ist (und zwar = 0), nämlich die Zeitpunkte $T_{n}$, in
  315. denen der n-te Kunde das System verläßt. Es sei $N_{n}$ die Anzahl der
  316. Kunden, die dann im System verbleiben. Es gilt: Falls $N_{n}=0$, so muß
  317. zuerst gewartet werden, bis ein neuer Kunde ankommt; wenn dieser Kunde
  318. geht, sind noch genau die Kunden da, die während seiner Bedienzeit
  319. angekommen sind; bezeichnet man $M_{n}$ als die Anzahl der Kunden, die
  320. während der Bedienzeit des $n$-ten Kunden ankommen, so gilt
  321. \begin{displaymath}
  322. N_{n+1} = M_{n} ~.
  323. \end{displaymath}
  324. Falls $N_{n} \not= 0$ ist
  325. \begin{displaymath}
  326. N_{n+1} = N_{n} - 1 + M_{n} ~.
  327. \end{displaymath}
  328. Zusammengefaßt ergibt sich:
  329. \begin{displaymath}
  330. N_{n+1} = (N_{n} - 1)_{+} + M_{n} ~.
  331. \end{displaymath}
  332. Wir suchen eine stationäre Lösung; es sei also $\PP (N_{n}=k)=p_{k}$
  333. unabhängig von $n$. Die erzeugende Funktion von $N_{n}$ ist
  334. \begin{displaymath}
  335. P^{*}(z) = \sum_{}^{}p_{k}z^{k} ~.
  336. \end{displaymath}
  337. Die erzeugende Funktion von $(N_{n}-1)_{+}=$
  338. \begin{eqnarray*}
  339. = p_{0} + \sum_{k=1}^{\infty} p_{k} z^{k-1} &=& p_{0}+ \frac{\hat P
  340. (z) - p_{0}}{z} = \\
  341. &=& \frac{\hat P(z) - p_{0}(1-z)}{z} ~.
  342. \end{eqnarray*}
  343. Mithilfe der Transformationen (Anhang A) ergibt sich die erzeugende Funktion von $M_{n}$
  344. (die Ankünfte bilden ja einen Poisson - Prozeß) als
  345. \begin{displaymath}
  346. \tilde B (\lambda(1 - z)) ~,
  347. \end{displaymath}
  348. wobei $B$ die Verteilung der Bedienzeit (mit Dichte $\beta$) ist. Wir
  349. erhalten also
  350. \begin{displaymath}
  351. P^{*}(z) = \frac{(P^{*}(z) - p_{0}(1-z))}{z} \tilde B (\lambda(1-z)) ~,
  352. \end{displaymath}
  353. also
  354. \begin{displaymath}
  355. P^{*}(z) = \frac{p_{0}(1-z) \tilde B ( \lambda (1-z))}{ \tilde B (
  356. \lambda(1-z)) - z} ~.
  357. \end{displaymath}
  358. Hier ist noch $p_{0}$ zu bestimmen, und zwar aus der Bedingung $P^{*}(1) =
  359. 1$. Es ergibt sich $p_{0} = 1 - \rho$ und
  360. \begin{displaymath}
  361. P^{*}(z) = \frac{(1- \rho)(1-z) \tilde B ( \lambda (1-z))}{ \tilde B (
  362. \lambda(1-z)) - z} ~,
  363. \end{displaymath}
  364. eine sogenannte \index{Pollaczek - Khinchin Formel}Pollaczek - Khinchin Formel. Die Anzahl der Kunden, die der $n$-te
  365. Kunde zurückläßt, ist genau die Anzahl der Kunden, die ankommen
  366. während er im System ist (d.h. während $z_{n}$), d.h. für die
  367. $L$-Transformierte $ \tilde Z (t)$ der Verteilung von $z$ gilt:
  368. \begin{displaymath}
  369. \tilde Z (\lambda(1-z)) = P^{*}(z) ~,
  370. \end{displaymath}
  371. also
  372. \begin{displaymath}
  373. \tilde Z (t) = \frac{(1- \rho)t \tilde B (t)}{t + \lambda \tilde B (t) -
  374. \lambda} ~.
  375. \end{displaymath}
  376. Auch das nennt man eine Pollaczek - Khinchin Formel. Für die Wartezeit
  377. gilt
  378. (wegen $z_{n} = w_{n} + x_{n}$)
  379. \begin{displaymath}
  380. \tilde Z (t) = \tilde W (t) \tilde B(t) ~,
  381. \end{displaymath}
  382. also
  383. \begin{displaymath}
  384. \tilde W (t) = \frac{(1- \rho)t}{t + \lambda \tilde B (t) - \lambda} ~.
  385. \end{displaymath}
  386. Für die Erwartungswerte ergibt sich:
  387. \begin{eqnarray*}
  388. \E (N) &=& \rho + \frac{\lambda^{2} \E x^{2}}{2(1- \rho)} \\
  389. \E (Z) &=& \frac{1}{\mu} + \frac{\lambda \E x^{2}}{2(1 - \rho)} \\
  390. \E (W) &=& \frac{\lambda \E x^{2}}{2(1 - \rho)} ~.
  391. \end{eqnarray*}
  392. %------------------------------------------------------------------------------
  393. \section{Das System $G/M/1$}
  394. %------------------------------------------------------------------------------
  395. Jetzt betrachten wir analog zum vorigen Kapitel das System zu den Zeiten
  396. $T_{n}$, wo der $n$-te Kunde ankommt. $N_{n}$ sei die Anzahl der
  397. anwesenden Kunden, die der $n$-te Kunde vorfindet.
  398. \begin{displaymath}
  399. N_{n+1} = N_{n}+1-\mbox{Anzahl der Kunden, die während $t_{n+1}$ gehen.}
  400. \end{displaymath}
  401. Für $n>0$ gilt, wenn wir $p_{k}= \PP (N_{n}=k)$ (stationär!) setzen:
  402. \begin{displaymath}
  403. p_{k} = \sum_{j=k-1}^{\infty} p_{j} q_{j+1-k} \qquad [k \geq 1] ~,
  404. \end{displaymath}
  405. wobei
  406. \begin{displaymath}
  407. q_{s} = \PP (\mbox{ $s$ Kunden gehen während
  408. $t_{n+1}$)} =
  409. \end{displaymath}
  410. \begin{eqnarray*}
  411. = \PP (\mbox{während $t_{n+1}$ treten genau $s$ Ereignisse eines Poissons
  412. -} \\
  413. \mbox{Prozesses mit Rate $\mu$ auf)} ~. & &
  414. \end{eqnarray*}
  415. Die Gleichung für $k=0$ ist überflüssig, da sie aus den Gleichungen
  416. für $k>0$ und der Beziehung $\sum_{}^{} p_{k}=1$ gefolgert werden kann.
  417. Man kann zeigen, daß diese Gleichung eine eindeutige Lösung besitzt.
  418. Falls nun $(p_{k})$ eine Lösung ist, ist auch
  419. \begin{displaymath}
  420. \tilde p_{k} = \frac{p_{k+1}}{1-p_{0}}
  421. \end{displaymath}
  422. eine Lösung. Es muß also
  423. \begin{displaymath}
  424. \tilde p_{k} = p_{k} ~,
  425. \end{displaymath}
  426. somit
  427. \begin{displaymath}
  428. p_{k+1} = p_{k}(1-p_{0})
  429. \end{displaymath}
  430. und
  431. \begin{displaymath}
  432. p_{k} = p_{0}(1-p_{0})^{k} =
  433. \sigma^{k}(1- \sigma) \qquad [ \sigma := 1 - p_{0}] ~.
  434. \end{displaymath}
  435. Setzt man das in die Gleichung für $k=1$ ein, ergibt sich
  436. \begin{displaymath}
  437. \sigma = \sum_{j=0}^{\infty} \sigma^{j} q_{j} = \tilde A (\mu(1-\sigma))
  438. ~.
  439. \end{displaymath}
  440. Falls $\rho < 1$, gibt es genau eine Lösung $\sigma \in (0,1)$. Dann ist
  441. $N$ geometrisch verteilt mit Parameter $\sigma$. Wie für die Schlange
  442. $M/M/1$ ergibt sich die Verteilung der Zeit $z$ im System als
  443. Exponentialverteilt mit Parameter $\mu(1- \sigma)$; die Wartezeit $w$ hat
  444. $\PP (w=0)= 1 - \sigma$ und die bedingte Verteilung von $w$ unter $[w>0]$
  445. ist wieder dieselbe Exponentialverteilung wie die von $z$.
  446. %---------------------------------------------------------------------------
  447. \section{Das System $G/G/1$}
  448. %---------------------------------------------------------------------------
  449. Hier sind beide Verteilungen - die der Zwischenankunftszeiten und die der
  450. Bedienzeiten - allgemeine Verteilungen. Der Trick der vorigen beiden
  451. Kapitel funktioniert jetzt nicht mehr gut. Um beide Zeiten zu
  452. kontrollieren, müßten wir das System nun zu den Zeitpunkten betrachten,
  453. in denen ein Kunde das leere System betritt; diese Zeitpunkte sind aber zu
  454. selten, um vernüftig damit zu arbeiten. Statt dessen gehen wir von der
  455. Rekursion für die Wartezeiten aus:
  456. \begin{displaymath}
  457. w_{n+1} = (w_{n} + u_{n})_{+} ~.
  458. \end{displaymath}
  459. Das bedeutet für die Verteilungsfunktion $W(.)$ von $w$
  460. \begin{displaymath}
  461. W(x) = \PP (w_{n+1} \leq x) = \left\{
  462. \begin{array}{lc}
  463. \PP (w_{n} + u_{n} \leq x) & x \geq 0 \\
  464. 0 & x < 0
  465. \end{array} \right. ~.
  466. \end{displaymath}
  467. Die Wahrscheinlichkeit $\PP (w_{n}+ u_{n} \leq x)$ berechnet sich als
  468. \begin{displaymath}
  469. \PP (w_{n} + u_{n} \leq x) = \int_{- \infty}^{\infty} W(x-u) c(u) du ~,
  470. \end{displaymath}
  471. wobei $c(u)$ die Dichte von $u_{n} = x_{n} - t_{n+1}$ ist. Falls in der
  472. Gleichung für $W(x)$ die Fallunterscheidung nicht auftreten würde, wäre
  473. sie leicht durch Transformationen zu lösen. Wir erreichen dies durch
  474. einen Kunstgriff: Wir setzen
  475. \begin{displaymath}
  476. Y(x) = \left\{
  477. \begin{array}{lc}
  478. \int_{- \infty}^{\infty} W(x-u)c(u) du & x< 0 \\
  479. 0 & x \geq 0
  480. \end{array} \right. ~.
  481. \end{displaymath}
  482. Dann ist
  483. \begin{displaymath}
  484. W(x) + Y(x) = \int_{-\infty}^{\infty} W(x-u) c(u) du ~.
  485. \end{displaymath}
  486. Wir bezeichnen jetzt die Laplace - Transformierte von $W$ mit $\Phi (t)$,
  487. und die von $Y$ mit $\Phi^{-}(t)$. Durch partielle Integration zeigt man,
  488. daß
  489. \begin{displaymath}
  490. \Phi (t) = \frac{1}{t} \tilde W(t)
  491. \end{displaymath}
  492. gilt. Für die Transformationen ergeben sich die Formeln
  493. \begin{displaymath}
  494. \Phi (t) + \Phi^{-}(t) = \Phi (t) \tilde C (t) = \Phi (t) \tilde A (-t)
  495. \tilde B (t) ~,
  496. \end{displaymath}
  497. oder
  498. \begin{displaymath}
  499. \frac{\Phi^{-}(t)}{\Phi (t)} = \tilde A (-t) \tilde B (t) -1 ~.
  500. \end{displaymath}
  501. Wir nehmen an, daß $\tilde A(t)$ für $t \geq -D$ existiert. (Das ist
  502. gleichbedeutend damit, daß $\PP (t_{n} \geq x)$ wie $e^{-Dx}$ fällt).
  503. Dann existiert $\tilde A (-t) \tilde B (t) - 1$ für $0 \leq t \leq D$;
  504. Ferner existiert $\Phi (t)$ für $t >0$ und $t \Phi (t)$ ist in $\Re (t)
  505. \geq 0$ regulär und beschränkt; $\Phi^{-}(t)$ existiert für $t \leq D$
  506. und in $\Re (t) < D$ ist $t\Phi^{-}(t)$ regulär und beschränkt. Wir
  507. versuchen 2 Funktionen $\Psi^{+}$ und $\Psi^{-}$ zu finden, die folgendes
  508. erfüllen:
  509. \begin{enumerate}
  510. \item $\frac{\Psi^{+}(t)}{\Psi^{-}(t)} = \tilde A(-t) \tilde B(t) -1$ ~ ~\index{Spektralzerlegung}(Spektralzerlegung).
  511. \item $\frac{\Psi^{+}(t)}{t}$ ist für $\Re(t)>0$ regulär und beschränkt
  512. und hat dort keine Nullstellen.
  513. \item $\frac{\Psi^{-}(t)}{t}$ ist für $\Re (t) < D$ regulär und
  514. beschränkt und hat dort keine Nullstellen.
  515. \end{enumerate}
  516. Dann gilt
  517. \begin{displaymath}
  518. \frac{\Phi^{-}(t)}{\Phi (t)} = \frac{\Psi^{+}(t)}{\Psi^{-}(t)} \qquad
  519. 0< \Re (t) < D ~,
  520. \end{displaymath}
  521. oder
  522. \begin{displaymath}
  523. \Phi^{-}(t) \Psi^{-}(t) = \Psi^{+}(t) \Phi (t) \qquad 0< \Re (t) < D ~.
  524. \end{displaymath}
  525. Die linke Seite ist für $\Re (t) < D$ regulär und beschränkt, die
  526. rechte Seite für $\Re (t) > 0$. Es ist dadurch also eine Funktion
  527. bestimmt, die in der ganzen Ebene regulär und beschränkt ist. Nach dem
  528. Satz von \index{Satz!LIOUVILLE}LIOUVILLE muß eine solche Funktion konstant sein. Es gilt also
  529. \begin{displaymath}
  530. \Phi (t) = \frac{K}{\Psi^{+}(t)} ~,
  531. \end{displaymath}
  532. und
  533. \begin{displaymath}
  534. \tilde W (t) = \frac{Kt}{\Psi^{+}(t)} ~.
  535. \end{displaymath}
  536. Es bleibt die Konstante $K$ zu bestimmen. Sie folgt wieder aus
  537. \begin{displaymath}
  538. \tilde W (0) = 1 \qquad \mbox{zu} \qquad
  539. K = \frac{\Phi^{+}(t)}{t} \Bigg \bracevert_{t=0} = (\Phi^{+})^{'}(0) ~.
  540. \end{displaymath}
  541. {\bf Beispiel: $M/M/1$}
  542. \begin{displaymath}
  543. A = M_{\lambda}: \quad \tilde A(t) = \frac{\lambda}{\lambda + t}, \quad
  544. B = M_{\mu}: \quad \tilde B(t) =\frac{\mu}{\mu +t}
  545. \end{displaymath}
  546. \begin{eqnarray*}
  547. \frac{\Psi^{+}(t)}{\Psi^{-}(t)} &=& \tilde A(-t) \tilde B(t)-1 =
  548. \frac{\lambda \mu}{(\lambda - t)(\mu + t)} - 1 = \\
  549. &=& \frac{t(\mu - \lambda + t)}{(\lambda - t)(\mu + t)}. \\
  550. \Psi^{+}(t) &=& \frac{t(\mu -\lambda + t)}{(t + \mu} \\
  551. \Psi^{-}(t) &=& (\lambda - t) \\
  552. \Phi (z) &=& \frac{\Psi^{+'}(0)}{\Psi^{+}(z)} =
  553. \frac{(\mu - \lambda)(\mu +t)}{\mu t(\mu - \lambda + t)} =
  554. \frac{1}{t} - \frac{\lambda}{\mu(\mu - \lambda + t)} \\
  555. \Psi^{+'}(0) &=& \frac{\Psi^{+}(t)}{t} \Bigg \bracevert_{t=0} =\frac{\mu -
  556. \lambda}{\mu} \\
  557. F(x) &=& 1 - \rho e^{-(\mu - \lambda)x} \quad \mbox{für} \quad x \geq 0
  558. \end{eqnarray*}
  559. also die Verteilung der Wartezeit aus dem ersten Kapitel.