MPI.tex 8.3 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179
  1. %!TEX root = Programmierparadigmen.tex
  2. \chapter{MPI}
  3. \index{MPI|(}
  4. Message Passing Interface (kurz: MPI) ist ein Standard,
  5. der den Nachrichtenaustausch bei parallelen Berechnungen auf
  6. verteilten Computersystemen beschreibt.
  7. Prozesse kommunizieren in MPI über sog. \textit{Kommunikatoren}. Ein Kommunikator
  8. (\texttt{MPI\_Comm}\xindex{MPI\_Comm})
  9. definiert eine Menge an Prozessen, die miteinander kommunizieren können. In dieser
  10. Prozessgruppe hat jeder Prozess einen eindeutigen \textit{rank}\xindex{rank} über den die Prozesse
  11. sich identifizieren können.
  12. \section{Erste Schritte}
  13. \inputminted[numbersep=5pt, tabsize=4, frame=lines, label=hello-world.c]{c}{scripts/mpi/hello-world.c}
  14. Das wird \texttt{mpicc hello-world.c} kompiliert.\\
  15. Mit \texttt{mpirun -np 14 scripts/mpi/a.out} werden 14 Kopien des Programms
  16. gestartet.
  17. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
  18. \section{MPI Datatypes}\xindex{MPI datatypes}
  19. \begin{table}[h]
  20. \begin{tabular}{|l|l||p{3.2cm}|l|}
  21. \hline
  22. MPI datatype & C datatype & MPI datatype & C datatype \\ \hline
  23. MPI\_INT & signed int & MPI\_FLOAT & float \\
  24. MPI\_UNSIGNED & unsigned int & MPI\_DOUBLE & double \\
  25. MPI\_CHAR & signed char & MPI\_UNSIGNED\newline{}\_CHAR & unsigned char \\ \hline
  26. \end{tabular}
  27. \end{table}
  28. \section{Funktionen}
  29. \inputminted[numbersep=5pt, tabsize=4]{c}{scripts/mpi/comm-size.c}\xindex{MPI\_Comm\_size}%
  30. Liefert die Größe des angegebenen Kommunikators; dh. die Anzahl der Prozesse in der Gruppe.
  31. \textbf{Parameter}
  32. \begin{itemize}
  33. \item \textbf{comm}: Kommunikator (handle)
  34. \item \textbf{size}: Anzahl der Prozesse in der Gruppe von \texttt{comm}
  35. \end{itemize}
  36. \textbf{Beispiel}
  37. \inputminted[numbersep=5pt, tabsize=4]{c}{scripts/mpi/comm-size-example.c}
  38. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
  39. \goodbreak
  40. \rule{\textwidth}{0.4pt}\xindex{MPI\_Comm\_rank}%
  41. \inputminted[numbersep=5pt, tabsize=4]{c}{scripts/mpi/comm-rank.c}
  42. Bestimmt den Rang des rufenden Prozesses innerhalb des Kommunikators.
  43. Der Rang wird von MPI zum Identifizieren eines Prozesses verwendet. Die Rangnummer ist innerhalb eines Kommunikators eindeutig. Dabei wird stets von Null beginnend durchnumeriert. Sender und Empfänger bei Sendeoperationen oder die Wurzel bei kollektiven Operationen werden immer mittels Rang angegeben.
  44. \textbf{Parameter}
  45. \begin{itemize}
  46. \item \textbf{comm}: Kommunikator (handle)
  47. \item \textbf{rank}: Rang des rufenden Prozesses innerhalb von \texttt{comm}
  48. \end{itemize}
  49. \textbf{Beispiel}
  50. \inputminted[numbersep=5pt, tabsize=4]{c}{scripts/mpi/comm-rank-example.c}
  51. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
  52. \goodbreak
  53. \rule{\textwidth}{0.4pt}\xindex{MPI\_Send}%
  54. \inputminted[numbersep=5pt, tabsize=4]{c}{scripts/mpi/mpi-send.c}
  55. Senden einer Nachricht an einen anderen Prozeß innerhalb eines Kommunikators. (Standard-Send)
  56. \textbf{Parameter}
  57. \begin{itemize}
  58. \item \textbf{buf}: Anfangsadresse des Sendepuffers
  59. \item \textbf{count}: Anzahl der Elemente des Sendepuffers (nichtnegativ)
  60. \item \textbf{datatype}: Typ der Elemente des Sendepuffers (handle)
  61. \item \textbf{dest}: Rang des Empfängerprozesses in comm (integer)
  62. \item \textbf{tag}: message tag zur Unterscheidung verschiedener Nachrichten;
  63. Ein Kommunikationsvorgang wird durch ein Tripel (Sender, Empfänger, tag) eindeutig beschrieben.
  64. \item \textbf{comm}: Kommunikator (handle)
  65. \end{itemize}
  66. \textbf{Beispiel}
  67. \inputminted[numbersep=5pt, tabsize=4]{c}{scripts/mpi/mpi-send-example.c}
  68. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
  69. \goodbreak
  70. \rule{\textwidth}{0.4pt}\xindex{MPI\_Recv}%
  71. \inputminted[numbersep=5pt, tabsize=4]{c}{scripts/mpi/mpi-receive.c}
  72. Empfangen einer Nachricht (blockierend)
  73. \textbf{Parameter}
  74. \begin{itemize}
  75. \item \textbf{buf}: Anfangsadresse des Empfangspuffers
  76. \item \textbf{count}: Anzahl (d.~h. $\geq 0$) der Elemente im Empfangspuffer
  77. \item \textbf{datatype}: Typ der zu empfangenden Elemente (handle)
  78. \item \textbf{source}: Rang des Senderprozesses in comm oder \texttt{MPI\_ANY\_SOURCE}
  79. \item \textbf{tag}: message tag zur Unterscheidung verschiedener Nachrichten
  80. Ein Kommunikationsvorgang wird durch ein Tripel (Sender, Empfänger, tag) eindeutig beschrieben. Um Nachrichten mit beliebigen tags zu empfangen, benutzt man die Konstante \texttt{MPI\_ANY\_TAG}.
  81. \item \textbf{comm}: Kommunikator (handle)
  82. \item \textbf{status}: Status, welcher source und tag angibt (\texttt{MPI\_Status}).
  83. Soll dieser Status ignoriert werden, kann \texttt{MPI\_STATUS\_IGNORE}\xindex{MPI\_STATUS\_IGNORE} angegeben werden.
  84. \end{itemize}
  85. \textbf{Beispiel}
  86. \inputminted[numbersep=5pt, tabsize=4]{c}{scripts/mpi/mpi-receive-example.c}
  87. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
  88. \goodbreak
  89. \rule{\textwidth}{0.4pt}\xindex{MPI\_Reduce}%
  90. \inputminted[numbersep=5pt, tabsize=4]{c}{scripts/mpi/mpi-reduce.c}
  91. Führt eine globale Operation \textbf{op} aus; der Prozeß \enquote{root} erhält das Resultat.
  92. \textbf{Parameter}
  93. \begin{itemize}
  94. \item \textbf{sendbuf}: Startadresse des Sendepuffers
  95. \item \textbf{count}: Anzahl der Elemente im Sendepuffer
  96. \item \textbf{datatype}: Datentyp der Elemente von \texttt{sendbuf}
  97. \item \textbf{op}: auszuführende Operation (handle)
  98. \item \textbf{root}: Rang des Root-Prozesses in comm, der das Ergebnis haben soll
  99. \item \textbf{comm}: Kommunikator (handle)
  100. \end{itemize}
  101. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
  102. \goodbreak
  103. \rule{\textwidth}{0.4pt}\xindex{MPI\_Alltoall}%
  104. \inputminted[numbersep=5pt, tabsize=4]{c}{scripts/mpi/mpi-alltoall.c}
  105. Teilt Daten von jedem Prozeß einer Gruppe an alle anderen auf.
  106. \textbf{Parameter}
  107. \begin{itemize}
  108. \item \textbf{sendbuf}: Startadresse des Sendepuffers
  109. \item \textbf{sendcount}: Anzahl der Elemente im Sendepuffer
  110. \item \textbf{sendtype}: Datentyp der Elemente des Sendepuffers (handle)
  111. \item \textbf{recvcount}: Anzahl der Elemente, die von jedem einzelnen Prozeß empfangen werden
  112. \item \textbf{recvtype}: Datentyp der Elemente im Empfangspuffer (handle)
  113. \item \textbf{comm}: Kommunikator (handle)
  114. \end{itemize}
  115. \textbf{Beispiel}
  116. \inputminted[numbersep=5pt, tabsize=4]{c}{scripts/mpi/mpi-alltoall-example.c}
  117. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
  118. \goodbreak
  119. \rule{\textwidth}{0.4pt}\xindex{MPI\_Bcast}%
  120. \inputminted[numbersep=5pt, tabsize=4]{c}{scripts/mpi/mpi-bcast.c}
  121. Sendet eine Nachricht vom Prozess \texttt{root} an alle anderen Prozesse des
  122. angegebenen Kommunikators.
  123. \textbf{Parameter}
  124. \begin{itemize}
  125. \item \textbf{buffer}: Startadresse des Datenpuffers
  126. \item \textbf{count}: Anzahl der Elemente im Puffer
  127. \item \textbf{datatype}: Datentyp der Pufferelemente (handle)
  128. \item \textbf{root}: Wurzelprozeß; der, welcher sendet
  129. \item \textbf{comm}: Kommunikator (handle)
  130. \end{itemize}
  131. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
  132. \goodbreak
  133. \rule{\textwidth}{0.4pt}\xindex{MPI\_Scatter}%
  134. \inputminted[numbersep=5pt, tabsize=4]{c}{scripts/mpi/mpi-scatter.c}
  135. Verteilt Daten vom Prozess \texttt{root} unter alle anderen Prozesse in der Gruppe, so daß, soweit möglich, alle Prozesse gleich große Anteile erhalten.
  136. \textbf{Parameter}
  137. \begin{itemize}
  138. \item \textbf{sendbuf}: Anfangsadresse des Sendepuffers (Wert ist lediglich für 'root' signifikant)
  139. \item \textbf{sendcount}: Anzahl der Elemente, die jeder Prozeß geschickt bekommen soll (integer)
  140. \item \textbf{sendtype}: Datentyp der Elemente in sendbuf (handle)
  141. \item \textbf{recvcount}: Anzahl der Elemente im Empfangspuffer. Meist ist es günstig, recvcount = sendcount zu wählen.
  142. \item \textbf{recvtype}: Datentyp der Elemente des Empfangspuffers (handle)
  143. \item \textbf{root}: Rang des Prozesses in comm, der die Daten versendet
  144. \item \textbf{comm}: Kommunikator (handle)
  145. \end{itemize}
  146. \textbf{Beispiel}
  147. \inputminted[numbersep=5pt, tabsize=4]{c}{scripts/mpi/mpi-reduce-example.c}
  148. \section{Beispiele}
  149. \section{Weitere Informationen}
  150. \begin{itemize}
  151. \item \url{http://mpitutorial.com/}
  152. \item \url{http://www.open-mpi.org/}
  153. \item \url{http://www.tu-chemnitz.de/informatik/RA/projects/mpihelp/}
  154. \end{itemize}
  155. \index{MPI|)}