私は初心者で、プログラムを編集しようとしています。私は、配列をサブセットに分割するMPIプログラムを持っています。マスターはサブセットをスレーブに送り、クイックソートを行い、ソートされた数値をマスターに返して、ファイルに書き込むことができます。 私がしようとしているのは、クイックソートをさらに早く行うことです。私の考えは、マスターがアレイを分割し、サブセットを奴隷に送りますが、自分自身のためにそれを保持することです。次に、それらを再び新しいサブセットに分割します(たとえば、配列内に1〜100の番号がある場合、新しいサブセットは1〜25,26〜50,51〜75および76〜100でなければなりません)。 1から25まで)、第2のスレーブ(26から50)を第1のスレーブに、第3のスレーブ(51から76)を第2のスレーブなどに送る。スレーブは同じことをするべきである。次にクイックソートを実行し、スレーブはソートされた数値をマスターに返す必要があります。私はこのようにソートがより速くなることを望んでいます。問題は、私が言ったように私は初心者であり、アイデア、アドバイス、そしてコードで助けが必要なので、私は自分の目標を達成することができるということです。MPIクイックソートプログラム
答えて
この回答では、これをQuicksortで実行し、データを1つのプロセスで読み込むことを前提にしています。 many sophisticated parallel sorting techniquesがあることに留意してください。
サブセットで数値を区切って考えると、データの形状を前提にしているので問題があります。非一様分布のデータセットの場合、最小値と最大値を知ることさえ役立ちません。各プロセスに等しい数の数値を送信し、それらのデータをソートして後でマージすることができます。
ntasks
のソートされたサブリストから始まり、1つのサブリストにしたいと考えています。素朴なマージは、各サブリスト内の最小要素を繰り返し探し、それを削除して最終リストに追加します。これには、ntasks
* N
の比較、N
のスワップ、N * 2
のメモリが必要です。実際のマージソートを行うことによって、log2(ntasks) * N
への比較を最適化できますが、これにはのスワップも必要です。サブリスト(または最初の要素へのポインタ)をpriority queueに保存すると、log2(ntasks) * N
の比較とN
のスワップが得られるはずです。 MPIの使用方法について
:
- は右互いの後
MPI_Isend
&MPI_Wait
を使用しないでください。この場合は代わりにMPI_Send
を使用してください。MPI_Isend
とMPI_Wait
の間で有用な何かを実際に行うことができる場合にのみ、即時型を使用してください。 - 可能な限り集団操作を使用してください。ルートからすべてのスレーブにデータを配布するには、
MPI_Scatter
またはMPI_Scatterv
を使用します。最初は、すべてのランクに同じ数の要素を受け取る必要があります。これは、パディングによっても達成できます。マスタのスレーブからデータを収集するには、MPI_Gather
またはMPI_Gatherv
を使用します。集団は、高いレベルの操作を記述しているため、右に進む方が簡単です。それらの実装は通常、高度に最適化されています。 - 不明なサイズのメッセージを受信するには、メッセージを直接送信し、受信側で
MPI_Probe
を使用してサイズを判断することもできます。上限を知っていれば、MPI_Recv
には、より大きいバッファーを持つバッファーを使用することもできます。
また削減などのマージステップを検討し、そのために必要な計算を並列化することができます。
どのようにスレーブをもう一度分割して範囲内のサブアレイを作るか考えてみましょうか? たとえば、コードの数値が0〜100の場合、0〜25/26〜50/51〜75/76〜100の範囲で4つのグループ(1つのマスター+ 3つのスレーブ)に分割する必要があります。 –
私は本当にその質問を理解していないのだろうか。ランク=(値 - 分)* num_ranks /(1 +最大 - 分) 'それ自体を分割するのは簡単です。 – Zulan
現在、マスタは配列を分割しており、サブ配列をスレーブに送信しています。どのようにすればいいのかわからないのは、スレーブがサブアレイを分割することですが、オープンファイルの数値の範囲に応じていくつかの範囲で行う必要があります。スレーブが1,2,7,33,45,50,71,23,5,99,88の数字を受信した場合、スレーブはグループ(1,2,3,5)、(27,33,45,50)、( 71)および(99,88)。すべての奴隷とマスターはそれを行う必要がありますし、最初のグループはマスターに送信する必要があります、2番目のグループは、最初の奴隷などに送信する必要があります –
原則として、あなたのソリューションは非常によく見えます。大きなファイルについては、それらをまとめるか全体として処理しようとしているかどうかは完全に分かりません。私の経験から、可能な限り大きなブロックをスレーブに割り当てることをお勧めします。このようにして、かなり高価なメッセージパッシング操作は非常にまれにしか実行されません。
私があなたの質問で理解できないことは、あなたのプログラムの全体的な目標は何かです。完全な入力ファイルを並行して並べ替えることはあなたの意図ですか?このような場合は、個々のプロセスから受け取った結果にマージソートを適用する必要があります。
範囲内のサブアレイをもう一度分割するスレーブを作るにはどうすればいいですか? たとえば、コードの数値が0〜100の場合、0〜25/26〜50/51〜75/76〜100の範囲で4つのグループ(1つのマスター+ 3つのスレーブ)に分割する必要があります。 –
- 1. MPI - ロジックサークルサークル
- 2. MPIデバッグ、セグメンテーションフォルト?
- 3. Eclipse MPIパーサーエラー
- 4. MPIとD:リンカオプション
- 5. MPIプロセッサ数?
- 6. MPI - プロデューサとコンシューマ
- 7. mpiプログラムのGUI
- 8. OpenMPとMPIハイブリッドプログラム
- 9. MPIのデッドロック
- 10. MPI、calloc and free:
- 11. デバッグmpi java
- 12. MPI通信パターン
- 13. MPIベクトル乗算
- 14. MPI基本プログラム
- 15. MPI(Asynchronous)Loop Iteration
- 16. C#HPC - MPIとOpenMP
- 17. 単純なMPIプログラム
- 18. Mpi関数定義
- 19. MPI派生データ型
- 20. MPIシグナルの処理
- 21. mpi複数initファイナライズ
- 22. 制限とオープンMPI
- 23. 共有オブジェクトライブラリとMPI
- 24. MPI-FORTRANのファイルIO
- 25. MPIチェックポイントの使用
- 26. グローバル変数とMPI
- 27. MPIマルチコアのマシン上
- 28. MPIグループへのMPIランク番号の一般化?
- 29. 純粋なMPIに勝るMPI + CUDAの利点?
- 30. mpiで既存のFortranコードをハイブリッドmpiに移植するopenmp
ソーティングが遅すぎる実際の問題を本当に解決しようとしていますか?その後、このアプローチを忘れて、[並列ソートアルゴリズム](http://stackoverflow.com/a/3969847/620382)を読んで、データを最初から配布しておく方法についてもっとよく考えてみてください。それとも、これはエクササイズなのですか?あなたはMPIの使い方を学びたいと思っていますか? – Zulan
単なる運動ですので、私はいくつかのMPIを学ぶことができます。 –
範囲内のサブアレイをもう一度分割するスレーブを作るにはどうすればよいですか? たとえば、コードの数値が0〜100の場合、0〜25/26〜50/51〜75/76〜100の範囲で4つのグループ(1つのマスター+ 3つのスレーブ)に分割する必要があります。 –