openmpi

    0

    1答えて

    私はRDMAをサポートするMicrosoftのAzure上のいくつかのH16Rインスタンスを設定している、とIntelのピンポンテストが正常に動作します: mpirun -hosts <host1>,<host2> -ppn 1 -n 2 -env I_MPI_FABRICS=dapl -env I_MPI_DAPL_PROVIDER=ofa-v2-ib0 -env I_MPI_DYNAMIC_C

    0

    1答えて

    makeコマンドを実行するとコードを正常にコンパイルできます。私のようにコードを実行するときしかし、: mpirun -np 4 test 発生したエラーは、次のとおりです。 ------------------------------------------------------- Primary job terminated normally, but 1 process return

    0

    1答えて

    スタティックヘッダーファイルutils.hには、機能linspaceが含まれています。 #include <iostream> #include <utils.h> #include <mpi.h> using namespace std; int main(int argc, const char * argv[]) { float start = 0., end = 1

    1

    0答えて

    私はMPIプログラミングの新機能です。シーケンシャル、OpenMP、MPIコードなどの3つのコードをテストする必要があります。これらの3つのコード(一例ためない本当のコードは、)に従う シーケンシャルコード program no_parallel implicit none integer, parameter :: dp = selected_real_kind(15,307)

    0

    1答えて

    私はいくつかのf90ファイルを通常のgfortranコンパイラを使ってコンパイルする必要があり、いくつかはmpifortラッパーを使ってコンパイルする必要があるプロジェクトを持っています。私は適切にこれを収容するためにCMakeファイルを書く方法を知らない。また、以前はCMakeを使ったことがありませんでしたが、それに精通していませんが、ドキュメンテーションや(かなり古くなった)チュートリアルから

    0

    1答えて

    Sierra 10.12.5のMacportsからopenmpiをインストールしようとしています。 sudo: port: command not found が、私は同様のスレッドから収集し、これがすでにインストールされているOpenMPIのが原因である可能性があり:私はこれを行うと sudo port install openmpi が、私はエラーを取得する:まっすぐ前方のコマンドであ

    0

    1答えて

    短いバージョン 私はCUDAコードをローカルに実行する必要があります。したがって、私はthe OpenMPI directionsの後にOpenMPIをインストールしようとしています。私がmake私のコードにしようとすると、私はOpenMPI documentationで記述されているものに似て、very long error outputを受け取ります。私は、ドキュメントの修正案でOpenMPI

    1

    1答えて

    MPIコードの実行場所を制御しようとしています。行うには ので、いくつかの方法で、タスクセット、dplace、numactlまたはよう--bind-にまたは-cpu-設定のmpirunのちょうどのオプションがあります。 機械は:2回12cores(ノードあたりそう24コア) > numactl -H available: 16 nodes (0-15) node 0 cpus:

    1

    1答えて

    i7-5960X CPUと8コア+ HT(16スレッド)のスタンドがあります。 OpenMPとOpenMPIの両方を使用しようとするプログラムがあります。それは次のように呼ばれた。 # mpirun -np <NN1> -x OMP_NUM_THREADS=<NN2> <my_prog> ここで、NN1およびNN2は変化した。 #pragma omp parallel nOMP=om

    0

    1答えて

    2台以上のマシンでOpen MPIクラスタにプログラムを実行することはできません。 私たちが実行している場合: mpirun --host master,slave5,slave3 ./cluster それが動作します。 我々が実行した場合: mpirun --host master,slave4,slave3,slave5 ./cluster 我々は次のエラーを取得:slave5は上で動