[地球流体電脳倶楽部] [dcmodel | dcmodel-tools] [dcmodel-thum.rb]

MPI のテスト

概要

国立天文台 CRAY XT4 にて, MPI 並列化のテストを行う. 非 MPI 版プログラムの出力結果と比較することで,

確認する. なお, MPI 版のプログラムは 3000 秒からリスタートし, 非 MPI 版プログラムはリスタートしていない.

比較の結果

MPI 版と非 MPI 版で同じ結果が得られた. MPI 並列化はうまく動作しているようだ.

その他

これとは別の計算だが, 1 CPU 当たり格子点数 1024 x 300 の計算を 8 並列 で 24 時間動かすと, 1.85e5 秒積分することが可能. 北大 SR11000 では, 8 CPU の自動並列で 1024x300 の計算を 24 時間動かすと, およそ 3e6 秒積分 することが可能 (1 CPU あたり 3e6 / 8 = 3.75e5). SR11000 の方が速い.

もっとも, XT4 用に最適化された線形計算パッケージを使うともっと早くなる 可能性は否定できないし, 性能評価はしていない.

申請しなくても 128 コア(24 時間), 256 コア(12 時間), 1024 コア(8 時間) まで利用可能.

結果一覧

non-MPI MPI
nonmpi_t0000.png


mpi_t0000.png


nonmpi_t1000.png


mpi_t1000.png


nonmpi_t2000.png


mpi_t2000.png


nonmpi_t3000.png


mpi_t3000.png


nonmpi_t4000.png


mpi_t4000.png


nonmpi_t5000.png


mpi_t5000.png


nonmpi_t6000.png


mpi_t6000.png


   

This page is generated by figdir/dcmodel-thum-make.rb and figdir/index.txt (2008/06/25 14:13:42 sugiyama)
dcmodel-thum.rb [Script | Doc | Sample] is provided by dcmodel project in GFD Dennou Club
Copyright © GFD Dennou Club 2008