[地球流体電脳倶楽部] [dcmodel | dcmodel-tools] [dcmodel-thum.rb]
国立天文台 CRAY XT4 にて, MPI 並列化のテストを行う. 非 MPI 版プログラムの出力結果と比較することで,
確認する. なお, MPI 版のプログラムは 3000 秒からリスタートし, 非 MPI 版プログラムはリスタートしていない.
MPI 版と非 MPI 版で同じ結果が得られた. MPI 並列化はうまく動作しているようだ.
これとは別の計算だが, 1 CPU 当たり格子点数 1024 x 300 の計算を 8 並列 で 24 時間動かすと, 1.85e5 秒積分することが可能. 北大 SR11000 では, 8 CPU の自動並列で 1024x300 の計算を 24 時間動かすと, およそ 3e6 秒積分 することが可能 (1 CPU あたり 3e6 / 8 = 3.75e5). SR11000 の方が速い.
もっとも, XT4 用に最適化された線形計算パッケージを使うともっと早くなる 可能性は否定できないし, 性能評価はしていない.
申請しなくても 128 コア(24 時間), 256 コア(12 時間), 1024 コア(8 時間) まで利用可能.