laoman 发表于 2023-11-2 19:23 谢谢,我研究一下 |
| 收到,谢谢我研究一下 |
|
如果是常规MD,不推荐跨GPU并行,或者在单个GPU内调用MPI并行。 单个节点如果有多张显卡,我觉得可以跑多个gmx(没有mpi后缀,编译开CUDA,开openmp,关MPI),每个gmx占用一个显卡。如果你懒得编译一个新的GMX,可以用multidir跑多个任务。如你截图显示的只有两张显卡,那就是一个节点跑两个体系,可以这样提交任务: #!/bin/sh #SBATCH -p P3 #SBATCH --job-name=gromacs ##SBATCH --output=job-%j.log ##SBATCH --error=job-%j.err #SBATCH -N 1 -n 2 -c 8 ...... mpirun -np 2 gmx_mpi mdrun -ntomp 8 -nsteps 100000000 -s prod -multidir md_dir_1 md_dir_2 |
手机版 Mobile version|北京科音自然科学研究中心 Beijing Kein Research Center for Natural Sciences|京公网安备 11010502035419号|计算化学公社 — 北京科音旗下高水平计算化学交流论坛 ( 京ICP备14038949号-1 )|网站地图
GMT+8, 2026-2-21 23:36 , Processed in 0.889942 second(s), 25 queries , Gzip On.