计算化学公社

 找回密码 Forget password
 注册 Register

计算机调用gpu少,计算进度慢,请指点问题出在哪里

查看数: 1181 | 评论数: 3 | 收藏 Add to favorites 0
关灯 | 提示:支持键盘翻页<-左 右->
    组图打开中,请稍候......
发布时间: 2023-11-1 11:50

正文摘要:

我的gromac的软件环境为: MPI和编译器版本:intel oneapi 2023.2 数学库:intel MKL 调度系统:slurm gromacs版本:2023.1 slurm作业提交脚本,请见附件,信息我也列在下面 slurm作业提交脚本 #!/bin/sh ...

回复 Reply

jia1012428 发表于 Post on 2023-12-8 11:02:57
laoman 发表于 2023-11-2 19:23
如果是常规MD,不推荐跨GPU并行,或者在单个GPU内调用MPI并行。

单个节点如果有多张显卡,我觉得可以跑 ...

谢谢,我研究一下
jia1012428 发表于 Post on 2023-12-8 11:02:27
收到,谢谢我研究一下
laoman 发表于 Post on 2023-11-2 19:23:28
如果是常规MD,不推荐跨GPU并行,或者在单个GPU内调用MPI并行。

单个节点如果有多张显卡,我觉得可以跑多个gmx(没有mpi后缀,编译开CUDA,开openmp,关MPI),每个gmx占用一个显卡。如果你懒得编译一个新的GMX,可以用multidir跑多个任务。如你截图显示的只有两张显卡,那就是一个节点跑两个体系,可以这样提交任务:
#!/bin/sh
#SBATCH -p P3              
#SBATCH --job-name=gromacs
##SBATCH --output=job-%j.log
##SBATCH --error=job-%j.err
#SBATCH -N 1 -n 2 -c 8
......
mpirun -np 2 gmx_mpi mdrun -ntomp 8 -nsteps 100000000 -s prod -multidir md_dir_1 md_dir_2

手机版 Mobile version|北京科音自然科学研究中心 Beijing Kein Research Center for Natural Sciences|京公网安备 11010502035419号|计算化学公社 — 北京科音旗下高水平计算化学交流论坛 ( 京ICP备14038949号-1 )|网站地图

GMT+8, 2026-2-21 23:36 , Processed in 0.889942 second(s), 25 queries , Gzip On.

快速回复 返回顶部 返回列表 Return to list