计算化学公社

标题: 关于gmx_mpi版的mdrun参数设置问题 [打印本页]

作者
Author:
huangfuxin    时间: 2020-11-11 17:24
标题: 关于gmx_mpi版的mdrun参数设置问题
初用mpi版本的gmx,计算平台为64核超算;
模拟体系盒子大小3.888*3.29*7.92(nm);
;;;;;;;;;;;;;;;;;;;;;;;;;;;
不设置dd和npme时报错信息为:
Program:     gmx mdrun, version 2020.3
Source file: src/gromacs/domdec/domdec.cpp (line 2277)
MPI rank:    0 (out of 64)

Fatal error:
There is no domain decomposition for 48 ranks that is compatible with the
given box and a minimum cell size of 1.885 nm
Change the number of ranks or mdrun option -rdd or -dds
Look in the log file for details on the domain decomposition

;;;;;;;;;;;;;;;;;;;;;;;;;
如果设置dd,为了满足大于1.885nm,则会出现dd设置的过小,npme设置过大的报错;

想请教一下:
在尽可能的提高计算速度的情况下,我改调整哪些参数呢(我看手册对dds和rdd的概念没太理解..)?
dd与npme的和一定是要满足64吗?
或者直接不用mpi版本的gmx?



作者
Author:
huangfuxin    时间: 2020-11-11 17:50
附上我的mdp内容,不知是否有用;


integrator        = md                                                ; leap-frog integrator
nsteps                = 7500000                                        ; 1 fs * 100000 = 100 ps 15ns
dt                        = 0.002                                                ; 1 fs

; Output control
nstxout                = 10000                                                ; save coordinates every 1 ps
nstvout                = 10000                                                ; save velocities every 1 ps
nstxtcout        = 10000                                                ; xtc compressed trajectory output every 1 ps
nstenergy        = 10000                                                ; save energies every 1 ps
nstlog                = 10000                                                ; update log file every 1 ps

; Bond parameters
constraints        = none                                        ; all bonds (even heavy atom-H bonds) constrained

; Neighborsearching
cutoff-scheme           = Verlet                                        ; search neighboring grid cels
ns-type                 = Grid
nstlist                = 10                                                ; 10 fs
rlist                = 1.2                                                ; short-range neighborlist cutoff (in nm)
rcoulomb        = 1.2                                                ; short-range electrostatic cutoff (in nm)
rvdw                = 1.2                                                ; short-range van der Waals cutoff (in nm)

; Electrostatics
coulombtype        = PME                                                ; Particle Mesh Ewald for long-range electrostatics

; Temperature coupling is on
tcoupl                = V-rescale                                        ; modified Berendsen thermostat
tc-grps                = System                                        ; two coupling groups - more accurate
tau_t                = 0.1                                                ; time constant, in ps
ref_t                = 300                                                ; reference temperature, one for each group, in K

; Pressure coupling is on
; Pressure coupling is on
pcoupl                  = Berendsen        ;Berendsen or Parrinello-Rahman
pcoupltype              = Isotropic             ; uniform scaling of box vectors
tau_p                   = 2.0                   ; time constant, in ps
ref_p                   = 1.0                   ; reference pressure, in bar
compressibility         = 4.5e-5                ; isothermal compressibility of water, bar^-1
refcoord_scaling        = com

; Periodic boundary conditions
pbc                = xyz                                                        ; 3-D PBC

; Velocity generation
gen_vel                = yes                                                ; Velocity generation is on
gen_temp        = 300                                                ;

freezegrps = MMT_NOOH
freezedim = Y Y Y

作者
Author:
sobereva    时间: 2020-11-11 20:59
适当减小thread-mpi数,增加OpenMP并行线程数
作者
Author:
huangfuxin    时间: 2020-11-12 15:45
sobereva 发表于 2020-11-11 20:59
适当减小thread-mpi数,增加OpenMP并行线程数

谢谢老师 ,但是遗憾的是超算编译的这个版本-npmpi不可用啊.. 提示not compatible with thread-MPI;
仅仅使用-npomp起不到任何效果,尝试过只设置-npomp,从16到48,都是出现和不加npomp时候一样的报错
是他们安装的问题吗,有什么好的意见可以让我去尝试呢?
再次感谢!
作者
Author:
sobereva    时间: 2020-11-13 09:21
huangfuxin 发表于 2020-11-12 15:45
谢谢老师 ,但是遗憾的是超算编译的这个版本-npmpi不可用啊.. 提示not compatible with thread-MPI;
仅 ...

没有npmpi,那是ntmpi
如果是基于MPI并行的,修改mpirun -np对应的并行进程数





欢迎光临 计算化学公社 (http://bbs.keinsci.com/) Powered by Discuz! X3.3