标题: 关于MPI版gmx因为体系大小的报错问题 [打印本页] 作者Author: lpldtxdy 时间: 2023-11-30 22:32 标题: 关于MPI版gmx因为体系大小的报错问题 我建立了两个体系,一个盒子19*19*19,有7个蛋白,另一个盒子19*19*19,有9个蛋白。第一个体系无报错,第二个体系报错
”Fatal error:There is no domain decomposition for 72 ranks that is compatible with the
given box and a minimum cell size of 5.34719 nm
Change the number of ranks or mdrun option -rdd or -dds
Look in the log file for details on the domain decomposition“
最开始尝试增加盒子大小,一直加到30nm仍是这个错误。
试过改rdd,dds,当rdd小于2时报错
Not all bonded interactions have been properly assigned to the domain decomposition cells
A list of missing interactions:
Bond of 12020 missing 1
U-B of 40632 missing 4
Proper Dih. of 55196 missing 5
Improper Dih. of 4108 missing 4
LJ-14 of 58508 missing 7
当rdd大于4时要我继续change the number of ranks or mdrun option -rdd or -dds。
遂尝试使用-ntmpi 1,报错Setting the number of thread-MPI ranks is only supported with thread-MPI and
GROMACS was compiled without thread-MPI。
实在想不到还有什么办法。搜索相互作用丢失原因的时候看到可能是拓扑文件包含一些非常长的键。想到我构建盒子的时候使用了packmol,加入了4个同样的蛋白,但是packmol给这四个蛋白设置了同样的链名,不知道这个是否有影响。但是第一个体系也是用的packmol,并没有出现这样的问题。实在没办法了,请大家指点一下,谢谢 作者Author: sobereva 时间: 2023-12-1 05:54
反复修改MPI并行进程数直到能跑为止