计算化学公社

标题: 关于MPI版gmx因为体系大小的报错问题 [打印本页]

作者
Author:
lpldtxdy    时间: 2023-11-30 22:32
标题: 关于MPI版gmx因为体系大小的报错问题
我建立了两个体系,一个盒子19*19*19,有7个蛋白,另一个盒子19*19*19,有9个蛋白。第一个体系无报错,第二个体系报错
Fatal error:There is no domain decomposition for 72 ranks that is compatible with the
given box and a minimum cell size of 5.34719 nm
Change the number of ranks or mdrun option -rdd or -dds
Look in the log file for details on the domain decomposition

最开始尝试增加盒子大小,一直加到30nm仍是这个错误。
试过改rdd,dds,当rdd小于2时报错
Not all bonded interactions have been properly assigned to the domain decomposition cells
A list of missing interactions:
                Bond of  12020 missing      1
                 U-B of  40632 missing      4
         Proper Dih. of  55196 missing      5
       Improper Dih. of   4108 missing      4
               LJ-14 of  58508 missing      7
当rdd大于4时要我继续change the number of ranks or mdrun option -rdd or -dds。
遂尝试使用-ntmpi 1,报错Setting the number of thread-MPI ranks is only supported with thread-MPI and
GROMACS was compiled without thread-MPI。
实在想不到还有什么办法。搜索相互作用丢失原因的时候看到可能是拓扑文件包含一些非常长的键。想到我构建盒子的时候使用了packmol,加入了4个同样的蛋白,但是packmol给这四个蛋白设置了同样的链名,不知道这个是否有影响。但是第一个体系也是用的packmol,并没有出现这样的问题。实在没办法了,请大家指点一下,谢谢

作者
Author:
sobereva    时间: 2023-12-1 05:54
反复修改MPI并行进程数直到能跑为止

单机并行没事甭用MPI版
作者
Author:
lpldtxdy    时间: 2023-12-1 14:25
sobereva 发表于 2023-12-1 05:54
反复修改MPI并行进程数直到能跑为止

单机并行没事甭用MPI版

谢谢社长。
作者
Author:
lpldtxdy    时间: 2023-12-1 14:54
摸鱼看到有人说该把解决方法贴一下,感觉说得对,我也补一下。我按照社长的方法,把核数从32逐渐调到1,把节点数从2调到1,也没有解决(用的是超算)。最后把体系中蛋白数量减少了,原本是4+4+1,现在改成了3+3+1。也是退而求其次了。╮(╯▽╰)╭




欢迎光临 计算化学公社 (http://bbs.keinsci.com/) Powered by Discuz! X3.3