计算化学公社

 找回密码 Forget password
 注册 Register
Views: 1796|回复 Reply: 3
打印 Print 上一主题 Last thread 下一主题 Next thread

[GROMACS] 关于MPI版gmx因为体系大小的报错问题

[复制链接 Copy URL]

5

帖子

0

威望

162

eV
积分
167

Level 3 能力者

跳转到指定楼层 Go to specific reply
楼主
我建立了两个体系,一个盒子19*19*19,有7个蛋白,另一个盒子19*19*19,有9个蛋白。第一个体系无报错,第二个体系报错
Fatal error:There is no domain decomposition for 72 ranks that is compatible with the
given box and a minimum cell size of 5.34719 nm
Change the number of ranks or mdrun option -rdd or -dds
Look in the log file for details on the domain decomposition

最开始尝试增加盒子大小,一直加到30nm仍是这个错误。
试过改rdd,dds,当rdd小于2时报错
Not all bonded interactions have been properly assigned to the domain decomposition cells
A list of missing interactions:
                Bond of  12020 missing      1
                 U-B of  40632 missing      4
         Proper Dih. of  55196 missing      5
       Improper Dih. of   4108 missing      4
               LJ-14 of  58508 missing      7
当rdd大于4时要我继续change the number of ranks or mdrun option -rdd or -dds。
遂尝试使用-ntmpi 1,报错Setting the number of thread-MPI ranks is only supported with thread-MPI and
GROMACS was compiled without thread-MPI。
实在想不到还有什么办法。搜索相互作用丢失原因的时候看到可能是拓扑文件包含一些非常长的键。想到我构建盒子的时候使用了packmol,加入了4个同样的蛋白,但是packmol给这四个蛋白设置了同样的链名,不知道这个是否有影响。但是第一个体系也是用的packmol,并没有出现这样的问题。实在没办法了,请大家指点一下,谢谢

6万

帖子

99

威望

6万

eV
积分
125189

管理员

公社社长

2#
发表于 Post on 2023-12-1 05:54:55 | 只看该作者 Only view this author
反复修改MPI并行进程数直到能跑为止

单机并行没事甭用MPI版
北京科音自然科学研究中心http://www.keinsci.com)致力于计算化学的发展和传播,长期开办极高质量的各种计算化学类培训:初级量子化学培训班中级量子化学培训班高级量子化学培训班量子化学波函数分析与Multiwfn程序培训班分子动力学与GROMACS培训班CP2K第一性原理计算培训班,内容介绍以及往届资料购买请点击相应链接查看。这些培训是计算化学从零快速入门以及进一步全面系统性提升研究水平的高速路!培训各种常见问题见《北京科音办的培训班FAQ》
欢迎加入北京科音微信公众号获取北京科音培训的最新消息,并避免错过网上有价值的计算化学文章!
欢迎加入人气极高、专业性特别强的理论与计算化学综合交流群思想家公社QQ群(群号见此链接),合计达一万多人。北京科音培训班的学员在群中可申请VIP头衔,提问将得到群主Sobereva的最优先解答。
思想家公社的门口Blog:http://sobereva.com(发布大量原创计算化学相关博文)
Multiwfn主页:http://sobereva.com/multiwfn(十分强大、极为流行的量子化学波函数分析程序)
Google Scholar:https://scholar.google.com/citations?user=tiKE0qkAAAAJ
ResearchGate:https://www.researchgate.net/profile/Tian_Lu

5

帖子

0

威望

162

eV
积分
167

Level 3 能力者

3#
 楼主 Author| 发表于 Post on 2023-12-1 14:25:53 | 只看该作者 Only view this author
sobereva 发表于 2023-12-1 05:54
反复修改MPI并行进程数直到能跑为止

单机并行没事甭用MPI版

谢谢社长。

5

帖子

0

威望

162

eV
积分
167

Level 3 能力者

4#
 楼主 Author| 发表于 Post on 2023-12-1 14:54:57 | 只看该作者 Only view this author
摸鱼看到有人说该把解决方法贴一下,感觉说得对,我也补一下。我按照社长的方法,把核数从32逐渐调到1,把节点数从2调到1,也没有解决(用的是超算)。最后把体系中蛋白数量减少了,原本是4+4+1,现在改成了3+3+1。也是退而求其次了。╮(╯▽╰)╭

本版积分规则 Credits rule

手机版 Mobile version|北京科音自然科学研究中心 Beijing Kein Research Center for Natural Sciences|京公网安备 11010502035419号|计算化学公社 — 北京科音旗下高水平计算化学交流论坛 ( 京ICP备14038949号-1 )|网站地图

GMT+8, 2026-2-26 07:36 , Processed in 1.150072 second(s), 20 queries , Gzip On.

快速回复 返回顶部 返回列表 Return to list