计算化学公社

 找回密码 Forget password
 注册 Register
Views: 8885|回复 Reply: 18
打印 Print 上一主题 Last thread 下一主题 Next thread

[GROMACS] 求助:计算溶剂化自由能换机器报错

[复制链接 Copy URL]

34

帖子

0

威望

197

eV
积分
231

Level 3 能力者

本人使用GROMACS计算癸酸在水中的溶剂化自由能,在另一台机器上一直计算正常,换了台性能更强的工作站后,同样的输入文件却一直报错。
报错界面见下图:


希望得到各位前辈的解答,谢谢!

6万

帖子

99

威望

5万

eV
积分
120141

管理员

公社社长

2#
发表于 Post on 2021-11-8 21:43:17 | 只看该作者 Only view this author
两次用的GROMACS版本相同么?
北京科音自然科学研究中心http://www.keinsci.com)致力于计算化学的发展和传播,长期开办极高质量的各种计算化学类培训:初级量子化学培训班中级量子化学培训班高级量子化学培训班量子化学波函数分析与Multiwfn程序培训班分子动力学与GROMACS培训班CP2K第一性原理计算培训班,内容介绍以及往届资料购买请点击相应链接查看。这些培训是计算化学从零快速入门以及进一步全面系统性提升研究水平的高速路!培训各种常见问题见《北京科音办的培训班FAQ》
欢迎加入北京科音微信公众号获取北京科音培训的最新消息,并避免错过网上有价值的计算化学文章!
欢迎加入人气极高、专业性特别强的理论与计算化学综合交流群思想家公社QQ群(群号见此链接),合计达一万多人。北京科音培训班的学员在群中可申请VIP头衔,提问将得到群主Sobereva的最优先解答。
思想家公社的门口Blog:http://sobereva.com(发布大量原创计算化学相关博文)
Multiwfn主页:http://sobereva.com/multiwfn(十分强大、极为流行的量子化学波函数分析程序)
Google Scholar:https://scholar.google.com/citations?user=tiKE0qkAAAAJ
ResearchGate:https://www.researchgate.net/profile/Tian_Lu

34

帖子

0

威望

197

eV
积分
231

Level 3 能力者

3#
 楼主 Author| 发表于 Post on 2021-11-8 22:49:43 | 只看该作者 Only view this author
sobereva 发表于 2021-11-8 21:43
两次用的GROMACS版本相同么?

不同,老机器用的之前装的版本,新机器是才装的最新版。

6万

帖子

99

威望

5万

eV
积分
120141

管理员

公社社长

4#
发表于 Post on 2021-11-8 22:59:25 | 只看该作者 Only view this author
xjtu_zk 发表于 2021-11-8 22:49
不同,老机器用的之前装的版本,新机器是才装的最新版。

用和之前相同的版本
北京科音自然科学研究中心http://www.keinsci.com)致力于计算化学的发展和传播,长期开办极高质量的各种计算化学类培训:初级量子化学培训班中级量子化学培训班高级量子化学培训班量子化学波函数分析与Multiwfn程序培训班分子动力学与GROMACS培训班CP2K第一性原理计算培训班,内容介绍以及往届资料购买请点击相应链接查看。这些培训是计算化学从零快速入门以及进一步全面系统性提升研究水平的高速路!培训各种常见问题见《北京科音办的培训班FAQ》
欢迎加入北京科音微信公众号获取北京科音培训的最新消息,并避免错过网上有价值的计算化学文章!
欢迎加入人气极高、专业性特别强的理论与计算化学综合交流群思想家公社QQ群(群号见此链接),合计达一万多人。北京科音培训班的学员在群中可申请VIP头衔,提问将得到群主Sobereva的最优先解答。
思想家公社的门口Blog:http://sobereva.com(发布大量原创计算化学相关博文)
Multiwfn主页:http://sobereva.com/multiwfn(十分强大、极为流行的量子化学波函数分析程序)
Google Scholar:https://scholar.google.com/citations?user=tiKE0qkAAAAJ
ResearchGate:https://www.researchgate.net/profile/Tian_Lu

34

帖子

0

威望

197

eV
积分
231

Level 3 能力者

5#
 楼主 Author| 发表于 Post on 2021-11-9 12:42:14 | 只看该作者 Only view this author
sobereva 发表于 2021-11-8 22:59
用和之前相同的版本

社长,装了原版本,又报了新的错。。。

GROMACS:      gmx mdrun, version 2020.1
Executable:   /usr/local/gromacs/bin/gmx
Data prefix:  /usr/local/gromacs
Working dir:  /home/rlxt/gmxtrain/DINW
Command line:
  gmx mdrun -deffnm eql-0

Reading file eql-0.tpr, VERSION 2020.1 (single precision)

NOTE: Parallelization is limited by the small number of atoms,
      only starting 4 thread-MPI ranks.
      You can use the -nt and/or -ntmpi option to optimize the number of threads.

Changing nstlist from 10 to 40, rlist from 1 to 1.13

On host rlxt-Precision-7920-Tower 1 GPU selected for this run.
Mapping of GPU IDs to the 4 GPU tasks in the 4 ranks on this node:
  PP:0,PP:0,PP:0,PP:0
PP tasks will do (non-perturbed) short-ranged and most bonded interactions on the GPU
PP task will update and constrain coordinates on the CPU
Using 4 MPI threads
Using 8 OpenMP threads per tMPI thread


NOTE: DLB will not turn on during the first phase of PME tuning
starting mdrun 'DKA and water interdiffusion'
50000 steps,    100.0 ps.

Not all bonded interactions have been properly assigned to the domain decomposition cells
A list of missing interactions:
        LJC Pairs NB of    327 missing      1
Molecule type 'DKA'
the first 10 missing interactions, except for exclusions:
        LJC Pairs NB atoms    2   29           global     2    29


-------------------------------------------------------
Program:     gmx mdrun, version 2020.1
Source file: src/gromacs/domdec/domdec_topology.cpp (line 421)
MPI rank:    0 (out of 4)

Fatal error:
1 of the 552 bonded interactions could not be calculated because some atoms
involved moved further apart than the multi-body cut-off distance (0.924221
nm) or the two-body cut-off distance (1.13 nm), see option -rdd, for pairs and
tabulated bonds also see option -ddcheck

For more information and tips for troubleshooting, please check the GROMACS
website at http://www.gromacs.org/Documentation/Errors
-------------------------------------------------------

6万

帖子

99

威望

5万

eV
积分
120141

管理员

公社社长

6#
发表于 Post on 2021-11-10 02:00:46 | 只看该作者 Only view this author
xjtu_zk 发表于 2021-11-9 12:42
社长,装了原版本,又报了新的错。。。

GROMACS:      gmx mdrun, version 2020.1

mdrun加上-ntmpi 1试试
北京科音自然科学研究中心http://www.keinsci.com)致力于计算化学的发展和传播,长期开办极高质量的各种计算化学类培训:初级量子化学培训班中级量子化学培训班高级量子化学培训班量子化学波函数分析与Multiwfn程序培训班分子动力学与GROMACS培训班CP2K第一性原理计算培训班,内容介绍以及往届资料购买请点击相应链接查看。这些培训是计算化学从零快速入门以及进一步全面系统性提升研究水平的高速路!培训各种常见问题见《北京科音办的培训班FAQ》
欢迎加入北京科音微信公众号获取北京科音培训的最新消息,并避免错过网上有价值的计算化学文章!
欢迎加入人气极高、专业性特别强的理论与计算化学综合交流群思想家公社QQ群(群号见此链接),合计达一万多人。北京科音培训班的学员在群中可申请VIP头衔,提问将得到群主Sobereva的最优先解答。
思想家公社的门口Blog:http://sobereva.com(发布大量原创计算化学相关博文)
Multiwfn主页:http://sobereva.com/multiwfn(十分强大、极为流行的量子化学波函数分析程序)
Google Scholar:https://scholar.google.com/citations?user=tiKE0qkAAAAJ
ResearchGate:https://www.researchgate.net/profile/Tian_Lu

34

帖子

0

威望

197

eV
积分
231

Level 3 能力者

7#
 楼主 Author| 发表于 Post on 2021-11-10 10:16:40 | 只看该作者 Only view this author
sobereva 发表于 2021-11-10 02:00
mdrun加上-ntmpi 1试试

社长,加上-ntmpi 1后,又报了这样的错误:

GROMACS:      gmx mdrun, version 2020.1
Executable:   /usr/local/gromacs/bin/gmx
Data prefix:  /usr/local/gromacs
Working dir:  /home/rlxt/gmxtrain/DINW
Command line:
  gmx mdrun -deffnm min-0 -ntmpi 1

Reading file min-0.tpr, VERSION 2020.1 (single precision)
1 GPU selected for this run.
Mapping of GPU IDs to the 1 GPU task in the 1 rank on this node:
  PP:0
PP tasks will do (non-perturbed) short-ranged interactions on the GPU
PP task will update and constrain coordinates on the CPU
Using 1 MPI thread

Non-default thread affinity set, disabling internal thread affinity

Using 72 OpenMP threads


-------------------------------------------------------
Program:     gmx mdrun, version 2020.1
Source file: src/gromacs/listed_forces/manage_threading.cpp (line 338)

Fatal error:
You are using 72 OpenMP threads, which is larger than GMX_OPENMP_MAX_THREADS
(64). Decrease the number of OpenMP threads or rebuild GROMACS with a larger
value for GMX_OPENMP_MAX_THREADS passed to CMake.

For more information and tips for troubleshooting, please check the GROMACS
website at http://www.gromacs.org/Documentation/Errors

我机器的配置是:
CPU: 2xIntel(R) Xeon(R) Gold 5220 CPU @ 2.20GHz
GPU: NVIDIA Quadro P620
MEM: 64GB
OS: Ubuntu 20.04

6万

帖子

99

威望

5万

eV
积分
120141

管理员

公社社长

8#
发表于 Post on 2021-11-11 04:02:57 | 只看该作者 Only view this author
xjtu_zk 发表于 2021-11-10 10:16
社长,加上-ntmpi 1后,又报了这样的错误:

GROMACS:      gmx mdrun, version 2020.1

再加上-ntomp 64
北京科音自然科学研究中心http://www.keinsci.com)致力于计算化学的发展和传播,长期开办极高质量的各种计算化学类培训:初级量子化学培训班中级量子化学培训班高级量子化学培训班量子化学波函数分析与Multiwfn程序培训班分子动力学与GROMACS培训班CP2K第一性原理计算培训班,内容介绍以及往届资料购买请点击相应链接查看。这些培训是计算化学从零快速入门以及进一步全面系统性提升研究水平的高速路!培训各种常见问题见《北京科音办的培训班FAQ》
欢迎加入北京科音微信公众号获取北京科音培训的最新消息,并避免错过网上有价值的计算化学文章!
欢迎加入人气极高、专业性特别强的理论与计算化学综合交流群思想家公社QQ群(群号见此链接),合计达一万多人。北京科音培训班的学员在群中可申请VIP头衔,提问将得到群主Sobereva的最优先解答。
思想家公社的门口Blog:http://sobereva.com(发布大量原创计算化学相关博文)
Multiwfn主页:http://sobereva.com/multiwfn(十分强大、极为流行的量子化学波函数分析程序)
Google Scholar:https://scholar.google.com/citations?user=tiKE0qkAAAAJ
ResearchGate:https://www.researchgate.net/profile/Tian_Lu

34

帖子

0

威望

197

eV
积分
231

Level 3 能力者

9#
 楼主 Author| 发表于 Post on 2021-11-11 13:37:20 | 只看该作者 Only view this author

谢谢社长!可以了

34

帖子

0

威望

197

eV
积分
231

Level 3 能力者

10#
 楼主 Author| 发表于 Post on 2021-11-12 09:22:35 | 只看该作者 Only view this author

社长,这样设置以后可以计算了,但是发现一个新问题:新机器按您说的设置是开64个线程进行计算,可是与老机器的24线程进行计算相比,计算速度是一样的。这是为什么呢?

6万

帖子

99

威望

5万

eV
积分
120141

管理员

公社社长

11#
发表于 Post on 2021-11-13 03:30:37 | 只看该作者 Only view this author
xjtu_zk 发表于 2021-11-12 09:22
社长,这样设置以后可以计算了,但是发现一个新问题:新机器按您说的设置是开64个线程进行计算,可是与老 ...

纯靠OpenMP方式并行,在并行线程数多的时候,效率可能明显低于纯靠thread-MPI,或者thread-MPI与OpenMP混合使用。
我这里说的是纯用CPU的情况。对于用GPU加速的情况,CPU核数很多时瓶颈就完全在GPU上,所以核再多也起不到作用。
北京科音自然科学研究中心http://www.keinsci.com)致力于计算化学的发展和传播,长期开办极高质量的各种计算化学类培训:初级量子化学培训班中级量子化学培训班高级量子化学培训班量子化学波函数分析与Multiwfn程序培训班分子动力学与GROMACS培训班CP2K第一性原理计算培训班,内容介绍以及往届资料购买请点击相应链接查看。这些培训是计算化学从零快速入门以及进一步全面系统性提升研究水平的高速路!培训各种常见问题见《北京科音办的培训班FAQ》
欢迎加入北京科音微信公众号获取北京科音培训的最新消息,并避免错过网上有价值的计算化学文章!
欢迎加入人气极高、专业性特别强的理论与计算化学综合交流群思想家公社QQ群(群号见此链接),合计达一万多人。北京科音培训班的学员在群中可申请VIP头衔,提问将得到群主Sobereva的最优先解答。
思想家公社的门口Blog:http://sobereva.com(发布大量原创计算化学相关博文)
Multiwfn主页:http://sobereva.com/multiwfn(十分强大、极为流行的量子化学波函数分析程序)
Google Scholar:https://scholar.google.com/citations?user=tiKE0qkAAAAJ
ResearchGate:https://www.researchgate.net/profile/Tian_Lu

34

帖子

0

威望

197

eV
积分
231

Level 3 能力者

12#
 楼主 Author| 发表于 Post on 2021-11-17 18:32:25 | 只看该作者 Only view this author
sobereva 发表于 2021-11-13 03:30
纯靠OpenMP方式并行,在并行线程数多的时候,效率可能明显低于纯靠thread-MPI,或者thread-MPI与OpenMP混 ...

社长,我目前使用的命令是:gmx mdrun -deffnm xxx -ntmpi 1 -ntomp 64,发现计算效率很低,应该就是您说的问题。
我尝试修改了-ntomp的值,不同值尝试后发现在-ntomp=6的时候,我这个case的计算效率最高。但是这个时候整个工作站的CPU占用率只有600%,这个工作站满载应该是7200%,感觉有很多资源闲置没用,有什么办法能完全利用工作站的资源呢?希望社长能给予解答。谢谢!

1657

帖子

5

威望

4560

eV
积分
6317

Level 6 (一方通行)

喵星人

13#
发表于 Post on 2021-11-17 20:40:38 | 只看该作者 Only view this author
本帖最后由 喵星大佬 于 2021-11-17 20:43 编辑

你要改ntomp和ntmpi啊。两个相乘=物理核数的时候优化

比如有32个物理核,那你可以用2mpi*16omp,4mpi*8omp,8mpi*4omp去测试谁更快

一般认为在纯cpu的情况下体系越大用越多的mpi更快

6万

帖子

99

威望

5万

eV
积分
120141

管理员

公社社长

14#
发表于 Post on 2021-11-18 05:20:18 | 只看该作者 Only view this author
xjtu_zk 发表于 2021-11-17 18:32
社长,我目前使用的命令是:gmx mdrun -deffnm xxx -ntmpi 1 -ntomp 64,发现计算效率很低,应该就是您说 ...

了解一下并行机制



gmx默认利用所有核心,会让thread-MPI线程和OpenMP线程的乘积等于所有核心数,各自多少个线程是自动确定的。你若用了-ntmpi 1结合-ntomp 6,就等于只用了1*6=6个核心,显然占用率只有600%。对于大体系长时间的模拟,可以自行试试不同的组合(让乘积等于物理核心数)找出速度最快的组合。
北京科音自然科学研究中心http://www.keinsci.com)致力于计算化学的发展和传播,长期开办极高质量的各种计算化学类培训:初级量子化学培训班中级量子化学培训班高级量子化学培训班量子化学波函数分析与Multiwfn程序培训班分子动力学与GROMACS培训班CP2K第一性原理计算培训班,内容介绍以及往届资料购买请点击相应链接查看。这些培训是计算化学从零快速入门以及进一步全面系统性提升研究水平的高速路!培训各种常见问题见《北京科音办的培训班FAQ》
欢迎加入北京科音微信公众号获取北京科音培训的最新消息,并避免错过网上有价值的计算化学文章!
欢迎加入人气极高、专业性特别强的理论与计算化学综合交流群思想家公社QQ群(群号见此链接),合计达一万多人。北京科音培训班的学员在群中可申请VIP头衔,提问将得到群主Sobereva的最优先解答。
思想家公社的门口Blog:http://sobereva.com(发布大量原创计算化学相关博文)
Multiwfn主页:http://sobereva.com/multiwfn(十分强大、极为流行的量子化学波函数分析程序)
Google Scholar:https://scholar.google.com/citations?user=tiKE0qkAAAAJ
ResearchGate:https://www.researchgate.net/profile/Tian_Lu

34

帖子

0

威望

197

eV
积分
231

Level 3 能力者

15#
 楼主 Author| 发表于 Post on 2021-11-18 09:48:28 | 只看该作者 Only view this author
sobereva 发表于 2021-11-18 05:20
了解一下并行机制

社长,我昨天已经尝试了不同的-ntomp的值,发现在6的时候速度最快。我也尝试了修改-ntmpi的值,但是发现只有1的时候可以运行,修改成其他值均报下面的错误。
Data prefix:  /usr/local/gromacs
Working dir:  /home/rlxt/gmxtrain/DINW3
Command line:
  gmx mdrun -deffnm min-0 -ntmpi 32 -ntomp 2 -pin on


Back Off! I just backed up min-0.log to ./#min-0.log.4#
Reading file min-0.tpr, VERSION 2020.1 (single precision)

-------------------------------------------------------
Program:     gmx mdrun, version 2020.1
Source file: src/gromacs/domdec/domdec.cpp (line 2277)
MPI rank:    0 (out of 32)

Fatal error:
There is no domain decomposition for 32 ranks that is compatible with the
given box and a minimum cell size of 1.17491 nm
Change the number of ranks or mdrun option -rdd or -dds
Look in the log file for details on the domain decomposition

For more information and tips for troubleshooting, please check the GROMACS
website at http://www.gromacs.org/Documentation/Errors

本版积分规则 Credits rule

手机版 Mobile version|北京科音自然科学研究中心 Beijing Kein Research Center for Natural Sciences|京公网安备 11010502035419号|计算化学公社 — 北京科音旗下高水平计算化学交流论坛 ( 京ICP备14038949号-1 )|网站地图

GMT+8, 2025-8-15 21:58 , Processed in 0.158615 second(s), 23 queries , Gzip On.

快速回复 返回顶部 返回列表 Return to list