计算化学公社

 找回密码 Forget password
 注册 Register
楼主 Author: ggdh
打印 Print 上一主题 Last thread 下一主题 Next thread

[GROMACS] GROMACS (2019.3 GPU版) 并行效率测试及调试思路

  [复制链接 Copy URL]

75

帖子

0

威望

655

eV
积分
730

Level 4 (黑子)

16#
发表于 Post on 2020-4-4 16:58:17 | 只看该作者 Only view this author
请问mpirun并行版只要加上了-pme -pcme -bonded这些就会报错说相关指令无效,但是用gmx_mpi mdrun -deffnm npt -ntomp 10-pin on 计算效率又特别低是什么原因(50000原子  7ns/day)

9

帖子

0

威望

128

eV
积分
137

Level 2 能力者

17#
发表于 Post on 2020-4-13 13:43:38 | 只看该作者 Only view this author
王寓于 发表于 2020-4-4 16:58
请问mpirun并行版只要加上了-pme -pcme -bonded这些就会报错说相关指令无效,但是用gmx_mpi mdrun -deffnm  ...

不是多机器并行不要编译mpi版本,用gmx built-in mpi,cmake时不要打开那个选项,结果是:bin文件里是gmx不是gmx_mpi。你再仔细看一楼开头关于thread和rank的知识

75

帖子

0

威望

655

eV
积分
730

Level 4 (黑子)

18#
发表于 Post on 2020-4-13 20:01:58 | 只看该作者 Only view this author
柠檬好酸 发表于 2020-4-13 13:43
不是多机器并行不要编译mpi版本,用gmx built-in mpi,cmake时不要打开那个选项,结果是:bin文件里是gmx ...

多谢

509

帖子

1

威望

4245

eV
积分
4774

Level 6 (一方通行)

19#
发表于 Post on 2020-5-11 12:13:44 | 只看该作者 Only view this author
王寓于 发表于 2020-4-4 16:58
请问mpirun并行版只要加上了-pme -pcme -bonded这些就会报错说相关指令无效,但是用gmx_mpi mdrun -deffnm  ...

命令错了,原文笔误别直接复制

6

帖子

0

威望

117

eV
积分
123

Level 2 能力者

20#
发表于 Post on 2020-5-18 18:06:55 | 只看该作者 Only view this author
感谢楼主!

1

帖子

0

威望

34

eV
积分
35

Level 2 能力者

21#
发表于 Post on 2020-5-21 09:46:45 | 只看该作者 Only view this author
我有一个不成熟的想法  3970x(24核 但主频有3.8)+(3*2080显卡+1*2080Ti),平时单独跑四个任务, 大体系需要时4rank并行,分出2080Ti这个rank专门算PME,这样是否可以提升计算速度上限(看你文章双显卡时是pme达到上限了)

评分 Rate

参与人数
Participants 1
eV +5 收起 理由
Reason
ggdh + 5 很有可能,但我怀疑你其实是在炫富。。。

查看全部评分 View all ratings

4

帖子

0

威望

19

eV
积分
23

Level 1 能力者

22#
发表于 Post on 2020-7-1 16:25:07 | 只看该作者 Only view this author
dgdrtd456 发表于 2019-8-16 16:59
过段时间我也写一篇V100计算卡和2080ti游戏卡的速度实测对比。

大佬,你的测试对比出来了没, 求链接

104

帖子

0

威望

457

eV
积分
561

Level 4 (黑子)

23#
发表于 Post on 2020-12-14 20:40:31 | 只看该作者 Only view this author
老师您好,看了您的文章,想请教您一下,我的电脑cpu是6核的,gpu是rtx2080,现在还想装一个闲置的rtx2060,分开跑不同的任务,请问老师这个cup+gpu这样合适吗,谢谢老师

42

帖子

0

威望

230

eV
积分
272

Level 3 能力者

24#
发表于 Post on 2020-12-31 15:42:07 | 只看该作者 Only view this author
我的操作命令直接是gmx_mpi mdrun ***,然后运行情况如图所示,机子是有两块GPU的,我该怎么操作才能利用好计算机性能呢?试了mpirun -np 2 gmx_mpi mdrun 命令,直接就无法运行。请各位大佬指导一下

42

帖子

0

威望

230

eV
积分
272

Level 3 能力者

25#
发表于 Post on 2020-12-31 16:10:10 | 只看该作者 Only view this author
是否是因为当初装软件时装的多节点并行版本,也就是楼主说的第一种并行方式。然而实际运行为单服务器,导致了无法自由设置MPI个数?那这种问题大家有没有解决方法呢?提前谢谢各位老师

903

帖子

37

威望

5324

eV
积分
6967

Level 6 (一方通行)

26#
 楼主 Author| 发表于 Post on 2021-1-1 22:13:13 | 只看该作者 Only view this author
rice 发表于 2020-12-31 16:10
是否是因为当初装软件时装的多节点并行版本,也就是楼主说的第一种并行方式。然而实际运行为单服务器,导致 ...

使用
mpirun -np X
设置mpi个数为X

42

帖子

0

威望

230

eV
积分
272

Level 3 能力者

27#
发表于 Post on 2021-1-2 16:20:39 | 只看该作者 Only view this author
ggdh 发表于 2021-1-1 22:13
使用
mpirun -np X
设置mpi个数为X

不知道为啥,按您的方法还是不能正常运行。后来我重新装了个单节点的2019.6版本,1 MPI +12OpenMP ,比之前的1 MPI +24OpenMP居然还快不少。确实单GPU分开跑任务性价比较高

509

帖子

1

威望

4245

eV
积分
4774

Level 6 (一方通行)

28#
发表于 Post on 2021-1-8 21:00:49 | 只看该作者 Only view this author
注:2018.8版本的mdrun没有-bonded选项

1

帖子

0

威望

58

eV
积分
59

Level 2 能力者

29#
发表于 Post on 2021-4-26 21:26:42 | 只看该作者 Only view this author
感谢分享

4

帖子

0

威望

68

eV
积分
72

Level 2 能力者

30#
发表于 Post on 2021-4-29 23:13:56 | 只看该作者 Only view this author
简单实用,好文!

本版积分规则 Credits rule

手机版 Mobile version|北京科音自然科学研究中心 Beijing Kein Research Center for Natural Sciences|京公网安备 11010502035419号|计算化学公社 — 北京科音旗下高水平计算化学交流论坛 ( 京ICP备14038949号-1 )|网站地图

GMT+8, 2024-11-23 01:03 , Processed in 0.202376 second(s), 30 queries , Gzip On.

快速回复 返回顶部 返回列表 Return to list