计算化学公社

 找回密码 Forget password
 注册 Register
Views: 1548|回复 Reply: 11
打印 Print 上一主题 Last thread 下一主题 Next thread

[CP2K] CP2K并行速度缓慢,求助帮忙看下如何提速。

[复制链接 Copy URL]

18

帖子

0

威望

182

eV
积分
200

Level 3 能力者

    我的服务器是两个节点组的小集群,CPU是8375C*2 64核处理器,内存是256G的,CP2k版本是8.2的,这个是买服务器商家用toolchain直接给编译好的,用的cp2k的psmp版本,提交任务是用slurm队列提交的。管理员告诉我关了超线程了,所以提交脚本直接调用的是物理核心,OMP_NUM_THREADS=1,如图1所示。
    之前老听别人说cp2k计算如何快,但是我总感觉我的算的没有那么快。学生参加了第一届科音cp2k培训班,回来用cp2k复现MIL125.cif的2*2*2超胞单点能计算,计算方法用的GFN1-xTB,严格按照讲义用Multiwfn生成的inp文件。唯一不一样的是用的服务器不同,cp2k编译方式不同。发现速度远低于sob老师36核机子的计算速度(用时4分钟)。我后来测试了单节点16,32,64核,以及2节点128核,用时均远超4分钟,具体测试结果如图2。请各位帮忙看下,是否有速度提升空间,如何提速?万分感谢

QQ图片20230403083508.jpg (56.32 KB, 下载次数 Times of downloads: 4)

cp2k任务提交脚本

cp2k任务提交脚本

QQ截图20230403083341.png (38.25 KB, 下载次数 Times of downloads: 8)

并行计算速度测试

并行计算速度测试

5万

帖子

99

威望

5万

eV
积分
112384

管理员

公社社长

2#
发表于 Post on 2023-4-3 10:13:53 | 只看该作者 Only view this author
与其设OMP_NUM_THREADS=1,还不如直接用popt版
确保任务已经确实恰当并行了。可以监控CPU占用,或者看输出文件里显示的并行情况
也可能编译有问题,建议自己编译个2022.2或2023.1。8.1太老了

评分 Rate

参与人数
Participants 1
eV +4 收起 理由
Reason
star2128 + 4 谢谢

查看全部评分 View all ratings

北京科音自然科学研究中心http://www.keinsci.com)致力于计算化学的发展和传播,长期开办高质量的各种计算化学类培训:初级量子化学培训班中级量子化学培训班高级量子化学培训班量子化学波函数分析与Multiwfn程序培训班分子动力学与GROMACS培训班CP2K第一性原理计算培训班,内容介绍以及往届资料购买请点击相应链接查看。这些培训是计算化学从零快速入门以及进一步全面系统性提升研究水平的高速路!培训各种常见问题见《北京科音办的培训班FAQ》
欢迎加入“北京科音”微信公众号获取北京科音培训的最新消息、避免错过网上有价值的计算化学文章!
欢迎加入人气非常高、专业性特别强的综合性理论与计算化学交流QQ群“思想家公社QQ群”:1号:18616395,2号:466017436,3号:764390338,搜索群号能搜到哪个说明目前哪个能加,合计9000人。北京科音培训班的学员在群中可申请VIP头衔,提问将得到群主Sobereva的最优先解答。
思想家公社的门口Blog:http://sobereva.com(发布大量原创计算化学相关博文)
Multiwfn主页:http://sobereva.com/multiwfn(十分强大的量子化学波函数分析程序)
ResearchGate:https://www.researchgate.net/profile/Tian_Lu
Money and papers are rubbish, get a real life!

18

帖子

0

威望

182

eV
积分
200

Level 3 能力者

3#
 楼主 Author| 发表于 Post on 2023-4-3 10:30:38 | 只看该作者 Only view this author
好的,我按照建议试试去。感谢

2301

帖子

1

威望

5477

eV
积分
7798

Level 6 (一方通行)

4#
发表于 Post on 2023-4-3 10:47:01 | 只看该作者 Only view this author
“商家用toolchain直接给编译好”
也许没有针对处理器做编译优化? 猜测....
High-Performance Computing for You
为您专属定制的高性能计算解决方案

更多讯息,请访问:
https://labitc.top
http://tophpc.top:8080
电邮: ask@hpc4you.top

18

帖子

0

威望

182

eV
积分
200

Level 3 能力者

5#
 楼主 Author| 发表于 Post on 2023-4-4 16:31:18 | 只看该作者 Only view this author
abin 发表于 2023-4-3 10:47
“商家用toolchain直接给编译好”
也许没有针对处理器做编译优化? 猜测....

版本问题,更新2023版cp2k后,速度是8.2版本的4倍多

18

帖子

0

威望

182

eV
积分
200

Level 3 能力者

6#
 楼主 Author| 发表于 Post on 2023-4-4 16:45:51 | 只看该作者 Only view this author
sobereva 发表于 2023-4-3 10:13
与其设OMP_NUM_THREADS=1,还不如直接用popt版
确保任务已经确实恰当并行了。可以监控CPU占用,或者看输出 ...

太感谢了,按照建议更新到2023版后,速度提升很显著,之前480s算完,现在100秒左右算完。我现在又有一个新问题了,我用命令mpirun -np 8 -x OMP_NUM_THREADS=8 cp2k.psmp -i cp2k.inp命令行运行任务,此时OMP_NUM_THREADS是生效的,并且测试不同的np/OMP_NUM_THREADS组合,4/16,8/8,16/4,32/2,64/1的用时分别是128s,118s,109s,105s,102s和100s。我用slurm脚本提交任务,OMP_NUM_THREADS无论设置成几,最终运行效果都和OMP_NUM_THREADS=1是一模一样的。请帮忙看下slurm脚本应该怎么写,才能让它生效啊?我感觉如果算原子数小的体系,OMP_NUM_THREADS=1肯定不是最优的。
任务提交脚本就是我这篇帖子中的图1。谢谢啦

320

帖子

1

威望

5361

eV
积分
5701

Level 6 (一方通行)

7#
发表于 Post on 2023-4-4 18:46:59 | 只看该作者 Only view this author
star2128 发表于 2023-4-4 16:45
太感谢了,按照建议更新到2023版后,速度提升很显著,之前480s算完,现在100秒左右算完。我现在又有一个 ...

我这里测下来的结果(7B13*2)来看就是OMP设置成1最快 即使是H2O-32这种20多秒完成的任务也还是纯的mpi运行更快,也就是直接用popt就是最快的了。

2301

帖子

1

威望

5477

eV
积分
7798

Level 6 (一方通行)

8#
发表于 Post on 2023-4-4 19:05:53 | 只看该作者 Only view this author
star2128 发表于 2023-4-4 16:45
太感谢了,按照建议更新到2023版后,速度提升很显著,之前480s算完,现在100秒左右算完。我现在又有一个 ...

https://gitee.com/hpc4you/hpc/tree/master/doc
这里的PDF中,
Slurm 自我修养章节看一下,
自己动手。

评分 Rate

参与人数
Participants 1
eV +2 收起 理由
Reason
star2128 + 2 赞!

查看全部评分 View all ratings

High-Performance Computing for You
为您专属定制的高性能计算解决方案

更多讯息,请访问:
https://labitc.top
http://tophpc.top:8080
电邮: ask@hpc4you.top

2301

帖子

1

威望

5477

eV
积分
7798

Level 6 (一方通行)

9#
发表于 Post on 2023-4-4 19:07:26 | 只看该作者 Only view this author
paramecium86 发表于 2023-4-4 18:46
我这里测下来的结果(7B13*2)来看就是OMP设置成1最快 即使是H2O-32这种20多秒完成的任务也还是纯的mpi运 ...

ssmp
多节点并行的时候,会有点用。

单机跑,没有多大差异。

官方说,OMP THREAD =1
ssmp == popt
High-Performance Computing for You
为您专属定制的高性能计算解决方案

更多讯息,请访问:
https://labitc.top
http://tophpc.top:8080
电邮: ask@hpc4you.top

1060

帖子

0

威望

3262

eV
积分
4322

Level 6 (一方通行)

10#
发表于 Post on 2023-4-4 19:14:24 | 只看该作者 Only view this author
abin 发表于 2023-4-4 19:05
https://gitee.com/hpc4you/hpc/tree/master/doc
这里的PDF中,
Slurm 自我修养章节看一下,

链接里有 4 个 pdf 文件,要看哪一个呢? 还是说这 4 个版本都要看?

2301

帖子

1

威望

5477

eV
积分
7798

Level 6 (一方通行)

11#
发表于 Post on 2023-4-4 20:21:53 | 只看该作者 Only view this author
乐平 发表于 2023-4-4 19:14
链接里有 4 个 pdf 文件,要看哪一个呢? 还是说这 4 个版本都要看?

Ctrl + F
自我修养
High-Performance Computing for You
为您专属定制的高性能计算解决方案

更多讯息,请访问:
https://labitc.top
http://tophpc.top:8080
电邮: ask@hpc4you.top

18

帖子

0

威望

182

eV
积分
200

Level 3 能力者

12#
 楼主 Author| 发表于 Post on 2023-4-4 21:54:11 | 只看该作者 Only view this author
abin 发表于 2023-4-4 19:05
https://gitee.com/hpc4you/hpc/tree/master/doc
这里的PDF中,
Slurm 自我修养章节看一下,

好的,学习学习

本版积分规则 Credits rule

手机版 Mobile version|北京科音自然科学研究中心 Beijing Kein Research Center for Natural Sciences|京公网安备 11010502035419号|计算化学公社 — 北京科音旗下高水平计算化学交流论坛 ( 京ICP备14038949号-1 )|网站地图

GMT+8, 2024-11-25 11:41 , Processed in 0.226572 second(s), 24 queries , Gzip On.

快速回复 返回顶部 返回列表 Return to list