计算化学公社

 找回密码 Forget password
 注册 Register
楼主 Author: lue611
打印 Print 上一主题 Last thread 下一主题 Next thread

[任务提交/队列管理] slurm提交vasp作业,作业会堆到同样的核心上

[复制链接 Copy URL]

5万

帖子

99

威望

5万

eV
积分
112354

管理员

公社社长

16#
发表于 Post on 2024-4-14 02:32:06 | 只看该作者 Only view this author
讨论技术问题就事论事,别扯到个人上。保持理性、技术层面的交流,违规者禁言处理
北京科音自然科学研究中心http://www.keinsci.com)致力于计算化学的发展和传播,长期开办高质量的各种计算化学类培训:初级量子化学培训班中级量子化学培训班高级量子化学培训班量子化学波函数分析与Multiwfn程序培训班分子动力学与GROMACS培训班CP2K第一性原理计算培训班,内容介绍以及往届资料购买请点击相应链接查看。这些培训是计算化学从零快速入门以及进一步全面系统性提升研究水平的高速路!培训各种常见问题见《北京科音办的培训班FAQ》
欢迎加入“北京科音”微信公众号获取北京科音培训的最新消息、避免错过网上有价值的计算化学文章!
欢迎加入人气非常高、专业性特别强的综合性理论与计算化学交流QQ群“思想家公社QQ群”:1号:18616395,2号:466017436,3号:764390338,搜索群号能搜到哪个说明目前哪个能加,合计9000人。北京科音培训班的学员在群中可申请VIP头衔,提问将得到群主Sobereva的最优先解答。
思想家公社的门口Blog:http://sobereva.com(发布大量原创计算化学相关博文)
Multiwfn主页:http://sobereva.com/multiwfn(十分强大的量子化学波函数分析程序)
ResearchGate:https://www.researchgate.net/profile/Tian_Lu
Money and papers are rubbish, get a real life!

38

帖子

0

威望

878

eV
积分
916

Level 4 (黑子)

17#
发表于 Post on 2024-4-19 11:01:46 | 只看该作者 Only view this author
本帖最后由 乘风万里 于 2024-4-19 11:14 编辑

你认为是你用的mpirun的原因,正常应该是srun --mpi=pmi2 vasp_gam。之前有人问过我类似的问题,改成srun --mpi=pmi2 可以解决。而且AMD的VASP兼容性没有大的问题,因为目前大的公司采购的大多数都是AMD的服务器,比如各种xx云,我在上面运行各种VASP还没发现你说的问题。
具体MPI任务以什么方式启动,需要看你Slurm跟MPI的兼容性。
参考资料:
1. https://hpc-uit.readthedocs.io/e ... nning_mpi_jobs.html
2. https://hpclib.com/hpc/Scheduler/Slurm/mpi_guide.html

29

帖子

0

威望

443

eV
积分
472

Level 3 能力者

18#
 楼主 Author| 发表于 Post on 2024-4-20 17:30:39 | 只看该作者 Only view this author
乘风万里 发表于 2024-4-19 11:01
你认为是你用的mpirun的原因,正常应该是srun --mpi=pmi2 vasp_gam。之前有人问过我类似的问题,改成srun - ...

试过这个,核心分配也是正常的,但是计算速度似乎和一个核心在跑差不多。。。

5

帖子

0

威望

218

eV
积分
223

Level 3 能力者

19#
发表于 Post on 2024-4-22 15:55:49 | 只看该作者 Only view this author
本帖最后由 chantau 于 2024-4-23 14:12 编辑
lue611 发表于 2024-4-13 17:24
amd工程师是厂商联系的,他们的公司规模不算小,肯定能联系到比你水平强的
然后是,厂商在amd和intel上 ...

厂商的责任心要画一个大大的问号好吧

29

帖子

0

威望

443

eV
积分
472

Level 3 能力者

20#
 楼主 Author| 发表于 Post on 2024-4-23 11:49:26 | 只看该作者 Only view this author
chantau 发表于 2024-4-22 15:55
厂商的责任心要到一个大大的问号好吧

如果他们调不好的话肯定要退货换成intel的

1060

帖子

0

威望

3256

eV
积分
4316

Level 6 (一方通行)

21#
发表于 Post on 2024-5-4 16:31:22 | 只看该作者 Only view this author
乘风万里 发表于 2024-4-19 11:01
你认为是你用的mpirun的原因,正常应该是srun --mpi=pmi2 vasp_gam。之前有人问过我类似的问题,改成srun - ...

借楼讨论一下

OpenMPI 官网上的说法似乎跟 srun 有矛盾。OpenMPI 官方网推荐用 mpirun 来提交任务,反而不建议用 srun 来提交任务。

链接如下
https://docs.open-mpi.org/en/v5.0.x/launching-apps/slurm.html


38

帖子

0

威望

878

eV
积分
916

Level 4 (黑子)

22#
发表于 Post on 2024-5-5 00:58:00 | 只看该作者 Only view this author
乐平 发表于 2024-5-4 16:31
借楼讨论一下

OpenMPI 官网上的说法似乎跟 srun 有矛盾。OpenMPI 官方网推荐用 mpirun 来提交任务,反 ...

对的,我发的第一个链接中说了这个问题, Intel MPI 的有些版本下Slurm跟mpirun不兼容,OpenMPI的有些版本下Slurm跟srun不兼容。我的意思是想解释这个问题不是AMD CPU的锅,而是MPI跟Slurm的兼容性问题...比如编译个Intel MPI 版本的VASP测试,或者把srun --mpi=pmi2跟mpirun都试试。

本版积分规则 Credits rule

手机版 Mobile version|北京科音自然科学研究中心 Beijing Kein Research Center for Natural Sciences|京公网安备 11010502035419号|计算化学公社 — 北京科音旗下高水平计算化学交流论坛 ( 京ICP备14038949号-1 )|网站地图

GMT+8, 2024-11-23 22:30 , Processed in 0.322931 second(s), 23 queries , Gzip On.

快速回复 返回顶部 返回列表 Return to list