计算化学公社

 找回密码 Forget password
 注册 Register
Views: 400|回复 Reply: 2
打印 Print 上一主题 Last thread 下一主题 Next thread

[并行运算] 求助:OPENMPI并行VASP在使用一段时间后失效的问题

[复制链接 Copy URL]

7

帖子

0

威望

439

eV
积分
446

Level 3 能力者

跳转到指定楼层 Go to specific reply
楼主
各位老师好,我使用AOCC_AOCL_OpenMPI成功编译VASP后,进行了测试,使用NCORE=6,mpirun -np 24能跑出理想的速度,并且在运行之后也显示running   24 mpi-ranks, on    1 nodes 。
后面电脑经历了几次开关机,安装过诸如pymatgen等软件后,我进行了实战,使用的依然是NCORE=6,mpirun -np 24,但是返回的却是running   1 mpi-ranks, on    1 nodes。后台24个核心全部被占用,根据结果可以看出现在是用24个核心分别去跑这个实战案例。
于是,我重新跑了测试案例,这时候在NCORE=6,mpirun -np 24下,测试案例也返回running   1 mpi-ranks, on    1 nodes,也是24个核心在分别跑测试案例,请问公社里的老师们,遇到这种情况该怎么排查问题所在。

2407

帖子

1

威望

5948

eV
积分
8375

Level 6 (一方通行)

2#
发表于 Post on 2024-12-6 09:21:07 | 只看该作者 Only view this author
使用调度器/work load manager,
比如slurm
勿手动控制MPI进程。
High-Performance Computing for You
为您专属定制的高性能计算解决方案

更多讯息,请访问:
https://labitc.top
http://tophpc.top:8080
电邮: ask@hpc4you.top

7

帖子

0

威望

439

eV
积分
446

Level 3 能力者

3#
 楼主 Author| 发表于 Post on 2024-12-6 17:17:42 | 只看该作者 Only view this author
abin 发表于 2024-12-6 09:21
使用调度器/work load manager,
比如slurm
勿手动控制MPI进程。

谢谢老师回答,我尝试一下slurm。

本版积分规则 Credits rule

手机版 Mobile version|北京科音自然科学研究中心 Beijing Kein Research Center for Natural Sciences|京公网安备 11010502035419号|计算化学公社 — 北京科音旗下高水平计算化学交流论坛 ( 京ICP备14038949号-1 )|网站地图

GMT+8, 2025-8-12 18:32 , Processed in 0.415278 second(s), 21 queries , Gzip On.

快速回复 返回顶部 返回列表 Return to list