计算化学公社

 找回密码 Forget password
 注册 Register
Views: 10399|回复 Reply: 9
打印 Print 上一主题 Last thread 下一主题 Next thread

[任务提交/队列管理] 超算slurm系统提交gmx任务的核数设置问题

[复制链接 Copy URL]

12

帖子

0

威望

209

eV
积分
221

Level 3 能力者

在使用超算slurm系统提交gmx_mpi作业的时候,设置的#SBATCH  --ntasks-per-node=8  
#SBATCH  -cpus-per-task=4

一个节点总共32核,但这么提交却只用了8核,请问老师们原因是啥?怎么修改才能用满32核?

附:作业提交脚本
#! /bin/bash
#SBATCH -p normal
#SBATCH -N 18
#SBATCH -n 144
#SBATCH --ntasks-per-node=8
#SBATCH --cpus-per-task=4
#SBATCH -J run
#SBATCH --gres=dcu:4
#SBATCH --mem=220G
#SBATCH -o 1.o
#SBATCH -e 1.e

module purgemodule
module load compiler/devtoolset/7.3.1 compiler/rocm/2.9 mpi/hpcx/2.4.1/gcc-7.3.1 apps/gromacs-DCU/2018.7/hpcx-v2.4.1-gcc-7.3.1

mpirun  -np 144 gmx_mpi mdrun  -deffnm nvt1 -v -nb gpu -npme 72 -pme cpu

12

帖子

0

威望

209

eV
积分
221

Level 3 能力者

2#
 楼主 Author| 发表于 Post on 2021-5-29 12:07:57 | 只看该作者 Only view this author
补一个图

这个图是不是说明一个插槽共8核,只用了2核,一节点4插槽共用了8核。

2301

帖子

1

威望

5473

eV
积分
7794

Level 6 (一方通行)

3#
发表于 Post on 2021-5-29 13:28:58 | 只看该作者 Only view this author
你自己看看 -N -n 啥意义不就明白了。
High-Performance Computing for You
为您专属定制的高性能计算解决方案

更多讯息,请访问:
https://labitc.top
http://tophpc.top:8080
电邮: ask@hpc4you.top

12

帖子

0

威望

209

eV
积分
221

Level 3 能力者

4#
 楼主 Author| 发表于 Post on 2021-5-29 18:43:01 | 只看该作者 Only view this author
abin 发表于 2021-5-29 13:28
你自己看看 -N -n 啥意义不就明白了。

我是想每个节点用8个MPI进程,每个MPI进程用4核、OpenMP并行运行,请问该怎么设置?感谢老师了!

2301

帖子

1

威望

5473

eV
积分
7794

Level 6 (一方通行)

5#
发表于 Post on 2021-5-29 20:21:56 | 只看该作者 Only view this author
google for slurm openMP
High-Performance Computing for You
为您专属定制的高性能计算解决方案

更多讯息,请访问:
https://labitc.top
http://tophpc.top:8080
电邮: ask@hpc4you.top

136

帖子

3

威望

4186

eV
积分
4382

Level 6 (一方通行)

6#
发表于 Post on 2021-5-30 00:07:01 | 只看该作者 Only view this author
“#SBATCH --cpus-per-task=4”只是设置了一个上限,每个线程的CPU使用率最高可以到400%

可以在load了Gromacs之后加一个“export OMP_NUM_THREADS=4”, 看看能不能提高GMX线程的CPU使用率

2301

帖子

1

威望

5473

eV
积分
7794

Level 6 (一方通行)

7#
发表于 Post on 2021-5-30 09:10:03 | 只看该作者 Only view this author
补充一下:
### 2 compute nodes
#SBATCH --nodes=2

### 4 MPI ranks
#SBATCH --ntasks=4

### 2 MPI ranks per node
#SBATCH --ntasks-per-node=2

### 3 tasks per MPI rank
#SBATCH --cpus-per-task=3

### the number of OpenMP threads
export OMP_NUM_THREADS=$SLURM_CPUS_PER_TASK
所以,以上的内容就是:
来两个节点;每个节点上运行两个进程,每一个进程由三个线程负载。
你会在nodeA和nodeB,
分别看到两个进程,每一个进程应该都是300%的CPU占用率。

这玩意,slurm手册上都有。
High-Performance Computing for You
为您专属定制的高性能计算解决方案

更多讯息,请访问:
https://labitc.top
http://tophpc.top:8080
电邮: ask@hpc4you.top

12

帖子

0

威望

209

eV
积分
221

Level 3 能力者

8#
 楼主 Author| 发表于 Post on 2021-5-30 13:50:54 | 只看该作者 Only view this author
感谢两位老师解答,不过我设了export OMP_NUM_THREADS=4之后每节点还是只用了8核,像上图一样,且log文件里显示“Using 4 OpenMP threads per MPI process”。我就纳闷了,真的不知道为什么!

2301

帖子

1

威望

5473

eV
积分
7794

Level 6 (一方通行)

9#
发表于 Post on 2021-5-30 14:22:10 | 只看该作者 Only view this author
wzx 发表于 2021-5-30 13:50
感谢两位老师解答,不过我设了export OMP_NUM_THREADS=4之后每节点还是只用了8核,像上图一样,且log文件里 ...

编译有没有开启openMP + MPI模式?
High-Performance Computing for You
为您专属定制的高性能计算解决方案

更多讯息,请访问:
https://labitc.top
http://tophpc.top:8080
电邮: ask@hpc4you.top

12

帖子

0

威望

209

eV
积分
221

Level 3 能力者

10#
 楼主 Author| 发表于 Post on 2021-5-30 16:04:13 | 只看该作者 Only view this author
超算中心编译好的,我直接用的。  我试试重新编译。

本版积分规则 Credits rule

手机版 Mobile version|北京科音自然科学研究中心 Beijing Kein Research Center for Natural Sciences|京公网安备 11010502035419号|计算化学公社 — 北京科音旗下高水平计算化学交流论坛 ( 京ICP备14038949号-1 )|网站地图

GMT+8, 2024-11-24 04:08 , Processed in 0.197188 second(s), 24 queries , Gzip On.

快速回复 返回顶部 返回列表 Return to list