“第10届量子化学波函数分析与Multiwfn程序培训班将于5月4-8日于北京举办,这是一次性完整、系统学习波函数分析的各种理论知识和全面掌握强大的Multiwfn波函数分析程序使用的最不可错过的机会!请点击此链接查看详情和报名方式,欢迎参加!

“第18届北京科音分子动力学与GROMACS培训班” 将于5月23-26日于北京举办。这是一次性全面、系统学习分子动力学模拟知识和最流行的分子动力学程序GROMACS的关键机会!报名正在进行中,请点击此链接查看详情,欢迎参加!

计算化学公社

 找回密码 Forget password
 注册 Register
Views: 190|回复 Reply: 5
打印 Print 上一主题 Last thread 下一主题 Next thread

[并行运算] 如何提高服务器并行计算效率

[复制链接 Copy URL]

14

帖子

0

威望

280

eV
积分
294

Level 3 能力者

课题组有一台双路共96核256G内存的服务器,平时主要跑高斯、ORCA计算,未联网。
问题:平时组内提交任务都是用U盘拷过去直接在终端提交,经常占满甚至超过物理核心数。请问这样是否会影响计算效率甚至导致任务报错?需不需要搞个排队调度?

202604141718511448..jpg (80.55 KB, 下载次数 Times of downloads: 1)

202604141718511448..jpg

2

帖子

0

威望

27

eV
积分
29

Level 2 能力者

2#
发表于 Post on 3 day ago | 只看该作者 Only view this author
个人经验,只要内存和外存不爆,超cpu不太多的化顶多算的慢一点、系统卡一点。
是否调度至少要考虑 1. 你是否需要频繁地对任务计算的顺序做改动或者去kill任务等等;
2. 你们组的做事方式。
Please call me Маккишка (also as MKK for short)

6

帖子

0

威望

1704

eV
积分
1710

Level 5 (御坂)

3#
发表于 Post on 3 day ago | 只看该作者 Only view this author
Maкишкa_MKK 发表于 2026-4-14 18:36
个人经验,只要内存和外存不爆,超cpu不太多的化顶多算的慢一点、系统卡一点。
是否调度至少要考虑 1. 你 ...

其实超cpu一般也感知不到卡,用户能感知到的系统卡顿一般都是内存爆了

14

帖子

0

威望

280

eV
积分
294

Level 3 能力者

4#
 楼主 Author| 发表于 Post on 3 day ago | 只看该作者 Only view this author
Maкишкa_MKK 发表于 2026-4-14 18:36
个人经验,只要内存和外存不爆,超cpu不太多的化顶多算的慢一点、系统卡一点。
是否调度至少要考虑 1. 你 ...

一般不会去kill任务,那这样看来没必要搞什么调度系统了。之前组里用学校服务器,那个是集群,后来学校服务器宕机了,老师才搞了台这个,组里人都不太会linux,只是惯例地跑任务,拷文件。

479

帖子

3

威望

2934

eV
积分
3473

Level 5 (御坂)

5#
发表于 Post on 前天 01:53 | 只看该作者 Only view this author
Xander 发表于 2026-4-14 20:29
一般不会去kill任务,那这样看来没必要搞什么调度系统了。之前组里用学校服务器,那个是集群,后来学校服 ...

调度系统可以帮你解决任务排队、绑核等问题,比如slurm就可以直接配置用cgroup绑核,配置合适的numa策略,如果不了解numa是什么的话可以看《NUMA策略对Gaussian运算速度影响的小研究》。
我之前还在EPYC 7C13上观察到类似CP2K这种程序如果同时跑多个任务的话可能会错误的绑到同一个物理内核上,使用slurm的cgroup设了CPU亲和性以后绑核行为正常,效率正常。
slurm本身是apt就能装的,那个版本也够用了。不联网的话需要基于本地包来apt装或者编译安装,折腾一点但也是能装的。

2432

帖子

1

威望

6265

eV
积分
8717

Level 6 (一方通行)

6#
发表于 Post on 前天 11:22 | 只看该作者 Only view this author
调度器本身并不会消耗多少计算资源;
调度器slurm可以让MPI进程老老实实锁定/绑定到指定的核心上, 避免在不同核心之间来回切换带来的额外开销。

使用调度器, 也可以做到在Web界面点击鼠标操作。

High-Performance Computing for You
为您专属定制的高性能计算解决方案

更多讯息,请访问:
https://labitc.top
http://tophpc.top:8080
电邮: ask@hpc4you.top

本版积分规则 Credits rule

手机版 Mobile version|北京科音自然科学研究中心 Beijing Kein Research Center for Natural Sciences|京公网安备 11010502035419号|计算化学公社 — 北京科音旗下高水平计算化学交流论坛 ( 京ICP备14038949号-1 )|网站地图

GMT+8, 2026-4-17 01:00 , Processed in 0.191894 second(s), 23 queries , Gzip On.

快速回复 返回顶部 返回列表 Return to list