计算化学公社

 找回密码 Forget password
 注册 Register
Views: 280|回复 Reply: 1
打印 Print 上一主题 Last thread 下一主题 Next thread

[GROMACS] 前期GPU已经跑了接近350ns,换CPU80核继续运行md模拟时,关于PME rank报错运行被终止

[复制链接 Copy URL]

18

帖子

0

威望

49

eV
积分
67

Level 2 能力者

跳转到指定楼层 Go to specific reply
楼主
本帖最后由 Wqyin 于 2025-5-16 16:41 编辑

各位老师好,我是用超算平台Gromacs2020.6版本跑的模拟。由于GPU资源紧张,不确定能不能排上,也不确定哪个速度快,我就先用intel-MPI -np 40 纯CPU跑着,然后一边排GPU队列,一边不定时把前面产生的过程的文件(trr cpt log等)都复制到 GPU排队的任务目录下,排上后GPU -ntomp 30继续跑,这个是没问题的,现在还在正常跑着。
我看CPU40跑得就比GPU这边慢20%左右,我就想看一下80核是不是比GPU跑更快,就把GPU跑的文件再不定时复制到CPU 80核排队的目录下,排上后运行就出现了如下报错和提示,不知道是什么原因,和MPI核数有关吗?麻烦各位老师帮忙看一下。
运行命令:gmx_mpi mdrun -s md.tpr -cpi md.cpt -v -deffnm md -dlb  
yesstarting mdrun 'Protein in water'
500000000 steps, 1000000.0 ps (continuing from step 174963600, 349927.2 ps).
-------------------------------------------------------
核心报错:Fatal error:
24 particles communicated to PME rank 13 are more than 2/3 times the cut-off
out of the domain decomposition cell of their charge group in dimension y.
This usually means that your system is not well equilibrated.

其他提示:
Compiled SIMD: AVX2_256, but for this host/run AVX_512 might be better (see
log).
Using 80 MPI processes
Non-default thread affinity set, disabling internal thread affinity
Using 1 OpenMP thread per MPI process

MPI rank:    69 (out of 80)


327

帖子

2

威望

2671

eV
积分
3038

Level 5 (御坂)

2#
发表于 Post on 2025-5-17 16:26:47 | 只看该作者 Only view this author
游客,本帖隐藏的内容需要积分高于 25 才可浏览,您当前积分为 0

本版积分规则 Credits rule

手机版 Mobile version|北京科音自然科学研究中心 Beijing Kein Research Center for Natural Sciences|京公网安备 11010502035419号|计算化学公社 — 北京科音旗下高水平计算化学交流论坛 ( 京ICP备14038949号-1 )|网站地图

GMT+8, 2025-8-14 04:13 , Processed in 0.153437 second(s), 20 queries , Gzip On.

快速回复 返回顶部 返回列表 Return to list