计算化学公社

 找回密码 Forget password
 注册 Register
Views: 1606|回复 Reply: 2
打印 Print 上一主题 Last thread 下一主题 Next thread

[GROMACS] 使用hbond 出现Segmentation fault【已解决】

[复制链接 Copy URL]

2

帖子

0

威望

29

eV
积分
31

Level 2 能力者

跳转到指定楼层 Go to specific reply
楼主
本帖最后由 thezsd 于 2024-6-25 06:54 编辑

gromacs为2023,服务器内存200g,在运行完成25ns后使用hbond计算氢键,具体如下:


echo -e “1\n13” | gmx_mpi hbond -f md.xtc -s md.tpr -n index.ndx -num -hbm -hbn



Select a group: Selected 1: 'Protein'
Select a group: Selected 13: 'MOL'
Checking for overlap in atoms between Protein and MOL
Calculating hydrogen bonds between Protein (11283 atoms) and MOL (65 atoms)
Found 982 donors and 2019 acceptors
Making hbmap structure...done.
Reading frame       0 time    0.000   
Will do grid-search on 25x25x25 grid, rcut=0.34999999
Frame loop parallelized with OpenMP using 128 threads.
Reading frame   12000 time 24000.000   
Found 52 different hydrogen bonds in trajectory
Found 114 different atom-pairs within hydrogen bonding distance
Merging hbonds with Acceptor and Donor swapped
325/982[comput24:41390:0:41390] Caught signal 11 (Segmentation fault: address not mapped to object at address (nil))
==== backtrace (tid:  41390) ====
0 0x0000000000014070 .annobin_sigaction.c()  sigaction.c:0
1 0x0000000000fffbc3 _INTERNALb7fb3a0b::do_merge()  gmx_hbond.cpp:0
2 0x0000000000fff4c9 _INTERNALb7fb3a0b::merge_hb()  gmx_hbond.cpp:0
3 0x0000000000ff7fc5 gmx_hbond()  ???:0
4 0x0000000000e17207 gmx::CommandLineModuleManager::run()  ???:0
5 0x000000000040aa8a main()  ???:0
6 0x0000000000027453 __libc_start_main()  ???:0
7 0x000000000040a929 _start()  ???:0
/opt/gridview/slurm/spool/slurmd/job15569/slurm_script: line 20: 41389 Done                    echo -e "1\n13"
     41390 Segmentation fault      (core dumped) | gmx_mpi hbond -f md.xtc -s md.tpr -n index.ndx -num -hbm -hbn


请问有大佬知道问题可能出在哪里吗

45

帖子

0

威望

165

eV
积分
210

Level 3 能力者

2#
发表于 Post on 2024-6-24 16:53:04 | 只看该作者 Only view this author
建议:
1.降低并行数。
2.先跑2000帧试试。

2

帖子

0

威望

29

eV
积分
31

Level 2 能力者

3#
 楼主 Author| 发表于 Post on 2024-6-25 06:53:07 | 只看该作者 Only view this author
低调的板凳 发表于 2024-6-24 16:53
建议:
1.降低并行数。
2.先跑2000帧试试。

多谢,我尝试了你的建议,依旧出现了问题
随后我换了软件,使用了gmx(gromacs2023.2),而不是gmx_mpi,问题得到了解决,即使在128并行,跑全部帧的情况下,依旧可以正常运行。

本版积分规则 Credits rule

手机版 Mobile version|北京科音自然科学研究中心 Beijing Kein Research Center for Natural Sciences|京公网安备 11010502035419号|计算化学公社 — 北京科音旗下高水平计算化学交流论坛 ( 京ICP备14038949号-1 )|网站地图

GMT+8, 2026-2-22 06:28 , Processed in 0.201007 second(s), 26 queries , Gzip On.

快速回复 返回顶部 返回列表 Return to list