计算化学公社

 找回密码 Forget password
 注册 Register
Views: 3415|回复 Reply: 3
打印 Print 上一主题 Last thread 下一主题 Next thread

[ORCA] ORCA-4.2.x 与OpenMPI-3.1.4联用出错求助

[复制链接 Copy URL]

38

帖子

0

威望

435

eV
积分
473

Level 3 能力者

跳转到指定楼层 Go to specific reply
楼主
ORCA新手,在使用4.2.1以及4.2.0,且对应openmpi3.1.4时,计算会报错如下:
Atom  16H    basis set group =>   2
Atom  17H    basis set group =>   2
Atom  18H    basis set group =>   2
Atom  19H    basis set group =>   2
Atom  20H    basis set group =>   2
Atom  21H    basis set group =>   2
Atom  22H    basis set group =>   2
Atom  23H    basis set group =>   2

ORCA finished by error termination in GTOInt
Calling Command: mpirun -np 64  /public/home/zdwlgc09/bin/ORCA/orca_4_2_1_linux_x86-64_shared_openmpi314/orca_gtoint_mpi t1.int.tmp t1
[file orca_tools/qcmsg.cpp, line 458]:
  .... aborting the run

ibpthread.so.0(+0xf5d0)[0x2b8cc03715d0]
[c10r2n05:102000] [ 1] /public/home/zdwlgc09/bin/OPENMPI/openmpi3.1.4/lib/libopen-pal.so.40(+0xac128)[0x2b8cbf1b9128]
[c10r2n05:102000] [ 2] /public/home/zdwlgc09/bin/OPENMPI/openmpi3.1.4/lib/libopen-pal.so.40(+0xad817)[0x2b8cbf1ba817]
[c10r2n05:102000] [ 3] /public/home/zdwlgc09/bin/OPENMPI/openmpi3.1.4/lib/libopen-pal.so.40(opal_hwloc1117_hwloc_topology_load+0x12d)[0x2b8cbf1cd3ed]
[c10r2n05:102000] [ 4] /public/home/zdwlgc09/bin/OPENMPI/openmpi3.1.4/lib/libopen-pal.so.40(opal_hwloc_base_get_topology+0x56c)[0x2b8cbf19ba0c]
[c10r2n05:102000] [ 5] /public/home/zdwlgc09/bin/OPENMPI/openmpi3.1.4/lib/openmpi/mca_ess_hnp.so(+0x4ec5)[0x2b8cc282eec5]
[c10r2n05:102000] [ 6] /public/home/zdwlgc09/bin/OPENMPI/openmpi3.1.4/lib/libopen-rte.so.40(orte_init+0x291)[0x2b8cbee72f01]
[c10r2n05:102000] [ 7] /public/home/zdwlgc09/bin/OPENMPI/openmpi3.1.4/lib/libopen-rte.so.40(orte_submit_init+0x6d7)[0x2b8cbeee33b7]
[c10r2n05:102000] [ 8] mpirun[0x400faf]
[c10r2n05:102000] [ 9] /lib64/libc.so.6(__libc_start_main+0xf5)[0x2b8cc05a03d5]
[c10r2n05:102000] [10] mpirun[0x400e2e]
[c10r2n05:102000] *** End of error message ***
[file orca_tools/qcmsg.cpp, line 458]:


提交作业的脚本里写入了相关PATH:
module purge
export PATH=/public/home/zdwlgc09/bin/ORCA/orca_4_2_1_linux_x86-64_shared_openmpi314:$PATH
export LD_LIBRARY_PATH=/public/home/zdwlgc09/bin/ORCA/orca_4_2_1_linux_x86-64_shared_openmpi314:$LD_LIBRARY_PATH
export PATH=/public/home/zdwlgc09/bin/OPENMPI/openmpi3.1.4/bin:$PATH
export LD_LIBRARY_PATH=/public/home/zdwlgc09/bin/OPENMPI/openmpi3.1.4/lib:$LD_LIBRARY_PATH

     /public/home/zdwlgc09/bin/ORCA/orca_4_2_1_linux_x86-64_shared_openmpi314/orca t1.inp >out

我在orca forum上找到了同样的问题反馈:https://orcaforum.kofo.mpg.de/viewtopic.php?f=11&t=6190
但没有解决办法 。
求助各位有无解决办法,谢谢各位

2425

帖子

1

威望

6197

eV
积分
8642

Level 6 (一方通行)

2#
发表于 Post on 2022-2-15 08:24:02 | 只看该作者 Only view this author
如果你的集群有singularity,
试试这个方案, http://bbs.keinsci.com/thread-26418-1-1.html.

鼓掌原因是, mpi问题.

你提到的论坛中, 也有提到如何debug并定位问题.

基本的逻辑是, 如果采用XX配置方案有问题, 那么把XX配置方案重复搞一遍, 肯定还是有问题的.

另, 我也在集群跑ORCA, 4.2.0, 4,2,1, 5.0.1, 5.0.2,
无论都是我提供的singularity模式, 或者编译OpenMPI并搭配下载的原始版本,
都运行正常.
High-Performance Computing for You
为您专属定制的高性能计算解决方案

更多讯息,请访问:
https://labitc.top
http://tophpc.top:8080
电邮: ask@hpc4you.top

4291

帖子

4

威望

9567

eV
积分
13938

Level 6 (一方通行)

MOKIT开发者

3#
发表于 Post on 2022-2-15 09:27:50 | 只看该作者 Only view this author
4.2.x过时了。既然有最新版,又是免费软件,当然是用最新的ORCA 5.0.2搭配openmpi-4.1.1,届时若还有问题可以再贴出。安装可以看《ORCA 5.0安装及运行
自动做多参考态计算的程序MOKIT

128

帖子

1

威望

429

eV
积分
577

Level 4 (黑子)

4#
发表于 Post on 2022-2-15 10:43:12 | 只看该作者 Only view this author
可以尝试一下用Intel全家桶编译OpenMPI(参考http://bbs.keinsci.com/thread-4267-1-1.html中编译OpenMPI的部分)
之前也遇到过类似的问题(ORCA finished by error termination in GTOInt),经观察发现是本应该单核运行的orca_scf没有运行,并且如果用Guess Hueckel就可以正常计算。之后发现用Intel全家桶编译得到的OpenMPI似乎再没有出现过这个问题,可以试一试。另外看这输出应该是在集群上提交的任务,有时候过段时间或者换个节点都有概率解决这个问题

本版积分规则 Credits rule

手机版 Mobile version|北京科音自然科学研究中心 Beijing Kein Research Center for Natural Sciences|京公网安备 11010502035419号|计算化学公社 — 北京科音旗下高水平计算化学交流论坛 ( 京ICP备14038949号-1 )|网站地图

GMT+8, 2026-2-28 03:54 , Processed in 0.199082 second(s), 20 queries , Gzip On.

快速回复 返回顶部 返回列表 Return to list