计算化学公社

 找回密码 Forget password
 注册 Register
Views: 21198|回复 Reply: 24
打印 Print 上一主题 Last thread 下一主题 Next thread

[ORCA] orca5.0 优化有机镍配合物出错

[复制链接 Copy URL]

66

帖子

0

威望

710

eV
积分
776

Level 4 (黑子)

跳转到指定楼层 Go to specific reply
楼主
orca5.0安装应该是没有问题的,按社长的教程装的(http://sobereva.com/451http://sobereva.com/409
-----------------------------------------------------------------
[root@localhost oi]# mpiexec --version
mpiexec (OpenRTE) 4.1.1

[root@localhost ~]# which mpirun
/root/hcp/openmpi411/bin/mpirun

Report bugs to http://www.open-mpi.org/community/help/

[root@localhost oi]# which orca
alias orca='/root/hcp/orca500/orca'
        /root/hcp/orca500/orca


以及.bashrc中的环境变量为:

export PATH=$PATH:/root/hcp/openmpi411/bin
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/root/hcp/openmpi411/lib
export OMPI_ALLOW_RUN_AS_ROOT=1
export OMPI_ALLOW_RUN_AS_ROOT_CONFIRM=1

export PATH=$PATH:/root/hcp/orca500
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/root/hcp/orca500

alias orca='/root/hcp/orca500/orca'
-----------------------------------------------------------------
以下是计算的命令,刚跑5秒左右就报错,附件是输入和输出文件
-----------------------------------------------------------------
[root@localhost oi]# orca LNiCO.inp > LNiCO.out
[localhost:04691] *** An error occurred in MPI_Type_match_size
[localhost:04691] *** reported by process [3267428353,1]
[localhost:04691] *** on communicator MPI_COMM_WORLD
[localhost:04691] *** MPI_ERR_ARG: invalid argument of some other kind
[localhost:04691] *** MPI_ERRORS_ARE_FATAL (processes in this communicator will now abort,
[localhost:04691] ***    and potentially your MPI job)
[localhost.localdomain:04686] 4 more processes have sent help message help-mpi-errors.txt / mpi_errors_are_fatal
[localhost.localdomain:04686] Set MCA parameter "orte_base_help_aggregate" to 0 to see all help / error messages
[file orca_tools/qcmsg.cpp, line 458]:
  .... aborting the run
-----------------------------------------------------------------
按屏幕中的提醒好像是mpirun运行有问题,但我检查了which mpirun和mpiexec --version没有问题,不知道哪里出错了,新人求助

LNiCO.inp

4.85 KB, 下载次数 Times of downloads: 19

输入文件

LNiCO.out

84.56 KB, 下载次数 Times of downloads: 5

输出文件

1万

帖子

0

威望

9740

eV
积分
21936

Level 6 (一方通行)

25#
发表于 Post on 2021-8-22 15:39:44 | 只看该作者 Only view this author
yaochuang 发表于 2021-8-7 04:46
您好,请问您的问题解决了吗?我也遇到相同的问题,我发现原子超过25就会出现这样的问题,小于25个原子的 ...

看你楼上我发的链接,先检查有没有装gfortran,如果装了gfortran还是解决不了,把我发的那个主题帖里的所有办法都试一下
Zikuan Wang
山东大学光学高等研究中心 研究员
BDF(https://bdf-manual.readthedocs.io/zh_CN/latest/Introduction.html)、ORCA(https://orcaforum.kofo.mpg.de/index.php)开发团队成员
Google Scholar: https://scholar.google.com/citations?user=XW6C6eQAAAAJ
ORCID: https://orcid.org/0000-0002-4540-8734
主页:http://www.qitcs.qd.sdu.edu.cn/info/1133/1776.htm
GitHub:https://github.com/wzkchem5
本团队长期招收研究生,有意者可私信联系

1万

帖子

0

威望

9740

eV
积分
21936

Level 6 (一方通行)

24#
发表于 Post on 2021-8-22 15:38:41 | 只看该作者 Only view this author
huozhong 发表于 2021-8-22 01:59
改回orca 4.2.1了,不想用orca5。

你装了gfortran仍然没有解决吗?
如果是的话,建议在orca论坛上报一下问题,如果遇到问题就不用的话,即使是我们orca团队的问题,我们也没办法改进啊
Zikuan Wang
山东大学光学高等研究中心 研究员
BDF(https://bdf-manual.readthedocs.io/zh_CN/latest/Introduction.html)、ORCA(https://orcaforum.kofo.mpg.de/index.php)开发团队成员
Google Scholar: https://scholar.google.com/citations?user=XW6C6eQAAAAJ
ORCID: https://orcid.org/0000-0002-4540-8734
主页:http://www.qitcs.qd.sdu.edu.cn/info/1133/1776.htm
GitHub:https://github.com/wzkchem5
本团队长期招收研究生,有意者可私信联系

66

帖子

0

威望

710

eV
积分
776

Level 4 (黑子)

23#
 楼主 Author| 发表于 Post on 2021-8-22 08:59:52 | 只看该作者 Only view this author
renzhogn424 发表于 2021-8-7 19:48
看看是不是内存占用满了。。。

应该不是

66

帖子

0

威望

710

eV
积分
776

Level 4 (黑子)

22#
 楼主 Author| 发表于 Post on 2021-8-22 08:59:13 | 只看该作者 Only view this author
yaochuang 发表于 2021-8-7 11:46
您好,请问您的问题解决了吗?我也遇到相同的问题,我发现原子超过25就会出现这样的问题,小于25个原子的 ...

改回orca 4.2.1了,不想用orca5。

140

帖子

0

威望

1631

eV
积分
1771

Level 5 (御坂)

21#
发表于 Post on 2021-8-7 19:48:36 | 只看该作者 Only view this author
yaochuang 发表于 2021-8-7 11:46
您好,请问您的问题解决了吗?我也遇到相同的问题,我发现原子超过25就会出现这样的问题,小于25个原子的 ...

看看是不是内存占用满了。。。

147

帖子

0

威望

2434

eV
积分
2581

Level 5 (御坂)

20#
发表于 Post on 2021-8-7 11:46:08 | 只看该作者 Only view this author
huozhong 发表于 2021-7-14 21:13
非常感谢,在按照链接里的方法排查。我用的是CentOS8,在vmware下安装的,8核40G内存,感谢回复

您好,请问您的问题解决了吗?我也遇到相同的问题,我发现原子超过25就会出现这样的问题,小于25个原子的运行正常。好奇怪啊,不知道怎么解决

66

帖子

0

威望

710

eV
积分
776

Level 4 (黑子)

19#
 楼主 Author| 发表于 Post on 2021-7-14 21:13:19 | 只看该作者 Only view this author
Novice 发表于 2021-7-14 19:01
楼上给的链接https://orcaforum.kofo.mpg.de/viewtopic.php?f=9&t=7566有相关报错,如果你用的是Ubuntu,需 ...

非常感谢,在按照链接里的方法排查。我用的是CentOS8,在vmware下安装的,8核40G内存,感谢回复

330

帖子

0

威望

3006

eV
积分
3336

Level 5 (御坂)

计算化学路人甲

18#
发表于 Post on 2021-7-14 19:01:37 | 只看该作者 Only view this author
本帖最后由 Novice 于 2021-7-14 19:03 编辑

楼上给的链接https://orcaforum.kofo.mpg.de/viewtopic.php?f=9&t=7566有相关报错,如果你用的是Ubuntu,需要先安装gfortran再编译Openmpi,以下是相关楼层的讨论内容:
If there is no gfortran around on the machine it will not do the "Build MPI Fortran bindings" part.
So in Ubuntu just run: "sudo apt-get install gfortran" and then re-compile OpenMPI like you did in the first place, worked for me.
我在Ubuntu20.04安装Orca5.0并行的时候遇到了和你一样的报错,先安装gfortran再编译Openmpi后,成功并行orca5.

1万

帖子

0

威望

9740

eV
积分
21936

Level 6 (一方通行)

17#
发表于 Post on 2021-7-14 17:46:53 | 只看该作者 Only view this author
huozhong 发表于 2021-7-14 10:39
我试了串行(删掉%pal那一行),果然不报错了(跑了五分钟,还在运行),但是我这个镍配合物有103个原子 ...

你看一下这个帖子,https://orcaforum.kofo.mpg.de/viewtopic.php?f=9&t=7566
里面提的解决方法都试一遍,如果仍然不行,在那个主题帖底下发个帖子,详细说明你这个问题的情况,我们这边的人会帮你解决
Zikuan Wang
山东大学光学高等研究中心 研究员
BDF(https://bdf-manual.readthedocs.io/zh_CN/latest/Introduction.html)、ORCA(https://orcaforum.kofo.mpg.de/index.php)开发团队成员
Google Scholar: https://scholar.google.com/citations?user=XW6C6eQAAAAJ
ORCID: https://orcid.org/0000-0002-4540-8734
主页:http://www.qitcs.qd.sdu.edu.cn/info/1133/1776.htm
GitHub:https://github.com/wzkchem5
本团队长期招收研究生,有意者可私信联系

66

帖子

0

威望

710

eV
积分
776

Level 4 (黑子)

16#
 楼主 Author| 发表于 Post on 2021-7-14 17:39:10 | 只看该作者 Only view this author
wzkchem5 发表于 2021-7-14 17:30
串行就是不写%pal那一行,等于用一个核跑。。。

我试了串行(删掉%pal那一行),果然不报错了(跑了五分钟,还在运行),但是我这个镍配合物有103个原子,这样一个核跑是不是很耗时(现在设置的是10G内存,单核)!

有什么办法能够多核跑吗? 感谢!!

1万

帖子

0

威望

9740

eV
积分
21936

Level 6 (一方通行)

15#
发表于 Post on 2021-7-14 17:30:18 | 只看该作者 Only view this author
huozhong 发表于 2021-7-14 10:10
社长您好,有相关的串行教程吗?在论坛没找到,感谢答复

串行就是不写%pal那一行,等于用一个核跑。。。
Zikuan Wang
山东大学光学高等研究中心 研究员
BDF(https://bdf-manual.readthedocs.io/zh_CN/latest/Introduction.html)、ORCA(https://orcaforum.kofo.mpg.de/index.php)开发团队成员
Google Scholar: https://scholar.google.com/citations?user=XW6C6eQAAAAJ
ORCID: https://orcid.org/0000-0002-4540-8734
主页:http://www.qitcs.qd.sdu.edu.cn/info/1133/1776.htm
GitHub:https://github.com/wzkchem5
本团队长期招收研究生,有意者可私信联系

66

帖子

0

威望

710

eV
积分
776

Level 4 (黑子)

14#
 楼主 Author| 发表于 Post on 2021-7-14 17:10:12 | 只看该作者 Only view this author

社长您好,有相关的串行教程吗?在论坛没找到,感谢答复

66

帖子

0

威望

710

eV
积分
776

Level 4 (黑子)

13#
 楼主 Author| 发表于 Post on 2021-7-14 17:08:57 | 只看该作者 Only view this author
Childhood 发表于 2021-7-14 16:39
或者使用一下绝对路径来调用一下 Orca?

你好,尝试了绝对路径还是报错,同样问题。


---------------------------------------------------------------------
[root@localhost oi]# /root/hcp/orca500/orca miji.inp

......

Reading SHARK input file miji.SHARKINP.tmp ... ok
----------------------
SHARK INTEGRAL PACKAGE
----------------------

Number of atoms                             ...     42
Number of basis functions                   ...    739
Number of shells                            ...    305
Maximum angular momentum                    ...      3
Integral batch strategy                     ... SHARK/LIBINT Hybrid
RI-J (if used) integral strategy            ... SPLIT-RIJ (Revised 2003 algorithm where possible)
Printlevel                                  ...      1
Contraction scheme used                     ... SEGMENTED contraction
Coulomb Range Separation                    ... NOT USED
Exchange Range Separation                   ... NOT USED
Finite Nucleus Model                        ... NOT USED
Auxiliary Coulomb fitting basis             ... AVAILABLE
   # of basis functions in Aux-J            ...   1188
   # of shells in Aux-J                     ...    404
   Maximum angular momentum in Aux-J        ...      4
Auxiliary J/K fitting basis                 ... NOT available
Auxiliary Correlation fitting basis         ... NOT available
Auxiliary 'external' fitting basis          ... NOT available
Integral threshold                          ...     1.000000e-10
Primitive cut-off                           ...     1.000000e-11
Primitive pair pre-selection threshold      ...     1.000000e-11

Calculating pre-screening integrals         ... done (  0.2 sec) Dimension = 305
Organizing shell pair data                  ... done (  0.2 sec)
Shell pair information
Total number of shell pairs                 ...     46665
Shell pairs after pre-screening             ...     35242
Total number of primitive shell pairs       ...    142293
Primitive shell pairs kept                  ...     71619
          la=0 lb=0:   9944 shell pairs
          la=1 lb=0:  10452 shell pairs
          la=1 lb=1:   2812 shell pairs
          la=2 lb=0:   4729 shell pairs
          la=2 lb=1:   2550 shell pairs
          la=2 lb=2:    624 shell pairs
          la=3 lb=0:   2243 shell pairs
          la=3 lb=1:   1193 shell pairs
          la=3 lb=2:    553 shell pairs
          la=3 lb=3:    142 shell pairs

Calculating one electron integrals          ... done (  0.1 sec)
Calculating RI/J V-Matrix + Cholesky decomp.... [localhost:04431] *** An error occurred in MPI_Type_match_size
[localhost:04431] *** reported by process [3250978817,2]
[localhost:04431] *** on communicator MPI_COMM_WORLD
[localhost:04431] *** MPI_ERR_ARG: invalid argument of some other kind
[localhost:04431] *** MPI_ERRORS_ARE_FATAL (processes in this communicator will now abort,
[localhost:04431] ***    and potentially your MPI job)
[localhost.localdomain:04425] 5 more processes have sent help message help-mpi-errors.txt / mpi_errors_are_fatal
[localhost.localdomain:04425] Set MCA parameter "orte_base_help_aggregate" to 0 to see all help / error messages

ORCA finished by error termination in GTOInt
Calling Command: mpirun -np 6  /root/hcp/orca500/orca_gtoint_mpi miji.int.tmp miji
[file orca_tools/qcmsg.cpp, line 458]:
  .... aborting the run

[file orca_tools/qcmsg.cpp, line 458]:
  .... aborting the run

66

帖子

0

威望

710

eV
积分
776

Level 4 (黑子)

12#
 楼主 Author| 发表于 Post on 2021-7-14 17:07:18 | 只看该作者 Only view this author
wzkchem5 发表于 2021-7-14 16:34
试试在算你的Ni的配合物的时候,去掉%maxcore那一行,看看会不会有这个问题。
如果还有问题,把分子删掉 ...

您好,去掉%maxcore那一行,报错出现同样的问题。
尝试了一个一个删除官能团(去掉苯环,LNiCOdeben.inp;去掉硅,LNiCOdebensi.inp),以及删除镍原子(去掉镍,LNiCOdeNi.inp)单独跑,同样报错。最后删的只剩下42个原子(C, H Si, Cl: miji.inp)报错还是同样的问题。
---------------------------------------------------------------------------------------------
[root@localhost oi]# orca miji.inp > miji.out
[localhost:04323] *** An error occurred in MPI_Type_match_size
[localhost:04323] *** reported by process [3226796033,5]
[localhost:04323] *** on communicator MPI_COMM_WORLD
[localhost:04323] *** MPI_ERR_ARG: invalid argument of some other kind
[localhost:04323] *** MPI_ERRORS_ARE_FATAL (processes in this communicator will now abort,
[localhost:04323] ***    and potentially your MPI job)
[localhost.localdomain:04314] 5 more processes have sent help message help-mpi-errors.txt / mpi_errors_are_fatal
[localhost.localdomain:04314] Set MCA parameter "orte_base_help_aggregate" to 0 to see all help / error messages
[file orca_tools/qcmsg.cpp, line 458]:
  .... aborting the run
---------------------------------------------------------------------------------------------
但我单独在GaussianView中摆一个苯环(12个原子),用multiwfn转化格式后(ben.inp),就可以正常计算结束(ben.out)。同样在GaussianView中摆四个苯环(42个原子,ben.inp)同样报错(ben.out),下面是报错时屏幕的输出信息:
---------------------------------------------------------------------------------------------
[root@localhost oi]# orca 4ben.inp > 4ben.out
[localhost:04631] *** An error occurred in MPI_Type_match_size
[localhost:04631] *** reported by process [3265200129,3]
[localhost:04631] *** on communicator MPI_COMM_WORLD
[localhost:04631] *** MPI_ERR_ARG: invalid argument of some other kind
[localhost:04631] *** MPI_ERRORS_ARE_FATAL (processes in this communicator will now abort,
[localhost:04631] ***    and potentially your MPI job)
[localhost.localdomain:04624] 2 more processes have sent help message help-mpi-errors.txt / mpi_errors_are_fatal
[localhost.localdomain:04624] Set MCA parameter "orte_base_help_aggregate" to 0 to see all help / error messages
[file orca_tools/qcmsg.cpp, line 458]:
  .... aborting the run

---------------------------------------------------------------------------------------------
好奇怪,orca5.0 在 RI-B3LYP-D3(BJ)/def2-TZVP下42个原子优化或者单点都报错!!

LNiCOdeben.inp

4.39 KB, 下载次数 Times of downloads: 0

LNiCOdebensi.inp

3.06 KB, 下载次数 Times of downloads: 0

LNiCOdeNi.inp

4.75 KB, 下载次数 Times of downloads: 0

ben.inp

685 Bytes, 下载次数 Times of downloads: 0

ben.out

36.97 KB, 下载次数 Times of downloads: 0

4ben.inp

2.05 KB, 下载次数 Times of downloads: 0

4ben.out

21.07 KB, 下载次数 Times of downloads: 0

手机版 Mobile version|北京科音自然科学研究中心 Beijing Kein Research Center for Natural Sciences|京公网安备 11010502035419号|计算化学公社 — 北京科音旗下高水平计算化学交流论坛 ( 京ICP备14038949号-1 )|网站地图

GMT+8, 2026-1-24 20:02 , Processed in 0.254736 second(s), 24 queries , Gzip On.

快速回复 返回顶部 返回列表 Return to list