计算化学公社

标题: orca5.0 优化有机镍配合物出错 [打印本页]

作者
Author:
huozhong    时间: 2021-7-14 13:13
标题: orca5.0 优化有机镍配合物出错
orca5.0安装应该是没有问题的,按社长的教程装的(http://sobereva.com/451http://sobereva.com/409
-----------------------------------------------------------------
[root@localhost oi]# mpiexec --version
mpiexec (OpenRTE) 4.1.1

[root@localhost ~]# which mpirun
/root/hcp/openmpi411/bin/mpirun

Report bugs to http://www.open-mpi.org/community/help/

[root@localhost oi]# which orca
alias orca='/root/hcp/orca500/orca'
        /root/hcp/orca500/orca


以及.bashrc中的环境变量为:

export PATH=$PATH:/root/hcp/openmpi411/bin
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/root/hcp/openmpi411/lib
export OMPI_ALLOW_RUN_AS_ROOT=1
export OMPI_ALLOW_RUN_AS_ROOT_CONFIRM=1

export PATH=$PATH:/root/hcp/orca500
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/root/hcp/orca500

alias orca='/root/hcp/orca500/orca'
-----------------------------------------------------------------
以下是计算的命令,刚跑5秒左右就报错,附件是输入和输出文件
-----------------------------------------------------------------
[root@localhost oi]# orca LNiCO.inp > LNiCO.out
[localhost:04691] *** An error occurred in MPI_Type_match_size
[localhost:04691] *** reported by process [3267428353,1]
[localhost:04691] *** on communicator MPI_COMM_WORLD
[localhost:04691] *** MPI_ERR_ARG: invalid argument of some other kind
[localhost:04691] *** MPI_ERRORS_ARE_FATAL (processes in this communicator will now abort,
[localhost:04691] ***    and potentially your MPI job)
[localhost.localdomain:04686] 4 more processes have sent help message help-mpi-errors.txt / mpi_errors_are_fatal
[localhost.localdomain:04686] Set MCA parameter "orte_base_help_aggregate" to 0 to see all help / error messages
[file orca_tools/qcmsg.cpp, line 458]:
  .... aborting the run
-----------------------------------------------------------------
按屏幕中的提醒好像是mpirun运行有问题,但我检查了which mpirun和mpiexec --version没有问题,不知道哪里出错了,新人求助


作者
Author:
biogon    时间: 2021-7-14 13:18
你环境变量还有没有其他MPI?
作者
Author:
huozhong    时间: 2021-7-14 13:23
biogon 发表于 2021-7-14 13:18
你环境变量还有没有其他MPI?

没有了,我用的root用户,下面是环境变量的所有信息。在安装orca5.0时反复装了好几个版本的mpi,但现在已经把其他版本的mpi删除了
--------------------------------------------------------------------------
# .bashrc

# User specific aliases and functions

alias rm='rm -i'
alias cp='cp -i'
alias mv='mv -i'

# Source global definitions
if [ -f /etc/bashrc ]; then
        . /etc/bashrc
fi
#export g09root=/root/home/hcp
#export GAUSS_SCRDIR=/root/home/hcp/g09/scratch
#source /root/home/hcp/g09/bsd/g09.profile

export PATH=$PATH:/root/hcp/openmpi411/bin
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/root/hcp/openmpi411/lib
export OMPI_ALLOW_RUN_AS_ROOT=1
export OMPI_ALLOW_RUN_AS_ROOT_CONFIRM=1

export PATH=$PATH:/root/hcp/orca500
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/root/hcp/orca500
-- INSERT --
--------------------------------------------------------------------------
作者
Author:
sobereva    时间: 2021-7-14 15:23
先串行运行,看看到底是ORCA代码问题还是MPI的问题
作者
Author:
wzkchem5    时间: 2021-7-14 15:36
试试简单分子(比如水分子)的单点能计算会不会也有这个问题
作者
Author:
huozhong    时间: 2021-7-14 16:24
wzkchem5 发表于 2021-7-14 15:36
试试简单分子(比如水分子)的单点能计算会不会也有这个问题

您好,我试了水分子的单点能,没有问题。试了水分子的优化结构,也没有问题。都可以正常结束


作者
Author:
huozhong    时间: 2021-7-14 16:28
sobereva 发表于 2021-7-14 15:23
先串行运行,看看到底是ORCA代码问题还是MPI的问题

社长你好,我刚开始用orca,串行运行是要下载和安装另一种版本的orca5.0软件(静态库版)吗?
作者
Author:
huozhong    时间: 2021-7-14 16:32
wzkchem5 发表于 2021-7-14 15:36
试试简单分子(比如水分子)的单点能计算会不会也有这个问题

您好,我又试了一遍有机镍配合物(LNiCO.inp),同样报错,大概运行5秒左右就停了,报错信息同上。输入文件中除了分子式与水分子优化的输入文件(h2oopt.inp)不同之外,其他完全一样,同一个软件。
这是不是orca软件的问题?
-------------------------------------------------------------------------
[root@localhost oi]# orca LNiCO.inp > LNiCO.out
[localhost:03689] *** An error occurred in MPI_Type_match_size
[localhost:03689] *** reported by process [3740205057,5]
[localhost:03689] *** on communicator MPI_COMM_WORLD
[localhost:03689] *** MPI_ERR_ARG: invalid argument of some other kind
[localhost:03689] *** MPI_ERRORS_ARE_FATAL (processes in this communicator will now abort,
[localhost:03689] ***    and potentially your MPI job)
[localhost.localdomain:03680] 3 more processes have sent help message help-mpi-errors.txt / mpi_errors_are_fatal
[localhost.localdomain:03680] Set MCA parameter "orte_base_help_aggregate" to 0 to see all help / error messages
[file orca_tools/qcmsg.cpp, line 458]:
  .... aborting the run

[root@localhost oi]#

作者
Author:
sobereva    时间: 2021-7-14 16:33
huozhong 发表于 2021-7-14 16:28
社长你好,我刚开始用orca,串行运行是要下载和安装另一种版本的orca5.0软件(静态库版)吗?

串行=不并行
作者
Author:
wzkchem5    时间: 2021-7-14 16:34
huozhong 发表于 2021-7-14 09:24
您好,我试了水分子的单点能,没有问题。试了水分子的优化结构,也没有问题。都可以正常结束

试试在算你的Ni的配合物的时候,去掉%maxcore那一行,看看会不会有这个问题。
如果还有问题,把分子删掉一部分,看看是不是分子大于某个大小才会触发这个问题
作者
Author:
Childhood    时间: 2021-7-14 16:39
或者使用一下绝对路径来调用一下 Orca?
作者
Author:
huozhong    时间: 2021-7-14 17:07
wzkchem5 发表于 2021-7-14 16:34
试试在算你的Ni的配合物的时候,去掉%maxcore那一行,看看会不会有这个问题。
如果还有问题,把分子删掉 ...

您好,去掉%maxcore那一行,报错出现同样的问题。
尝试了一个一个删除官能团(去掉苯环,LNiCOdeben.inp;去掉硅,LNiCOdebensi.inp),以及删除镍原子(去掉镍,LNiCOdeNi.inp)单独跑,同样报错。最后删的只剩下42个原子(C, H Si, Cl: miji.inp)报错还是同样的问题。
---------------------------------------------------------------------------------------------
[root@localhost oi]# orca miji.inp > miji.out
[localhost:04323] *** An error occurred in MPI_Type_match_size
[localhost:04323] *** reported by process [3226796033,5]
[localhost:04323] *** on communicator MPI_COMM_WORLD
[localhost:04323] *** MPI_ERR_ARG: invalid argument of some other kind
[localhost:04323] *** MPI_ERRORS_ARE_FATAL (processes in this communicator will now abort,
[localhost:04323] ***    and potentially your MPI job)
[localhost.localdomain:04314] 5 more processes have sent help message help-mpi-errors.txt / mpi_errors_are_fatal
[localhost.localdomain:04314] Set MCA parameter "orte_base_help_aggregate" to 0 to see all help / error messages
[file orca_tools/qcmsg.cpp, line 458]:
  .... aborting the run
---------------------------------------------------------------------------------------------
但我单独在GaussianView中摆一个苯环(12个原子),用multiwfn转化格式后(ben.inp),就可以正常计算结束(ben.out)。同样在GaussianView中摆四个苯环(42个原子,ben.inp)同样报错(ben.out),下面是报错时屏幕的输出信息:
---------------------------------------------------------------------------------------------
[root@localhost oi]# orca 4ben.inp > 4ben.out
[localhost:04631] *** An error occurred in MPI_Type_match_size
[localhost:04631] *** reported by process [3265200129,3]
[localhost:04631] *** on communicator MPI_COMM_WORLD
[localhost:04631] *** MPI_ERR_ARG: invalid argument of some other kind
[localhost:04631] *** MPI_ERRORS_ARE_FATAL (processes in this communicator will now abort,
[localhost:04631] ***    and potentially your MPI job)
[localhost.localdomain:04624] 2 more processes have sent help message help-mpi-errors.txt / mpi_errors_are_fatal
[localhost.localdomain:04624] Set MCA parameter "orte_base_help_aggregate" to 0 to see all help / error messages
[file orca_tools/qcmsg.cpp, line 458]:
  .... aborting the run

---------------------------------------------------------------------------------------------
好奇怪,orca5.0 在 RI-B3LYP-D3(BJ)/def2-TZVP下42个原子优化或者单点都报错!!


作者
Author:
huozhong    时间: 2021-7-14 17:08
Childhood 发表于 2021-7-14 16:39
或者使用一下绝对路径来调用一下 Orca?

你好,尝试了绝对路径还是报错,同样问题。


---------------------------------------------------------------------
[root@localhost oi]# /root/hcp/orca500/orca miji.inp

......

Reading SHARK input file miji.SHARKINP.tmp ... ok
----------------------
SHARK INTEGRAL PACKAGE
----------------------

Number of atoms                             ...     42
Number of basis functions                   ...    739
Number of shells                            ...    305
Maximum angular momentum                    ...      3
Integral batch strategy                     ... SHARK/LIBINT Hybrid
RI-J (if used) integral strategy            ... SPLIT-RIJ (Revised 2003 algorithm where possible)
Printlevel                                  ...      1
Contraction scheme used                     ... SEGMENTED contraction
Coulomb Range Separation                    ... NOT USED
Exchange Range Separation                   ... NOT USED
Finite Nucleus Model                        ... NOT USED
Auxiliary Coulomb fitting basis             ... AVAILABLE
   # of basis functions in Aux-J            ...   1188
   # of shells in Aux-J                     ...    404
   Maximum angular momentum in Aux-J        ...      4
Auxiliary J/K fitting basis                 ... NOT available
Auxiliary Correlation fitting basis         ... NOT available
Auxiliary 'external' fitting basis          ... NOT available
Integral threshold                          ...     1.000000e-10
Primitive cut-off                           ...     1.000000e-11
Primitive pair pre-selection threshold      ...     1.000000e-11

Calculating pre-screening integrals         ... done (  0.2 sec) Dimension = 305
Organizing shell pair data                  ... done (  0.2 sec)
Shell pair information
Total number of shell pairs                 ...     46665
Shell pairs after pre-screening             ...     35242
Total number of primitive shell pairs       ...    142293
Primitive shell pairs kept                  ...     71619
          la=0 lb=0:   9944 shell pairs
          la=1 lb=0:  10452 shell pairs
          la=1 lb=1:   2812 shell pairs
          la=2 lb=0:   4729 shell pairs
          la=2 lb=1:   2550 shell pairs
          la=2 lb=2:    624 shell pairs
          la=3 lb=0:   2243 shell pairs
          la=3 lb=1:   1193 shell pairs
          la=3 lb=2:    553 shell pairs
          la=3 lb=3:    142 shell pairs

Calculating one electron integrals          ... done (  0.1 sec)
Calculating RI/J V-Matrix + Cholesky decomp.... [localhost:04431] *** An error occurred in MPI_Type_match_size
[localhost:04431] *** reported by process [3250978817,2]
[localhost:04431] *** on communicator MPI_COMM_WORLD
[localhost:04431] *** MPI_ERR_ARG: invalid argument of some other kind
[localhost:04431] *** MPI_ERRORS_ARE_FATAL (processes in this communicator will now abort,
[localhost:04431] ***    and potentially your MPI job)
[localhost.localdomain:04425] 5 more processes have sent help message help-mpi-errors.txt / mpi_errors_are_fatal
[localhost.localdomain:04425] Set MCA parameter "orte_base_help_aggregate" to 0 to see all help / error messages

ORCA finished by error termination in GTOInt
Calling Command: mpirun -np 6  /root/hcp/orca500/orca_gtoint_mpi miji.int.tmp miji
[file orca_tools/qcmsg.cpp, line 458]:
  .... aborting the run

[file orca_tools/qcmsg.cpp, line 458]:
  .... aborting the run

作者
Author:
huozhong    时间: 2021-7-14 17:10
sobereva 发表于 2021-7-14 16:33
串行=不并行

社长您好,有相关的串行教程吗?在论坛没找到,感谢答复
作者
Author:
wzkchem5    时间: 2021-7-14 17:30
huozhong 发表于 2021-7-14 10:10
社长您好,有相关的串行教程吗?在论坛没找到,感谢答复

串行就是不写%pal那一行,等于用一个核跑。。。
作者
Author:
huozhong    时间: 2021-7-14 17:39
wzkchem5 发表于 2021-7-14 17:30
串行就是不写%pal那一行,等于用一个核跑。。。

我试了串行(删掉%pal那一行),果然不报错了(跑了五分钟,还在运行),但是我这个镍配合物有103个原子,这样一个核跑是不是很耗时(现在设置的是10G内存,单核)!

有什么办法能够多核跑吗? 感谢!!

作者
Author:
wzkchem5    时间: 2021-7-14 17:46
huozhong 发表于 2021-7-14 10:39
我试了串行(删掉%pal那一行),果然不报错了(跑了五分钟,还在运行),但是我这个镍配合物有103个原子 ...

你看一下这个帖子,https://orcaforum.kofo.mpg.de/viewtopic.php?f=9&t=7566
里面提的解决方法都试一遍,如果仍然不行,在那个主题帖底下发个帖子,详细说明你这个问题的情况,我们这边的人会帮你解决
作者
Author:
Novice    时间: 2021-7-14 19:01
本帖最后由 Novice 于 2021-7-14 19:03 编辑

楼上给的链接https://orcaforum.kofo.mpg.de/viewtopic.php?f=9&t=7566有相关报错,如果你用的是Ubuntu,需要先安装gfortran再编译Openmpi,以下是相关楼层的讨论内容:
If there is no gfortran around on the machine it will not do the "Build MPI Fortran bindings" part.
So in Ubuntu just run: "sudo apt-get install gfortran" and then re-compile OpenMPI like you did in the first place, worked for me.
我在Ubuntu20.04安装Orca5.0并行的时候遇到了和你一样的报错,先安装gfortran再编译Openmpi后,成功并行orca5.
作者
Author:
huozhong    时间: 2021-7-14 21:13
Novice 发表于 2021-7-14 19:01
楼上给的链接https://orcaforum.kofo.mpg.de/viewtopic.php?f=9&t=7566有相关报错,如果你用的是Ubuntu,需 ...

非常感谢,在按照链接里的方法排查。我用的是CentOS8,在vmware下安装的,8核40G内存,感谢回复
作者
Author:
yaochuang    时间: 2021-8-7 11:46
huozhong 发表于 2021-7-14 21:13
非常感谢,在按照链接里的方法排查。我用的是CentOS8,在vmware下安装的,8核40G内存,感谢回复

您好,请问您的问题解决了吗?我也遇到相同的问题,我发现原子超过25就会出现这样的问题,小于25个原子的运行正常。好奇怪啊,不知道怎么解决
作者
Author:
renzhogn424    时间: 2021-8-7 19:48
yaochuang 发表于 2021-8-7 11:46
您好,请问您的问题解决了吗?我也遇到相同的问题,我发现原子超过25就会出现这样的问题,小于25个原子的 ...

看看是不是内存占用满了。。。
作者
Author:
huozhong    时间: 2021-8-22 08:59
yaochuang 发表于 2021-8-7 11:46
您好,请问您的问题解决了吗?我也遇到相同的问题,我发现原子超过25就会出现这样的问题,小于25个原子的 ...

改回orca 4.2.1了,不想用orca5。
作者
Author:
huozhong    时间: 2021-8-22 08:59
renzhogn424 发表于 2021-8-7 19:48
看看是不是内存占用满了。。。

应该不是
作者
Author:
wzkchem5    时间: 2021-8-22 15:38
huozhong 发表于 2021-8-22 01:59
改回orca 4.2.1了,不想用orca5。

你装了gfortran仍然没有解决吗?
如果是的话,建议在orca论坛上报一下问题,如果遇到问题就不用的话,即使是我们orca团队的问题,我们也没办法改进啊
作者
Author:
wzkchem5    时间: 2021-8-22 15:39
yaochuang 发表于 2021-8-7 04:46
您好,请问您的问题解决了吗?我也遇到相同的问题,我发现原子超过25就会出现这样的问题,小于25个原子的 ...

看你楼上我发的链接,先检查有没有装gfortran,如果装了gfortran还是解决不了,把我发的那个主题帖里的所有办法都试一下




欢迎光临 计算化学公社 (http://bbs.keinsci.com/) Powered by Discuz! X3.3