计算化学公社

标题: 求助:第一次安装ORCA后第一次运行算例出错 [打印本页]

作者
Author:
liaorongbao    时间: 2019-8-18 18:35
标题: 求助:第一次安装ORCA后第一次运行算例出错
第一步:MPI库的安装
按照http://sobereva.com/451安装openmpi-3.1.4.tar.gz的库压缩包后,采用mpiexec -V命令查看版本,显示版本号如下。

liaorongbao@liaorongbao:~/ORCA$ mpiexec -V
Intel(R) MPI Library for Linux, 64-bit applications, Version 4.1  Build 20120831
Copyright (C) 2003-2012 Intel Corporation.  All rights reserved.

MPI库版本对应4.1,不知是否正确,为什么压缩包显示的3.1.4呢?我的机器大约一年前安装过intel的某些库,担心冲突,4.1会不会是一年前安装的什么东西造成的?

第二步:算例
安装MPI库后,安装了ORCA。似乎安装过程顺利。
Sob博文的输入文件名为test.inp, 内容如下
! BLYP def2-SVP noautostart miniprint pal4
* xyz 0 1
C                  0.00000000    0.00000000   -0.56221066
H                  0.00000000   -0.92444767   -1.10110537
H                 -0.00000000    0.92444767   -1.10110537
O                  0.00000000    0.00000000    0.69618930
*
在当前目录下执行命令liaorongbao@liaorongbao:~/ORCA$ orca test.inp
屏幕上显示:

                                 *****************
                                 * O   R   C   A *
                                 *****************

           --- An Ab Initio, DFT and Semiempirical electronic structure package ---

                  #######################################################
                  #                        -***-                        #
                  #          Department of theory and spectroscopy      #
                  #               Directorship: Frank Neese             #
                  #        Max Planck Institute fuer Kohlenforschung    #
                  #                Kaiser Wilhelm Platz 1               #
                  #                 D-45470 Muelheim/Ruhr               #
                  #                      Germany                        #
                  #                                                     #
                  #                  All rights reserved                #
                  #                        -***-                        #
                  #######################################################


                         Program Version 4.2.0 -  RELEASE  -
略去中间一大段显示内容,以下是出错信息
CARTESIAN COORDINATES (ANGSTROEM)
---------------------------------
  C      0.000000    0.000000   -0.562211
  H      0.000000   -0.924448   -1.101105
  H     -0.000000    0.924448   -1.101105
  O      0.000000    0.000000    0.696189

----------------------------
CARTESIAN COORDINATES (A.U.)
----------------------------
  NO LB      ZA    FRAG     MASS         X           Y           Z
   0 C     6.0000    0    12.011    0.000000    0.000000   -1.062424
   1 H     1.0000    0     1.008    0.000000   -1.746953   -2.080788
   2 H     1.0000    0     1.008   -0.000000    1.746953   -2.080788
   3 O     8.0000    0    15.999    0.000000    0.000000    1.315607

/opt/intel/composer_xe_2013.2.146/mpirt/bin/intel64/mpirun: 96: .: Can't open /opt/intel/composer_xe_2013.2.146/mpirt/bin/intel64/mpivars.sh

ORCA finished by error termination in GTOInt
Calling Command: mpirun -np 4  /home/liaorongbao/ORCA/orca_4_2_0_linux_x86-64_shared_openmpi314/orca_gtoint_mpi test.int.tmp test
[file orca_tools/qcmsg.cpp, line 458]:
  .... aborting the run

[file orca_tools/qcmsg.cpp, line 458]:
  .... aborting the run

liaorongbao@liaorongbao:~/ORCA$


毛病显示为:Can't open /opt/intel/composer_xe_2013.2.146/mpirt/bin/intel64/mpivars.sh
大概意思是无法打开mpivars.sh。大概一年前机器里面安装过intel的某些库的东西,不会是不是那个东西造成的








作者
Author:
linqiaosong    时间: 2019-8-18 18:38
显然你的环境变量里面有intel并行库,这个intel并行库和你的openmpi撞车了
作者
Author:
liaorongbao    时间: 2019-8-18 18:41
linqiaosong 发表于 2019-8-18 18:38
显然你的环境变量里面有intel并行库,这个intel并行库和你的openmpi撞车了

完蛋啦,这个问题我最怕,估计得重新装机
作者
Author:
linqiaosong    时间: 2019-8-18 18:49
liaorongbao 发表于 2019-8-18 18:41
完蛋啦,这个问题我最怕,估计得重新装机

不需要,把环境变量里的Intel并行库注释掉,配置好openmpi的环境变量,就可以了
作者
Author:
liaorongbao    时间: 2019-8-18 21:42
本帖最后由 liaorongbao 于 2019-8-18 21:48 编辑
linqiaosong 发表于 2019-8-18 18:49
不需要,把环境变量里的Intel并行库注释掉,配置好openmpi的环境变量,就可以了

第一部分:我的家目录的.bashrc的最关键部位按照楼上注释后如下(只复制了一部分)

# export PATH="$PATH":.
# export PATH=/usr/local/bin:/usr/local/sbin:/usr/bin:/usr/sbin:/usr:$PATH
# export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/chen/bkd/IntelFortranCompiler/composer_xe_2013_sp1.1.106/mkl/lib/intel64
# export PATH="$PATH":/home/chen/bkd/IntelFortranCompiler/composer_xe_2013_sp1.1.106/bin/intel64
# export PATH="$PATH":/home/chen/bkd/IntelFortranCompiler/composer_xe_2013_sp1.1.106/mkl/bin/intel64

# #export PATH="$PATH":.
#export PATH=/usr/local/bin:/usr/local/sbin:/usr/bin:/usr/sbin:/usr:$PATH
# #export PATH=/usr/local/bin:/usr/local/sbin:/usr/bin:/usr/sbin:/usr:$PATH
# #export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/opt/intel/composer_xe_2013.2.146/mkl/lib/intel64
# #export PATH="$PATH":/opt/intel/composer_xe_2013.2.146/bin/intel64
# #export PATH="$PATH":/opt/intel/composer_xe_2013.2.146/mkl/bin/intel64


# #source /opt/intel/bin/compilervars.sh intel64

export PATH=$PATH:/home/liaorongbao/openmpi314/bin
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/liaorongbao/openmpi314/lib


export PATH=$PATH:/home/liaorongbao/ORCA/orca_4_2_0_linux_x86-64_shared_openmpi314

export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/liaorongbao/ORCA/orca_4_2_0_linux_x86-64_shared_openmpi314


alias orca='/home/liaorongbao/ORCA/orca_4_2_0_linux_x86-64_shared_openmpi314/orca'

第二部分:执行ORCA运行文件后出错如下
liaorongbao@liaorongbao:~/ORCA$ orca test.inp

                                 *****************
                                 * O   R   C   A *
                                 *****************

   此处被我省略一大段

----- AuxJ basis set information -----
Your calculation utilizes the auxiliary basis: def2/J
   F. Weigend, Phys. Chem. Chem. Phys. 8, 1057 (2006).

================================================================================
                                        WARNINGS
                       Please study these warnings very carefully!
================================================================================


INFO   : the flag for use of LIBINT has been found!

================================================================================
                                       INPUT FILE
================================================================================
NAME = test.inp
|  1> ! BLYP def2-SVP noautostart miniprint pal4
|  2> * xyz 0 1
|  3>  C                  0.00000000    0.00000000   -0.56221066
|  4>  H                  0.00000000   -0.92444767   -1.10110537
|  5>  H                 -0.00000000    0.92444767   -1.10110537
|  6>  O                  0.00000000    0.00000000    0.69618930
|  7> *
|  8>
   此处被我省略一段
| 24>
| 25>                          ****END OF INPUT****
================================================================================

                       ****************************
                       * Single Point Calculation *
                       ****************************

---------------------------------
CARTESIAN COORDINATES (ANGSTROEM)
---------------------------------
  C      0.000000    0.000000   -0.562211
  H      0.000000   -0.924448   -1.101105
  H     -0.000000    0.924448   -1.101105
  O      0.000000    0.000000    0.696189

----------------------------
CARTESIAN COORDINATES (A.U.)
----------------------------
  NO LB      ZA    FRAG     MASS         X           Y           Z
   0 C     6.0000    0    12.011    0.000000    0.000000   -1.062424
   1 H     1.0000    0     1.008    0.000000   -1.746953   -2.080788
   2 H     1.0000    0     1.008   -0.000000    1.746953   -2.080788
   3 O     8.0000    0    15.999    0.000000    0.000000    1.315607

--------------------------------------------------------------------------
There are not enough slots available in the system to satisfy the 4
slots that were requested by the application:

  /home/liaorongbao/ORCA/orca_4_2_0_linux_x86-64_shared_openmpi314/orca_gtoint_mpi

Either request fewer slots for your application, or make more slots
available for use.

A "slot" is the Open MPI term for an allocatable unit where we can
launch a process.  The number of slots available are defined by the
environment in which Open MPI processes are run:

  1. Hostfile, via "slots=N" clauses (N defaults to number of
     processor cores if not provided)
  2. The --host command line parameter, via a ":N" suffix on the
     hostname (N defaults to 1 if not provided)
  3. Resource manager (e.g., SLURM, PBS/Torque, LSF, etc.)
  4. If none of a hostfile, the --host command line parameter, or an
     RM is present, Open MPI defaults to the number of processor cores

In all the above cases, if you want Open MPI to default to the number
of hardware threads instead of the number of processor cores, use the
--use-hwthread-cpus option.

Alternatively, you can use the --oversubscribe option to ignore the
number of available slots when deciding the number of processes to
launch.
--------------------------------------------------------------------------

ORCA finished by error termination in GTOInt
Calling Command: mpirun -np 4  /home/liaorongbao/ORCA/orca_4_2_0_linux_x86-64_shared_openmpi314/orca_gtoint_mpi test.int.tmp test
[file orca_tools/qcmsg.cpp, line 458]:
  .... aborting the run

[file orca_tools/qcmsg.cpp, line 458]:
  .... aborting the run

liaorongbao@liaorongbao:~/ORCA$

第三部分:感觉出错信息告诉我slot数量不够,网查这个是插槽。要求4个。不知道是个什么插槽。是不是处理器要求4个? 怎么在输入文件里面改变成1个处理器呢



作者
Author:
linqiaosong    时间: 2019-8-18 22:00
本帖最后由 linqiaosong 于 2019-8-18 22:02 编辑
liaorongbao 发表于 2019-8-18 21:42
第一部分:我的家目录的.bashrc的最关键部位按照楼上注释后如下(只复制了一部分)

# export PATH="$PAT ...

处理器核数要求4核,如果核数少于4核需要降低输入文件的申请核数。
如果你使用的是带作业管理系统的服务器,提交脚本的时候要申请够4核的核心,如果仍然不能解决,建议咨询服务器管理员。

作者
Author:
liaorongbao    时间: 2019-8-18 22:42
linqiaosong 发表于 2019-8-18 22:00
处理器核数要求4核,如果核数少于4核需要降低输入文件的申请核数。
如果你使用的是带作业管理系统的服务 ...

感谢你的跟踪帮助,似乎搞定了。采用Multiwfn的制定ORCA文件格式功能,把之前的文件改成了如下:
! BLYP D3 def2-TZVP def2/J noautostart miniprint nopop
%maxcore 1000
%pal nprocs  1 end
* xyz   0   1
C      0.00000000    0.00000000   -0.56221066
H      0.00000000   -0.92444767   -1.10110537
H      0.00000000    0.92444767   -1.10110537
O      0.00000000    0.00000000    0.69618930
*
这里设置1个处理器,最后屏幕上出现了ORCA TERMINATED NORMALLY字样,用时28秒
尽管我还没找到输出文件是哪个

作者
Author:
linqiaosong    时间: 2019-8-19 00:41
liaorongbao 发表于 2019-8-18 22:42
感谢你的跟踪帮助,似乎搞定了。采用Multiwfn的制定ORCA文件格式功能,把之前的文件改成了如下:
! BLYP ...

使用
  1. orca test.inp > test.out
复制代码
提交代码,>之后的文件就是输出文件
作者
Author:
liaorongbao    时间: 2019-8-19 11:00
linqiaosong 发表于 2019-8-19 00:41
使用提交代码,>之后的文件就是输出文件

按照orca test.inp > test.out格式获得了结果文件test.out。
其他方面我的初步理解和问题如下:
找到博文http://sobereva.com/379中解释了产生的test.gbw相当于高斯的.chk文件,博文中说先要转换成.molden后就可以转换成.chk。
产生的test_property.txt似乎保留了一些重要的性质,不知是否与命令行的输入指令相关?是不是与test.out有重复或者说test.out的信息完整程度是否可以覆盖test_property.txt。
另外还有个奇怪的test.prop文件,非常小,用gedit似乎不能解读。不知道是做什么用的?

作者
Author:
sobereva    时间: 2019-8-19 11:21
test_property.txt、test.prop一般用不着留着
作者
Author:
Villars    时间: 2020-1-25 14:58
sobereva 发表于 2019-8-19 11:21
test_property.txt、test.prop一般用不着留着

社长您好!我在超算平台上使用ORCA计算HCHO测试文件时也出现了上文中“not enough slots available” 的问题,通过修改“! BLYP def2-SVP noautostart miniprint pal4”为“! BLYP def2-SVP noautostart miniprint nopop"解决了问题。请问社长我将这个计算任务提交到24核的计算节点后,这个任务能够调用24核吗?以下是我的输入文件:
! BLYP def2-SVP noautostart miniprint nopop
* xyz 0 1
C                  0.00000000    0.00000000   -0.56221066
H                  0.00000000   -0.92444767   -1.10110537
H                 -0.00000000    0.92444767   -1.10110537
O                  0.00000000    0.00000000    0.69618930
*
作者
Author:
sobereva    时间: 2020-1-26 00:02
Villars 发表于 2020-1-25 14:58
社长您好!我在超算平台上使用ORCA计算HCHO测试文件时也出现了上文中“not enough slots available” 的 ...

不能
作者
Author:
DoorBell    时间: 2020-1-28 09:38
本帖最后由 DoorBell 于 2020-1-28 09:41 编辑
Villars 发表于 2020-1-25 14:58
社长您好!我在超算平台上使用ORCA计算HCHO测试文件时也出现了上文中“not enough slots available” 的 ...

在输入文件中加入

%pal
    nProcs 24
end

例如:

! BLYP def2-SVP noautostart miniprint nopop
%pal nProcs 24 end
* xyz 0 1
C                  0.00000000    0.00000000   -0.56221066
H                  0.00000000   -0.92444767   -1.10110537
H                 -0.00000000    0.92444767   -1.10110537
O                  0.00000000    0.00000000    0.69618930
*
这使得ORCA使用24核并行。另外出现not enough slots available说明脚本写的有问题,常见的PBS和LSF系统都需要在脚本中显式声明多少核。

作者
Author:
Villars    时间: 2020-1-28 15:35
DoorBell 发表于 2020-1-28 09:38
在输入文件中加入

%pal

感谢老师的回复,我马上尝试做一下,谢谢您
作者
Author:
songyidan    时间: 2021-1-24 19:35
liaorongbao 发表于 2019-8-18 21:42
第一部分:我的家目录的.bashrc的最关键部位按照楼上注释后如下(只复制了一部分)

# export PATH="$PAT ...

请问您辅助基组是如何输出的呢

可以请问下输入文件的格式吗?


作者
Author:
liaorongbao    时间: 2021-1-24 22:35
songyidan 发表于 2021-1-24 19:35
请问您辅助基组是如何输出的呢

可以请问下输入文件的格式吗?

songyidan您好,我那个ORCA折腾了一段时间放弃了。直接回到G16软件了。之前本想做带有振动信息的荧光光谱,但感觉压力太大,公式看不懂。
作者
Author:
liaorongbao    时间: 2021-1-26 10:05
songyidan 发表于 2021-1-24 19:35
请问您辅助基组是如何输出的呢

可以请问下输入文件的格式吗?

当时学了两个星期,后来感觉理解不了原理就立马放弃了。时间长了所以具体格式也都记不住了
作者
Author:
huozhong    时间: 2021-7-7 09:01
liaorongbao 发表于 2019-8-18 22:42
感谢你的跟踪帮助,似乎搞定了。采用Multiwfn的制定ORCA文件格式功能,把之前的文件改成了如下:
! BLYP ...

我也是这种情况,只能用1核,改成两核就报错:ORCA finished by error termination in GTOInt
Calling Command: mpirun -np 2  /root/hcp/orca410/orca_gtoint_mpi H2.int.tmp H2
[file orca_tools/qcmsg.cpp, line 453]:
  .... aborting the run

[file orca_tools/qcmsg.cpp, line 453]:
  .... aborting the run
只有1核就可以算。1核资源太少了,请问知道怎么用多核吗?我机子最大8核,40G内存。
作者
Author:
liaorongbao    时间: 2021-7-7 09:14
huozhong 发表于 2021-7-7 09:01
我也是这种情况,只能用1核,改成两核就报错:ORCA finished by error termination in GTOInt
Calling C ...

后来放弃ORCA了,所以又都忘完了。
作者
Author:
zjxitcc    时间: 2021-7-7 09:28
huozhong 发表于 2021-7-7 09:01
我也是这种情况,只能用1核,改成两核就报错:ORCA finished by error termination in GTOInt
Calling C ...

我看你算的貌似是H2,既然是这种毫无保密性的分子,应该直接上传输入、输出文件,便于大家分析,你给出的内容太少了。另外,还要给出以下两条命令
which mpirun
mpirun --version
的运行结果。


作者
Author:
huozhong    时间: 2021-7-7 09:39
zjxitcc 发表于 2021-7-7 09:28
我看你算的貌似是H2,既然是这种毫无保密性的分子,应该直接上传输入、输出文件,便于大家分析,你给出的 ...

你好,我用的是root用户。
[root@localhost ~]# mpiexec -V
mpiexec (OpenRTE) 3.1.3

Report bugs to http://www.open-mpi.org/community/help/
[root@localhost ~]# which mpi
/usr/bin/which: no mpi in (/usr/local/bin:/usr/local/sbin:/usr/bin:/usr/sbin:/root/hcp/openmpi313/bin:/root/hcp/orca410:/root/bin:/root/hcp/openmpi313/bin:/root/hcp/orca410)
[root@localhost ~]# mpirun
--------------------------------------------------------------------------
mpirun has detected an attempt to run as root.

Running as root is *strongly* discouraged as any mistake (e.g., in
defining TMPDIR) or bug can result in catastrophic damage to the OS
file system, leaving your system in an unusable state.

We strongly suggest that you run mpirun as a non-root user.

You can override this protection by adding the --allow-run-as-root
option to your command line.  However, we reiterate our strong advice
against doing so - please do so at your own risk.
--------------------------------------------------------------------------
安装社长的方法(http://sobereva.com/451)安装了mpi313和orca410,现在推测是root用户运行mpi的问题。但是即使mpirun命令之后加了--allow-run-as-root依旧不行(http://sobereva.com/409):[root@localhost ~]# mpi--allow-run-as-root
bash: mpi--allow-run-as-root: command not found...
感谢解答!!!



作者
Author:
huozhong    时间: 2021-7-7 09:41
huozhong 发表于 2021-7-7 09:39
你好,我用的是root用户。
[root@localhost ~]# mpiexec -V
mpiexec (OpenRTE) 3.1.3

烦请问这种情况怎么做吗,谢谢
作者
Author:
zjxitcc    时间: 2021-7-7 09:52
本帖最后由 zjxitcc 于 2021-7-7 09:56 编辑
huozhong 发表于 2021-7-7 09:41
烦请问这种情况怎么做吗,谢谢

ORCA 4.1.0是老古董了,至少也应该用4.1.2,甚至用最新的ORCA 5.0. 建议换成最新版再试,原来的openmpi和ORCA目录可以直接删掉。安装教程可以看《ORCA 5.0安装及运行》,届时还有问题再贴出来。

PS1:请仔细阅读他人回复,这是最起码的尊重,我说的是运行以下两条命令
which mpirun
mpirun --version
展示出结果。你运行的、展示的都是啥?跟我说的相差太多了。

PS2:mpirun与--allow之间是有空格的,博文你也没认真看,还写成了mpi--allow


作者
Author:
huozhong    时间: 2021-7-7 13:08
zjxitcc 发表于 2021-7-7 09:52
ORCA 4.1.0是老古董了,至少也应该用4.1.2,甚至用最新的ORCA 5.0. 建议换成最新版再试,原来的openmpi和 ...

折腾一中午后,重装了openmpi411,并按您的建议更新到orca5.0.刚开始同样是不能增大核数和内存,只能用1核,1000MB内存。重启几次机器,并source .bashrc之后可以用了,不知道具体原因是什么,目前已可以扩大核数和内存,([root@localhost oi]# which mpirun
/root/hcp/openmpi411/bin/mpirun
[root@localhost oi]# mpirun --version
mpirun (Open MPI) 4.1.1
Report bugs to http://www.open-mpi.org/community/help/

非常感谢耐心解答!!!以后一定仔细阅读!!感谢!!
但是,现在发现用mpirun命令后,显示:
[root@localhost oi]# mpirun
--------------------------------------------------------------------------
mpirun could not find anything to do.

It is possible that you forgot to specify how many processes to run
via the "-np" argument.
--------------------------------------------------------------------------
不知道为什么不能用这个命令,但是您说的那两个命令是可以的:
[root@localhost oi]# which mpirun
/root/hcp/openmpi411/bin/mpirun
[root@localhost oi]# mpirun --version
mpirun (Open MPI) 4.1.1

Report bugs to http://www.open-mpi.org/community/help/

以及论坛中(http://sobereva.com/451)的mpiexec -V命令也可以:

[root@localhost oi]# mpiexec -V
mpiexec (OpenRTE) 4.1.1

Report bugs to http://www.open-mpi.org/community/help/

作者
Author:
zjxitcc    时间: 2021-7-7 13:11
huozhong 发表于 2021-7-7 13:08
折腾一中午后,重装了openmpi411,并按您的建议更新到orca5.0.刚开始同样是不能增大核数和内存,只能用1 ...

从你目前展示内容来看应该是没问题了。mpirun不是设计成单独运行的,你单独运行会显示一些觉得奇怪的内容 是正常的。ORCA并行也不需要直接运行mpirun(ORCA程序内部会调用mpirun)。
作者
Author:
huozhong    时间: 2021-7-7 13:24
zjxitcc 发表于 2021-7-7 13:11
从你目前展示内容来看应该是没问题了。mpirun不是设计成单独运行的,你单独运行会显示一些觉得奇怪的内容 ...

好的,谢谢您的解答




欢迎光临 计算化学公社 (http://bbs.keinsci.com/) Powered by Discuz! X3.3