计算化学公社

标题: 量子化学程序ORCA的安装方法 [打印本页]

作者
Author:
sobereva    时间: 2018-12-21 04:48
标题: 量子化学程序ORCA的安装方法
量子化学程序ORCA的安装方法
Installation method of ORCA quantum chemistry program

文/Sobereva@北京科音
First release 2018-Dec-21  Last update: 2024-Aug-21


0 前言

ORCA是一款对学术用户免费但不开源的量子化学程序,发展迅猛,流行程度越来越高,用户越来越多。虽然ORCA的安装很简单,都不需要编译源代码,但还是有不少量子化学初学者经常问怎么安装,这里就统一说一下。当随着ORCA程序更新,导致最新版安装方法与本文存在较大差异时,本文也将同步更新。目前本文对应的是ORCA 6。ORCA虽然有也有Mac版,但由于极其小众,安装方法这里就不提了。顺带一提,如果想系统学习ORCA,非常推荐参加北京科音高级量子化学培训班(http://www.keinsci.com/workshop/KAQC_content.html),里面专门有一节对ORCA的使用有特别全面、详细的讲解,并给出大量例子、传授各种重要使用经验。

ORCA官网是https://orcaforum.kofo.mpg.de,和ORCA论坛是在一起的。进去之后注册个新用户,登陆后就可以进入论坛,页面上方有Download按钮,进去就可以下载可执行程序和手册了。如果你注册ORCA论坛时验证码刷不出来,或者根本连ORCA官网都打不开的话,说明需以特殊姿势上网。

为了测试安装后ORCA是否能正常运行,这里提供个简单的测试文件,将以下内容复制到比如test.inp里即可作为输入文件。此任务要求4核并行:

! BLYP def2-SVP pal4
* xyz 0 1
C                  0.00000000    0.00000000   -0.56221066
H                  0.00000000   -0.92444767   -1.10110537
H                 -0.00000000    0.92444767   -1.10110537
O                  0.00000000    0.00000000    0.69618930
*

顺带一提,有些人用ORCA只是想算很常见类型的问题,但不会写关键词。最最简单的做法就是用Multiwfn产生ORCA的输入文件,超级容易,里面的关键词都是绝对最恰当的,见《详谈Multiwfn产生ORCA量子化学程序的输入文件的功能》(http://sobereva.com/490)。此文是一个用Multiwfn创建输入文件结合ORCA做计算的实例:《Simulating UV-Vis and ECD spectra using ORCA and Multiwfn》(http://sobereva.com/485);此视频是一个利用Multiwfn这个功能的综合实例:《基于ORCA量子化学程序对分子做优化、振动分析、观看红外光谱、观看轨道的简单演示》(https://www.bilibili.com/video/av59599938)。


1 Windows版的安装

ORCA的Windows版只有64bit的,如果你还在坚持使用老掉牙的32bit Windows,就别指望用Windows版了,要么装64bit Windows系统,要么在现有的32bit Windows下用VMware虚拟机装个64bit Linux跑ORCA Linux版。

ORCA是基于MPI方式进行并行运算的程序,目前的版本在Windows下是依赖于Microsoft MPI (MSMPI)库运行的,因此还要给系统安装MSMPI。ORCA 6可以搭配MSMPI 10.0运行。Google一下MSMPI 10.0就可以立刻找到MSMPI的下载地址,下载并安装之即可。

去ORCA论坛下载“ORCA [版本号], Windows, 64bit, Installer”页面里的压缩包,将之解压后,运行Orca[版本号].Win64.exe,就会启动安装程序,选择以Complete方式安装,对于ORCA 6.0.0装好后会占用13多GB硬盘。

下面测试ORCA能否正常并行运行。将本文开头给的测试文件拷到某处,然后进入操作系统的命令行模式,假设ORCA装到了D:\study\ORCA_6.0.0,就输入D:\study\ORCA_6.0.0\orca H2CO.inp > H2CO.out来执行H2CO.inp并将输出信息输出到H2CO.out。注意输入文件要求并行计算时,必须像这样输入ORCA的绝对路径才行。如果计算中途的输出信息看起来很正常,最后也显示****ORCA TERMINATED NORMALLY****,就说明没问题。如果并行不正常的话,可能会看到输出信息是混乱交错的,这是由于各个进程没有真正协同工作所致。

ORCA有一部分后HF和多参考计算功能是只有autoCI模块才能做的,比如FIC-MRCI、CCSDT等。如果你需要用这些方法,在按照前面的方法安装的基础之上,还需要进入官方论坛下载页面中的“ORCA [版本号], Windows, 64bit, autoci / parallel part”页面,把里面的压缩包下载下来并解压到ORCA的安装目录下。你会看到这个压缩包里包含的可执行文件开头都带着autoci_字样。把autoCI模块也装上的话,ORCA 6的目录最后会达到30多GB!

附:在Windows下使用ORCA的最便捷方法
利用cmder可以令ORCA在Windows下的使用明显更方便,cmder是一个第三方的文本终端。首先去https://cmder.app下载Full版的cmder,然后解压到你平时安装应用程序的目录。之后进入操作系统的命令行窗口,在cmder的目录下,输入Cmder.exe /REGISTER ALL。从此在任意目录下点右键选cmder Here即可进入cmder命令行窗口,并且当前路径就是此文件夹。启动cmder窗口后,在cmder的标题位置点右键选Settings,在General页面里选择{bash::bash as Admin},然后把cmder关了。从此之后,新开的cmder终端里的命令写法就和Linux的Bash环境下一样了,连awk、vi等常用工具都有。用文本编辑器打开cmder安装目录下的config\user_profile.sh,添加一行比如alias oo='D:/study/orca600/orca',这里oo是你启动ORCA想用的自定义命令,后面是ORCA可执行文件路径。这样,进入cmder后就可以使用比如oo Roselia.inp |tee RAS.out来调用ORCA运行.inp文件,输出的信息不仅显示在屏幕上还同时输出到RAS.out里,比起在Windows的cmd或者PowerShell里运行ORCA方便省事得多。


2 Linux版的安装

下面的内容涉及到一些最基本的Linux常识性知识,如果你对Linux是零基础,看下面内容之前建议看看《Gaussian的安装方法及运行时的相关问题》(http://sobereva.com/439)的1.1节。

2.1 安装OpenMPI

ORCA在Linux下是通过OpenMPI这种MPI库实现并行的,并行方式运行ORCA之前需要先编译OpenMPI库。ORCA文件包的文件名当中直接体现了要求的OpenMPI库版本,比如文件名里有openmpi416就代表需要OpenMPI 4.1.6。不代表其它版本OpenMPI就一定不兼容。比如ORCA 6.0.0标配OpenMPI 4.1.6,但我实测结合4.1.1也完全可以用。所有版本的OpenMPI源代码都包可以在https://www.open-mpi.org上下载,比如4.1.6的下载地址为https://download.open-mpi.org/re ... enmpi-4.1.6.tar.bz2

先检查机子有没有装gcc和gfortran编译器,没有的话必须先装上。比如对于CentOS或Rocky Linux,分别运行yum install gcc、yum install gcc-gfortran就能安装。特别要注意,如果只装了gcc而没装gfortran,虽然OpenMPI能正常编译完成,但是此时会由于没有Fortran的接口而导致之后ORCA没法正常并行运行。

用诸如tar -xf openmpi-4.1.6.tar.bz2命令解压OpenMPI压缩包,进入此目录,输入以下命令,OpenMPI就会被安装到/sob/openmpi416目录下
./configure --prefix=/sob/openmpi416 --disable-builtin-atomics
make all install -j
注:这里用-j是为了通过并行编译降低编译过程耗时。但如果编译中途出现诡异报错,去掉-j再试。

如果你的操作系统的shell是Bash(如CentOS、Rocky Linux就是),就编辑用户目录下的.bashrc文件,比如运行vi ~/.bashrc命令,将诸如以下两行加入到文件末尾,之后保存
export PATH=$PATH:/sob/openmpi416/bin
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/sob/openmpi416/lib
然后重新打开终端,以上设置就生效了。可以运行mpiexec -V命令,如果正常显示出了OpenMPI的版本,就说明已经装好了。之前解压出来的openmpi-4.1.6目录现在也可以删掉了。

2.2 安装ORCA

下载比如orca_6_0_0_linux_x86-64_avx2_shared_openmpi416.tar。然后用
tar -xf orca_6_0_0_linux_x86-64_avx2_shared_openmpi416.tar
命令即可解压之。文件名里的avx2代表CPU必须支持AVX2指令集才可以用,否则应当下载不带avx2字样的ORCA包。目前主流的CPU都支持AVX2,如果你的CPU较老,可以通过我整理的硬件资料库(http://sobereva.com/datasheet.rar)的查询支持的指令集。

假设ORCA解压后的目录是/sob/orca600/,就在.bashrc文件里加入以下内容并保存
export PATH=$PATH:/sob/orca600
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/sob/orca600

重新进入终端令以上语句生效后即可运行ORCA。并行运行时必须写明ORCA的绝对路径,如:
/sob/orca600/orca test.inp > test.out
如果懒得每次都写绝对路径,可以在.bashrc里加上下面这句
alias orca='/sob/orca600/orca'
这代表令orca命令等价于/sob/orca600/orca。

2.3 其它

有些系统如CentOS自带了名为orca的带有图形界面的没什么用的屏幕阅读器程序,直接输入orca命令启动的是那个程序,和本文的ORCA毫无联系。应当用rpm -e orca命令将自带的那个orca卸载掉。

如果你是在root用户下使用ORCA,由于OpenMPI的一个恶心的要求,必须每次执行的命令都带着-allow-run-as-root选项才行,这很烦人。可以在.bashrc里加入以下两行来避免,这在《root用户在用openmpi并行计算时避免加--allow-run-as-root的方法》(http://sobereva.com/409)里也说过:
export OMPI_ALLOW_RUN_AS_ROOT=1
export OMPI_ALLOW_RUN_AS_ROOT_CONFIRM=1

如果你的机子里之前装有其它MPI库或OpenMPI的其它版本,且在终端里输入which mpiexec命令的时候指向的是那些库的目录,则ORCA有极大可能会无法正常并行,需要你恰当处理以避免其优先级盖过你自己新装的OpenMPI。具体怎么处理,关键取决于你当前机子里之前具体是怎么装的MPI库。如果你之前是把其它MPI库装到了你自定义的目录下而非默认的/usr/local/bin下面,你就把那个MPI库的目录名随便改一下,或者把那个MPI库在.bashrc里的配置语句注释掉(前面加#号)然后重新登录终端。如果其它MPI被你安装到了默认路径(如/usr/local下),可以把前文的$PATH:/sob/openmpi416/bin改为/sob/openmpi416/bin:$PATH、把$LD_LIBRARY_PATH:/sob/openmpi416/lib改为/sob/openmpi416/lib:$LD_LIBRARY_PATH,然后重新登录终端,之所以这样做会奏效是因为此时openmpi416的路径会先于其它路径出现在这俩环境变量里,会被优先利用。

如果想用非常强大的波函数分析程序Multiwfn(http://sobereva.com/multiwfn)对ORCA的计算结果进行波函数分析和观看轨道图形,运行orca_2mkl xxx -molden,就把ORCA计算时产生的xxx.gbw转化成了xxx.molden.input,此文件可以直接作为Multiwfn的输入文件。orca_2mkl是ORCA目录下自带的意义上类似于Gaussian的formchk的工具。如果把Multiwfn目录里的settings.ini里的orca_2mklpath参数设为当前机子里orca_2mkl可执行文件的实际路径,则Multiwfn还可以直接载入gbw文件,更方便了。

Multiwfn还可以基于ORCA的输出文件绘制光谱图,见《使用Multiwfn绘制红外、拉曼、UV-Vis、ECD、VCD和ROA光谱图》(http://sobereva.com/224)。但注意,如果在Windows下运行ORCA,不要用PowerShell,要么用cmd要么用cmder。因为PowerShell里通过重定向产生的ORCA输出文件默认是Unicode编码的,Multiwfn没法读取里面的信息。《OfakeG:使GaussView能够可视化ORCA输出文件的工具》(http://sobereva.com/498)介绍的OfakeG程序也同样不认Unicode编码。用cmder的方法前面已经说了,在Win 10/11里如果想方便快速地进入cmd,只需运行一个注册表配置文件即可,见http://bbs.keinsci.com/thread-22940-1-1.html

作者
Author:
dingniu2    时间: 2018-12-21 09:04
请问老师,以前linux机器里装过旧版本的openmpi,结果导致新装的orca不能并行。请问可以把旧版本的openmpi卸载后再装新版openmpi吗?如何卸载?
作者
Author:
gsbear    时间: 2018-12-21 10:01
dingniu2 发表于 2018-12-21 09:04
请问老师,以前linux机器里装过旧版本的openmpi,结果导致新装的orca不能并行。请问可以把旧版本的openmpi ...

重新编译新版本的OpenMPI,修改PATH和LD_LIBRARY_PATH环境变量就可,老的版本可以不用管,实在嫌占磁盘空间,直接rm -r掉即可
作者
Author:
daxiali    时间: 2018-12-21 10:55
dingniu2 发表于 2018-12-21 09:04
请问老师,以前linux机器里装过旧版本的openmpi,结果导致新装的orca不能并行。请问可以把旧版本的openmpi ...

需要用老版本可以通过update-alternatives设置,不需要就可以删了直接装新的
作者
Author:
yurainingak    时间: 2018-12-21 11:07
本帖最后由 yurainingak 于 2018-12-21 11:09 编辑
dingniu2 发表于 2018-12-21 09:04
请问老师,以前linux机器里装过旧版本的openmpi,结果导致新装的orca不能并行。请问可以把旧版本的openmpi ...

在Linux下多个不同版本的openmpi是可以同时存在的,只需要在运行对应的ORCA版本时调用对应版本的openmpi即可,如下所示:
**********************************************
#!/bin/bash
export PATH=/PARA/pp775/WY/openmpi/openmpi_2.02-gcc/bin:$PATH
export LD_LIBRARY_PATH=/PARA/pp775/WY/openmpi/openmpi_2.02-gcc/lib:/PARA/pp775/WY/work/soft/orca:$LD_LIBRARY_PATH
/PARA/pp775/WY/work/soft/orca/orca dft-opt.inp > out-dft
**********************************************
这样就不需要在.bashrc文件里面选择了
作者
Author:
myzpku    时间: 2018-12-21 11:56
发现ORCA 4.1@openmpi 3.1.3有点问题,跑了一个test job程序在scf开始时就卡住了(但并未终止).换成ORCA 4.1@openmpi 2.1.5就没有这个问题,不知是不是有筒子也遇到过这种状况.
作者
Author:
hzfish    时间: 2018-12-21 12:38
myzpku 发表于 2018-12-21 11:56
发现ORCA 4.1@openmpi 3.1.3有点问题,跑了一个test job程序在scf开始时就卡住了(但并未终止).换成ORCA 4. ...

见:https://orcaforum.kofo.mpg.de/viewtopic.php?f=8&t=4386
作者
Author:
shiqiyuan    时间: 2019-1-30 08:48
老师,这个安装包在虚拟机下解压老报错呀,在官网上下载的没有?问题在哪呢?
作者
Author:
sobereva    时间: 2019-1-31 01:27
shiqiyuan 发表于 2019-1-30 08:48
老师,这个安装包在虚拟机下解压老报错呀,在官网上下载的没有?问题在哪呢?

看不懂你的叙述,你的表述里存在两个根本不相干的元素
作者
Author:
江月照相似    时间: 2019-3-9 21:12
yurainingak 发表于 2018-12-21 11:07
在Linux下多个不同版本的openmpi是可以同时存在的,只需要在运行对应的ORCA版本时调用对应版本的openmpi ...

请问你的这个dft-opt.inp > out-dft 是什么意思?
作者
Author:
yurainingak    时间: 2019-3-10 18:41
江月照相似 发表于 2019-3-9 21:12
请问你的这个dft-opt.inp > out-dft 是什么意思?

dft-opt.inp是ORCA计算的输入文件;out-dft 是输出文件,可以自己命名的
作者
Author:
sobereva    时间: 2019-3-11 03:52
shiqiyuan 发表于 2019-1-30 08:48
老师,这个安装包在虚拟机下解压老报错呀,在官网上下载的没有?问题在哪呢?

我的网盘上的文件包是绝对完整的
8成是你没下载完整,或者往虚拟机里拷的时候没拷完整
作者
Author:
xaomidaxue    时间: 2019-3-24 22:56
本帖最后由 xaomidaxue 于 2019-3-24 23:42 编辑

多谢sober老师,请教一个问题 可以把前文的$PATH:/sob/openmpi313/bin改为/sob/openmpi313/bin:$PATH、把$LD_LIBRARY_PATH:/sob/openmpi313/lib改为/sob/openmpi313/lib:$LD_LIBRARY_PATH,然后重新登录终端,之所以这样做会奏效是因为此时openmpi313的路径会先于其它路径出现在这俩环境变量里,会被优先利用。
我里面装了intel mpi和openmpi的话,我如上述操作了后(~/.bashrc),后面我用到impi的程序会不会有影响?是不是我自己做个pbs,在pbs里面直接写上openmpi的路径不知道这样可以么?
谢谢!


作者
Author:
sobereva    时间: 2019-3-25 00:24
xaomidaxue 发表于 2019-3-24 22:56
多谢sober老师,请教一个问题  可以把前文的$PATH:/sob/openmpi313/bin改为/sob/openmpi313/bin:$PATH、把$ ...

对于你当前的终端会有影响。pbs我不熟悉
作者
Author:
xaomidaxue    时间: 2019-4-1 22:35
sober老师,我把你的输入inp文件中的! BLYP def2-SVP noautostart miniprint pal4中的4改成24就报错。
请问一下这个pal4是4核并行的意思么?我的24核电脑运行后出现如下报错:
  INPUT ERROR
            UNRECOGNIZED OR DUPLICATED KEYWORD(S) IN SIMPLE INPUT LINE
                         PAL24
            !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
[file orca_main/maininp4.cpp, line 9612]:

请问这是怎么回事,我改成4就可以了。谢谢!

作者
Author:
sobereva    时间: 2019-4-2 08:25
xaomidaxue 发表于 2019-4-1 22:35
sober老师,我把你的输入inp文件中的! BLYP def2-SVP noautostart miniprint pal4中的4改成24就报错。
请 ...

pal最多只能是pal8,更多核数需要用诸如%pal nprocs 36 end来指定
作者
Author:
xaomidaxue    时间: 2019-4-2 08:41
sobereva 发表于 2019-4-2 08:25
pal最多只能是pal8,更多核数需要用诸如%pal nprocs 36 end来指定

非常感谢,sober老师。
作者
Author:
kongjie    时间: 2019-4-3 08:47
我安装的是orca4.1.1,按照教程安装的,但是并行计算老是报错,把PAL4删掉就能正常运行了,这是为啥呢,
作者
Author:
sobereva    时间: 2019-4-3 10:26
kongjie 发表于 2019-4-3 08:47
我安装的是orca4.1.1,按照教程安装的,但是并行计算老是报错,把PAL4删掉就能正常运行了,这是为啥呢,

MPI没装好
作者
Author:
kongjie    时间: 2019-4-3 10:45
sobereva 发表于 2019-4-3 10:26
MPI没装好

但是MPI是从网盘里下载的,我的ORCA是安装的window版本的,msmpi_10.0.exe,直接安装不是就可以吗?MPI怎么才算安装好呢?
作者
Author:
sobereva    时间: 2019-4-4 06:18
kongjie 发表于 2019-4-3 10:45
但是MPI是从网盘里下载的,我的ORCA是安装的window版本的,msmpi_10.0.exe,直接安装不是就可以吗?MPI怎 ...

双击,下一步下一步就完了
作者
Author:
ddls2017    时间: 2019-4-20 10:36
openmpi更高的版本,openmpi4.0行不行?
作者
Author:
sobereva    时间: 2019-4-20 23:53
ddls2017 发表于 2019-4-20 10:36
openmpi更高的版本,openmpi4.0行不行?

just try
作者
Author:
lty子于    时间: 2019-4-24 22:53
ubuntu 14.04.3,安装成功,注openmpi的make all install需要在root下才能成功安装,感谢sob老师们的教程
作者
Author:
sobereva    时间: 2019-4-24 22:57
lty子于 发表于 2019-4-24 22:53
ubuntu 14.04.3,安装成功,注openmpi的make all install需要在root下才能成功安装,感谢sob老师们的教程

--prefix如果指定的是你当前用户有权限的路径,应当不需要root权限
作者
Author:
lty子于    时间: 2019-4-24 23:04
sobereva 发表于 2019-4-24 22:57
--prefix如果指定的是你当前用户有权限的路径,应当不需要root权限

当时编译应当是指定的当前用户的路径的:/home/user/openmpi313,另外,ubuntu 中法使用make all install -j多核并行安装确实会报错,单核安装可用
作者
Author:
sobereva    时间: 2019-4-24 23:13
lty子于 发表于 2019-4-24 23:04
当时编译应当是指定的当前用户的路径的:/home/user/openmpi313,另外,ubuntu 中法使用make all install  ...

如果你不是在虚拟机下安装用-j也会出错,只能再次说明ubuntu实在太不适合科学计算用途
作者
Author:
lty子于    时间: 2019-4-24 23:18
sobereva 发表于 2019-4-24 23:13
如果你不是在虚拟机下安装用-j也会出错,只能再次说明ubuntu实在太不适合科学计算用途

好的,感谢Sob老师深夜回复,看来以后转要CentOS
作者
Author:
lty子于    时间: 2019-4-25 23:00
sobereva 发表于 2019-4-24 22:57
--prefix如果指定的是你当前用户有权限的路径,应当不需要root权限

今天在ubuntu14.05.5上又试了一下,确实不用root权限也可以make all install,Sob老师太赞了!
作者
Author:
indec    时间: 2019-5-12 13:49
在安装 OpenMPI 时候 make后总是如下报错
  1. cd . && /bin/sh /home/parallels/Program/openmpi-3.1.3/config/missing automake-1.15 --foreign
  2. /home/parallels/Program/openmpi-3.1.3/config/missing: line 81: automake-1.15: command not found
  3. WARNING: 'automake-1.15' is missing on your system.
  4.          You should only need it if you modified 'Makefile.am' or
  5.          'configure.ac' or m4 files included by 'configure.ac'.
  6.          The 'automake' program is part of the GNU Automake package:
  7.          <http://www.gnu.org/software/automake>
  8.          It also requires GNU Autoconf, GNU m4 and Perl in order to run:
  9.          <http://www.gnu.org/software/autoconf>
  10.          <http://www.gnu.org/software/m4/>
  11.          <http://www.perl.org/>
  12. make: *** [Makefile.in] Error 1
复制代码


但是 yum insatll automake/autoconf/m4 都显示已经安装,sob 老师,这该怎么解决?
作者
Author:
zjxitcc    时间: 2019-5-12 14:11
indec 发表于 2019-5-12 13:49
在安装 OpenMPI 时候 make后总是如下报错

分别使用which automake/autoconf/m4看是否成功安装,分别使用automake/autoconf/m4 --version(两个短横线)查看版本号是否满足要求。
作者
Author:
exity    时间: 2019-5-13 10:25
社长请问一下,是否和高斯的情况类似,要进行严肃的计算工作,是不是Linux下的ORCA要比win版的好?
作者
Author:
sobereva    时间: 2019-5-13 13:04
exity 发表于 2019-5-13 10:25
社长请问一下,是否和高斯的情况类似,要进行严肃的计算工作,是不是Linux下的ORCA要比win版的好?

那倒没有必然性
ORCA的windows版表现没问题,而且是64bit的
作者
Author:
欢乐多    时间: 2019-8-2 18:10
本帖最后由 欢乐多 于 2019-8-2 18:17 编辑
sobereva 发表于 2019-5-13 13:04
那倒没有必然性
ORCA的windows版表现没问题,而且是64bit的

老师,安装您的步骤在Linux上安装openmpi313,安装时未出现报错,而mpiexec -V并不成功,安装不知道哪里出错?检查gcc时,也有gcc。
作者
Author:
sobereva    时间: 2019-8-3 00:36
欢乐多 发表于 2019-8-2 18:10
老师,安装您的步骤在Linux上安装openmpi313,安装时未出现报错,而mpiexec -V并不成功,安装不知道哪里 ...

编译过程仔细看屏幕上的提示,如果严格按照我的步骤操作,屏幕上也没有报错,装完了肯定在/root/openmpi313/bin里面能找到mpiexec文件。按照你图中这样对/root/.bashrc配置之后,重新进入终端,运行mpiexec不可能找不到命令
作者
Author:
欢乐多    时间: 2019-8-3 01:51
本帖最后由 欢乐多 于 2019-8-3 03:56 编辑
sobereva 发表于 2019-8-3 00:36
编译过程仔细看屏幕上的提示,如果严格按照我的步骤操作,屏幕上也没有报错,装完了肯定在/root/openmpi3 ...

老师,将make all install -j 改为make all install ,安装成功

作者
Author:
sobereva    时间: 2019-8-3 07:34
xaomidaxue 发表于 2019-4-1 22:35
sober老师,我把你的输入inp文件中的! BLYP def2-SVP noautostart miniprint pal4中的4改成24就报错。
请 ...

根本就没有叫pal24的关键词,不要想当然
要用%pal nprocs 24 end
作者
Author:
sobereva    时间: 2019-8-19 16:08
更新了本文,增加了“附:在Windows下使用ORCA的最便捷方法”部分
作者
Author:
惠成功QUB    时间: 2019-8-19 16:17
hzfish 发表于 2018-12-21 12:38
见:https://orcaforum.kofo.mpg.de/viewtopic.php?f=8&t=4386

我也遇到过莫名其妙在某刻地方卡住,既不结束也不继续的问题
后来也是--disable-builtin-atomics解决的
那这个参数是什么意思呢?
作者
Author:
haos314    时间: 2020-2-22 01:42
老师您好!ORCA对于SSE4.2/AVX/AVX2这些扩展指令集是不是没有特殊要求?
作者
Author:
sobereva    时间: 2020-2-22 17:52
haos314 发表于 2020-2-22 01:42
老师您好!ORCA对于SSE4.2/AVX/AVX2这些扩展指令集是不是没有特殊要求?

没有
作者
Author:
mol    时间: 2020-3-8 22:31
sob老师您好,文章可能有个笔误:
  1. /sob/orca/orca410 test.inp > test.out
复制代码

应该是
  1. /sob/orca410/orca test.inp > test.out
复制代码

作者
Author:
sobereva    时间: 2020-3-9 07:13
mol 发表于 2020-3-8 22:31
sob老师您好,文章可能有个笔误:

应该是

谢谢,已改
作者
Author:
a617788816    时间: 2020-3-29 13:46
请教一下,ORCA,如何使用GPU加速
作者
Author:
zjxitcc    时间: 2020-3-29 14:18
a617788816 发表于 2020-3-29 13:46
请教一下,ORCA,如何使用GPU加速

压根就不支持,咋使用
作者
Author:
a617788816    时间: 2020-3-29 14:34
zjxitcc 发表于 2020-3-29 14:18
压根就不支持,咋使用

我好像看到帖子说支持,我也不是特别清楚
作者
Author:
zjxitcc    时间: 2020-3-29 14:41
a617788816 发表于 2020-3-29 14:34
我好像看到帖子说支持,我也不是特别清楚

目前就是不支持。
作者
Author:
sobereva    时间: 2020-3-31 02:50
a617788816 发表于 2020-3-29 13:46
请教一下,ORCA,如何使用GPU加速

公开版本根本没有GPU
Neese组里貌似有人搞GPU,但即便搞完了也不会有什么实用性
作者
Author:
alonewolfyang    时间: 2020-12-28 15:33
本帖最后由 alonewolfyang 于 2020-12-28 15:35 编辑

老师,我参照本文设置在小服务器配置ORCA4.2.1,但是测试的时候提示错误,环境变量设置感觉没错误,MPI能正常显示版本号[attach]31232[/attach]
作者
Author:
sobereva    时间: 2020-12-29 08:06
alonewolfyang 发表于 2020-12-28 15:33
老师,我参照本文设置在小服务器配置ORCA4.2.1,但是测试的时候提示错误,环境变量设置感觉没错误,MPI能正 ...

第四行LIBRARY拼错了
作者
Author:
alonewolfyang    时间: 2020-12-29 08:54
我老眼昏花了,谢谢老师
作者
Author:
yinhang    时间: 2020-12-31 00:13
请教老师,我装的17G大小的静态库版本的4.2.1为什么也还是需要联网使用呀?怎么设置才能让orca突然断网也能正常使用呢?
作者
Author:
sobereva    时间: 2021-1-2 00:05
yinhang 发表于 2020-12-31 00:13
请教老师,我装的17G大小的静态库版本的4.2.1为什么也还是需要联网使用呀?怎么设置才能让orca突然断网也能 ...

并不需要联网
只不过机子必须有网卡,而且处于启用状态,这是OpenMPI库的要求,和ORCA自身无关
作者
Author:
yinhang    时间: 2021-1-2 17:42
sobereva 发表于 2021-1-2 00:05
并不需要联网
只不过机子必须有网卡,而且处于启用状态,这是OpenMPI库的要求,和ORCA自身无关

谢谢卢老师~
作者
Author:
lmylmy    时间: 2021-1-28 21:24
谢谢分享,按照说明成功安装了ORCA4.2.0,并运行了测试文件。
Timings for individual modules:

Sum of individual times         ...        2.680 sec (=   0.045 min)
GTO integral calculation        ...        0.435 sec (=   0.007 min)  16.2 %
SCF iterations                  ...        2.246 sec (=   0.037 min)  83.8 %
                             ****ORCA TERMINATED NORMALLY****
TOTAL RUN TIME: 0 days 0 hours 0 minutes 3 seconds 85 msec
作者
Author:
sun666    时间: 2021-2-6 00:41
请问社长在对msmpisetup.exe进行安装时出现“MS-MPl Installation failed with error code 4317.The currently installedversion can not be upgraded. lt must be manually uninstalled fromAdd/Remove Programs before this installation can continue.”MS-MPL安装失败,错误代码4317。当前安装版本无法升级。必须手动从Add/Remove程序中卸载,才能继续此安装。是怎么回事,导致不能正常运行。

作者
Author:
sobereva    时间: 2021-2-6 03:39
sun666 发表于 2021-2-6 00:41
请问社长在对msmpisetup.exe进行安装时出现“MS-MPl Installation failed with error code 4317.The curren ...

卸了重装呗
作者
Author:
yqiusheng    时间: 2021-2-7 10:56
本帖最后由 yqiusheng 于 2021-2-7 11:00 编辑

请问,gcc编译器那个版本的来编openmpi3.1.4 比较合适?   4.8得还是更高的? 我现在是4.5 是不是有点太低了?
作者
Author:
wzkchem5    时间: 2021-2-7 15:54
yqiusheng 发表于 2021-2-7 10:56
请问,gcc编译器那个版本的来编openmpi3.1.4 比较合适?   4.8得还是更高的? 我现在是4.5 是不是有点太低 ...

编一下试试就知道,能编过就可以用,编不过再升级
作者
Author:
rpestana94    时间: 2021-3-24 05:21
I have a question, I try with mpi 3.1.4 because I'm trying with Orca 4.2.1, with mpi I can't see any error with the instalation, go so fast though, add the lines to the /.bashrc file but when I execute mpiexec -V it says: "mpiexec (OpenRTE) 1.10.2". I'm using ubuntu 16.

So i understand that mpi 3.1.4 was not sucesfully installed, what should I do? Maybe try with root permission? I alredy try changing like this ($PATH:/sob/openmpi313/bin to /sob/openmpi313/bin:$PATH, and change $LD_LIBRARY_PATH:/sob/ Change openmpi313/lib to /sob/openmpi313/lib:$LD_LIBRARY_PATH) in the /.bashrc file.

Thanks in advance.


作者
Author:
aitouna    时间: 2021-3-24 06:51
My Dear Professor,
How about the parallel computation cross-nodes ? Does ORCA support that kind of calculations ? If yes, could you please, describe the process ?

Best Rgards,
作者
Author:
wzkchem5    时间: 2021-3-24 18:40
rpestana94 发表于 2021-3-24 05:21
I have a question, I try with mpi 3.1.4 because I'm trying with Orca 4.2.1, with mpi I can't see any ...

Do you actually have an executable named mpiexec under /sob/openmpi313/bin?
作者
Author:
sobereva    时间: 2021-3-25 06:54
aitouna 发表于 2021-3-24 06:51
My Dear Professor,
How about the parallel computation cross-nodes ? Does ORCA support that kind of ...

ORCA is able to run on multiple nodes since it is parallelized by MPI technique, however ORCA developers didn't optimize their code for this application scenario, so the cross-node efficiency may be quite poor.
作者
Author:
sobereva    时间: 2021-3-25 06:55
rpestana94 发表于 2021-3-24 05:21
I have a question, I try with mpi 3.1.4 because I'm trying with Orca 4.2.1, with mpi I can't see any ...

It seems that you already installed a MPI before. Run "which mpirun" command to check which MPI library is currently activated.
作者
Author:
rpestana94    时间: 2021-3-25 21:55
wzkchem5 发表于 2021-3-24 05:40
Do you actually have an executable named mpiexec under /sob/openmpi313/bin?

yes, I have one
作者
Author:
rpestana94    时间: 2021-3-25 21:57
sobereva 发表于 2021-3-24 17:55
It seems that you already installed a MPI before. Run "which mpirun" command to check which MPI li ...

it appears one on usr/bin/
作者
Author:
sobereva    时间: 2021-3-26 09:16
rpestana94 发表于 2021-3-25 21:57
it appears one on usr/bin/

Change file name of /usr/bin/mpirun to make system unable to recognize it, or install your new openmpi on default path to overwite the existing MPI files on your system.
作者
Author:
赵云跳槽    时间: 2021-4-22 09:45
请问下,我服务器上mpiexec -V会和ifort -V相冲突

我在.bashrc中添加了source /opt/intel/bin/ifortvars.sh intel64

如果我不注释掉,则ifort -V能够正常显示,mpiexec -V会显示
$ mpiexec -V
Intel(R) MPI Library for Linux* OS, Version 2019 Build 20180829 (id: 15f5d6c0c)
Copyright 2003-2018, Intel Corporation.

如果我注释掉,则mpiexec -V会显示,但ifort -V就不能用了
$ mpiexec -V
.mpiexec (OpenRTE) 4.0.3
Report bugs to http://www.open-mpi.org/community/help/

请问有什么办法可以两者同时能用?
作者
Author:
abin    时间: 2021-4-22 10:03
赵云跳槽 发表于 2021-4-22 09:45
请问下,我服务器上mpiexec -V会和ifort -V相冲突

我在.bashrc中添加了source /opt/intel/bin/ifortvars ...

不要写~/.bashrc中.

写在对应的计算脚本中就可以.

比如 run_orca.sh 里面写上对应MPI设定和ORCA设定.

再来一个, run_vasp_intelMPI.sh,
里面写上intel相关设定和VASP设定.

大致如此.


作者
Author:
赵云跳槽    时间: 2021-4-22 11:02
abin 发表于 2021-4-22 10:03
不要写~/.bashrc中.

写在对应的计算脚本中就可以.

大佬能不能给我提供一个样板,我单机服务器试了下,一直没成功

我的脚本
[user@localhost orca]$ cat run_orca.sh
#!/bin/bash
export PATH=$PATH:/home/user/software/openmpi-4.0.3/bin
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/user/software/openmpi-4.0.3/lib

export PATH=$PATH:/home/user/software/orca421
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/user/software/orca421
alias orca='/home/user/software/orca421/orca'

for inf in `ls *.inp`
do
echo ${inf}
orca ${inf} > ${inf//inp/out} &
done

作者
Author:
abin    时间: 2021-4-22 11:21
赵云跳槽 发表于 2021-4-22 11:02
大佬能不能给我提供一个样板,我单机服务器试了下,一直没成功

我的脚本

把bashrc中无关的设定取消。

如只有一个版本,
写在/etc/profile或者bashrc是可行的。

如有多个版本,
还这么干,
那就是吃饱了撑的。
作者
Author:
赵云跳槽    时间: 2021-4-22 11:27
abin 发表于 2021-4-22 11:21
把bashrc中无关的设定取消。

如只有一个版本,

我还是没搞定,单独弄了个run_orca.sh脚本,删除了.bashrc中的设定
但是还是如果解封ifort命令,则orca运行就出错
作者
Author:
abin    时间: 2021-4-22 11:44
赵云跳槽 发表于 2021-4-22 11:27
我还是没搞定,单独弄了个run_orca.sh脚本,删除了.bashrc中的设定
但是还是如果解封ifort命令,则orca ...
  1. [kong@e5node1 intel]$ ls
  2. intel_2015_setup.sh  intel2018u4_setup.sh  intel2019_setup.sh  intel2019_setup.sh.old  intel2019_setup.sh.old1  intel2020u4_setup.sh
  3. [kong@e5node1 intel]$ which icc
  4. /usr/bin/which: no icc in (/usr/lib64/qt-3.3/bin:/usr/local/bin:/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/home/kong/.local/bin:/home/kong/bin)
  5. [kong@e5node1 intel]$ source intel_2015_setup.sh
  6. [kong@e5node1 intel]$ which  icc
  7. /home2/opt/share/apps/intel2015u6/composer_xe_2015.6.233/bin/intel64/icc
  8. [kong@e5node1 intel]$ source intel2019_setup.sh
  9. [kong@e5node1 intel]$ which icc
  10. /home2/opt/share/apps/intel2019u4/compilers_and_libraries_2019.5.281/linux/bin/intel64/icc
  11. [kong@e5node1 intel]$ source intel2020u4_setup.sh
  12. [kong@e5node1 intel]$ which icc
  13. /opt/share/apps/intel2020u4/compilers_and_libraries_2020.4.304/linux/bin/intel64/icc
  14. [kong@e5node1 intel]$ which ifort
  15. /opt/share/apps/intel2020u4/compilers_and_libraries_2020.4.304/linux/bin/intel64/ifort
  16. [kong@e5node1 intel]$ which mpirun
  17. /home2/opt/share/apps/intel2020u4/compilers_and_libraries_2020.4.304/linux/mpi/intel64/bin/mpirun
  18. [kong@e5node1 intel]$
复制代码
这个示例可以了吧?

作者
Author:
赵云跳槽    时间: 2021-4-22 12:29
abin 发表于 2021-4-22 11:44
这个示例可以了吧?

膜拜大佬

后来看Sob的博文还是搞定了
将原来的
export PATH=$PATH:/home/user/software/openmpi-4.0.3/bin
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/user/software/openmpi-4.0.3/lib
改成了
export PATH=/home/user/software/openmpi-4.0.3/bin:$PATH
export LD_LIBRARY_PATH=/home/user/software/openmpi-4.0.3/lib:$LD_LIBRARY_PATH
就没出现ifort和OpenMPI冲突的问题了

作者
Author:
abin    时间: 2021-4-22 12:39
赵云跳槽 发表于 2021-4-22 12:29
膜拜大佬

后来看Sob的博文还是搞定了

自定义PATH,
顺序都能搞反, 我猜你是喝多了.
作者
Author:
pzl    时间: 2021-4-26 17:36
老师,我make install 后有几个错误,然后,检查这个OpenMPI,它有图片的提交bug,可以继续安装嘛



作者
Author:
pzl    时间: 2021-4-26 17:56
pzl 发表于 2021-4-26 17:36
老师,我make install 后有几个错误,然后,检查这个OpenMPI,它有图片的提交bug,可以继续安装嘛[/backcol ...

我知道了,应该是编译器版本什么的问题,我去下新版本的OpenMPI了,不麻烦老师了
作者
Author:
wuyiyyyy    时间: 2021-5-31 11:14
老师您好,请问我下载了win版的orca,解压之后得到一个orca命名的文件夹。然后安装了MSMPI 10.0。
我把那个测试文件H2CO.inp也放在orca文件夹下,在cmd界面输入D:\ORCA\orca H2CO.inp > H2CO.out
然后就是
[file orca_main/run.cpp, line 9893]: Cannot open input file: H2CO.inp
报错,请问可以怎么解决呢?
作者
Author:
snljty    时间: 2021-5-31 12:31
wuyiyyyy 发表于 2021-5-31 11:14
老师您好,请问我下载了win版的orca,解压之后得到一个orca命名的文件夹。然后安装了MSMPI 10.0。
我把那 ...

测试文件放在orca文件夹干嘛,按你截图的命令,应该在当前目录下,也就是C:\Users\FWT里。不过不要这么干,尤其如果报错,你的用户家目录里会多一大堆临时文件。新建一个目录,放入输入文件,cd进去后再跑。
作者
Author:
wuyiyyyy    时间: 2021-5-31 13:31
snljty 发表于 2021-5-31 12:31
测试文件放在orca文件夹干嘛,按你截图的命令,应该在当前目录下,也就是C:%users\FWT里。不过不要这么干 ...

我把输入文件也给了一个绝对路径就可以跑起来了
作者
Author:
zjxitcc    时间: 2021-5-31 13:43
wuyiyyyy 发表于 2021-5-31 13:31
我把输入文件也给了一个绝对路径就可以跑起来了

应养成习惯,进入输入文件所在目录 再执行任务;也不要在程序目录里执行任务。如果不懂如何切换目录,自己搜索几分钟就学会了。
作者
Author:
qinsc    时间: 2021-7-2 14:47
老师您好,我在运行ORCA5.0.0的时候报错

*** An error occurred in MPI_Type_match_size
*** reported by process [795541505,1]
*** on communicator MPI_COMM_WORLD
*** MPI_ERR_ARG: invalid argument of some other kind
*** MPI_ERRORS_ARE_FATAL (processes in this communicator will now abort,
***    and potentially your MPI job)
PMIX ERROR: UNREACHABLE in file server/pmix_server.c at line 2198
2 more processes have sent help message help-mpi-errors.txt / mpi_errors_are_fatal
Set MCA parameter "orte_base_help_aggregate" to 0 to see all help / error messages
[file orca_tools/qcmsg.cpp, line 458]:
  .... aborting the run

openmpi4.1.1是按照3.1.3的方法安装的,安装完成后which mpirun 也显示是4.1.1版本
orca单核计算是没问题的,设置多核就会出现上述报错。
作者
Author:
wzkchem5    时间: 2021-7-2 14:50
qinsc 发表于 2021-7-2 07:47
老师您好,我在运行ORCA5.0.0的时候报错

*** An error occurred in MPI_Type_match_size

建议在orca论坛上提问,https://orcaforum.kofo.mpg.de/viewforum.php?f=9
并给出更详细的信息,例如PATH、LD_LIBRARY_PATH变量的设置等等
作者
Author:
qinsc    时间: 2021-7-2 16:13
wzkchem5 发表于 2021-7-2 14:50
建议在orca论坛上提问,https://orcaforum.kofo.mpg.de/viewforum.php?f=9
并给出更详细的信息,例如PAT ...

#openmpi
export PATH=$PATH:/home/abc/openmpi411/bin
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/abc/openmpi411/lib
#openmpi

#orca
export PATH=$PATH:/home/abc/orca500
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/abc/orca500
alias orca='/home/abc/orca500/orca'
#orca
作者
Author:
influenza    时间: 2021-7-3 10:53
openmpi 4.1.1编译不成功,求助!
请问各位老师,按照卢老师给的信息,编译输入 make all install 之后,编译最后一段显示很多的"nothing to be done for "xx"
这是怎么回事?
还有,openmpi是对Linux的shared 和非shared版本都需要的吧?安装不成功就无法在linux上使用orca,捉急啊。
谢谢了!

作者
Author:
zjxitcc    时间: 2021-7-3 11:03
influenza 发表于 2021-7-3 10:53
openmpi 4.1.1编译不成功,求助!
请问各位老师,按照卢老师给的信息,编译输入 make all install 之后, ...

nothing to be done不是错误,正常输出。如果你还觉得哪里有错误,最好直接截图展示之。

注:若中间某一步有错误 停下来截图展示,不要去执行下一步。

shared版ORCA体积小,当然选这个了。


作者
Author:
influenza    时间: 2021-7-3 13:12
zjxitcc 发表于 2021-7-3 11:03
nothing to be done不是错误,正常输出。如果你还觉得哪里有错误,最好直接截图展示之。

注:若中间某 ...

感谢您的回复!
编译完毕之后,也在bashrc中加入了路径,如下图所示。
但是输入openmpiexec -V时,提示“Command not found.”



作者
Author:
zjxitcc    时间: 2021-7-3 13:14
influenza 发表于 2021-7-3 13:12
感谢您的回复!
编译完毕之后,也在bashrc中加入了路径,如下图所示。
但是输入openmpiexec -V时,提示 ...

你的gview.exe前后单引号跨得太远了,中间openmpi环境变量颜色都异常了没看出来么
作者
Author:
influenza    时间: 2021-7-3 13:17
好的,谢谢啦!!Linux小白一个,呵呵!!
作者
Author:
influenza    时间: 2021-7-3 13:18
zjxitcc 发表于 2021-7-3 13:14
你的gview.exe前后单引号跨得太远了,中间openmpi环境变量颜色都异常了没看出来么

好的,谢谢啦!Linux小白一个,呵呵!!
作者
Author:
influenza    时间: 2021-7-3 13:22
本帖最后由 influenza 于 2021-7-3 13:25 编辑
zjxitcc 发表于 2021-7-3 13:14
你的gview.exe前后单引号跨得太远了,中间openmpi环境变量颜色都异常了没看出来么

可以了。不好意思。谢谢!!





作者
Author:
qinsc    时间: 2021-7-5 13:45
qinsc 发表于 2021-7-2 14:47
老师您好,我在运行ORCA5.0.0的时候报错

*** An error occurred in MPI_Type_match_size

问题已经解决,编译openmpi4.1.1的时候需要 gfortran 或者 ifort,仅有gcc就会出现这个问题。
编译openmpi之前需安装 gcc和gfortron。
原帖见 https://orcaforum.kofo.mpg.de/viewtopic.php?f=9&t=7566
作者
Author:
wzkchem5    时间: 2021-7-5 14:27
jitou11 发表于 2021-7-5 04:29
各位老师好!
这两天我尝试安装ORCA5.0但还是有问题,单核运行没发现啥问题,多核并行直接报错。测试的是本 ...

调用orca不能用mpirun,应该直接调用orca
orca主程序是串行的,它自己会用mpirun调用orca_gtoint_mpi、orca_scf_mpi等程序。你用mpirun调用orca就会导致嵌套并行,从而报错
作者
Author:
annaqz    时间: 2021-7-8 11:00
yurainingak 发表于 2018-12-21 11:07
在Linux下多个不同版本的openmpi是可以同时存在的,只需要在运行对应的ORCA版本时调用对应版本的openmpi ...

我不明白。我同时装了openmpi314和411,都在自定义目录下。在bash文件里把411的环境变量按照你写的这个修改了。但是which mpiexec的时候还是指向314.最开始如果两种mpi的环境变量设置完全一模一样,which mpiexec也还是指向314.这是为什么?要怎么修改呢?
作者
Author:
乐平    时间: 2021-7-28 22:46
Sob 老师好!
我按照此帖的步骤安装了 openmpi 4.1.1 版,
  1. (base) [root@master orca_501]# ./configure --prefix=/public1/apps/openmpi_411 FC=ifort CC=icc CXX=icpc
复制代码


然后添加了环境变量。安装后检查版本正常,如下

  1. (base) [wanghuan@n9 orca_jobs]$ mpiexec -V
  2. mpiexec (OpenRTE) 4.1.1

  3. Report bugs to http://www.open-mpi.org/community/help/
  4. (base) [wanghuan@n9 orca_jobs]$
  5. (base) [wanghuan@n9 orca_jobs]$
复制代码


然后按照帖子安装 orca 5.0.1,下载的是 orca_5_0_1_linux_x86-64_shared_openmpi411.tar.xz
似乎只用解压就够了,不用像其他程序 ./configure --prefix=/path/,   make, make install?

添加环境变量。

用帖子里的 CHHO 例子做测试,但是运行的时候出现如下错误,似乎与 openmpi 有关,报错代码如下:
  1. (base) [wanghuan@n9 orca_jobs]$ orca test.inp > test.out
  2. [n9:12018] mca_base_component_repository_open: unable to open mca_plm_tm: libtorque.so.2: cannot open shared object file: No such file or directory (ignored)
  3. [n9:12018] mca_base_component_repository_open: unable to open mca_ras_tm: libtorque.so.2: cannot open shared object file: No such file or directory (ignored)
  4. [n9:12026] mca_base_component_repository_open: unable to open mca_btl_usnic: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_btl_usnic.so) (ignored)
  5. [n9:12028] mca_base_component_repository_open: unable to open mca_btl_usnic: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_btl_usnic.so) (ignored)
  6. [n9:12027] mca_base_component_repository_open: unable to open mca_btl_usnic: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_btl_usnic.so) (ignored)
  7. [n9:12029] mca_base_component_repository_open: unable to open mca_btl_usnic: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_btl_usnic.so) (ignored)
  8. [n9:12028] mca_base_component_repository_open: unable to open mca_btl_ofi: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_btl_ofi.so) (ignored)
  9. [n9:12029] mca_base_component_repository_open: unable to open mca_btl_ofi: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_btl_ofi.so) (ignored)
  10. [n9:12027] mca_base_component_repository_open: unable to open mca_btl_ofi: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_btl_ofi.so) (ignored)
  11. [n9:12026] mca_base_component_repository_open: unable to open mca_btl_ofi: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_btl_ofi.so) (ignored)
  12. --------------------------------------------------------------------------
  13. By default, for Open MPI 4.0 and later, infiniband ports on a device
  14. are not used by default.  The intent is to use UCX for these devices.
  15. You can override this policy by setting the btl_openib_allow_ib MCA parameter
  16. to true.

  17.   Local host:              n9
  18.   Local adapter:           hfi1_0
  19.   Local port:              1

  20. --------------------------------------------------------------------------
  21. --------------------------------------------------------------------------
  22. WARNING: There was an error initializing an OpenFabrics device.

  23.   Local host:   n9
  24.   Local device: hfi1_0
  25. --------------------------------------------------------------------------
  26. [n9:12026] mca_base_component_repository_open: unable to open mca_mtl_ofi: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_mtl_ofi.so) (ignored)
  27. [n9:12029] mca_base_component_repository_open: unable to open mca_mtl_ofi: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_mtl_ofi.so) (ignored)
  28. [n9:12028] mca_base_component_repository_open: unable to open mca_mtl_ofi: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_mtl_ofi.so) (ignored)
  29. [n9:12027] mca_base_component_repository_open: unable to open mca_mtl_ofi: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_mtl_ofi.so) (ignored)
  30. [n9:12018] 3 more processes have sent help message help-mpi-btl-openib.txt / ib port not selected
  31. [n9:12018] Set MCA parameter "orte_base_help_aggregate" to 0 to see all help / error messages
  32. [n9:12018] 3 more processes have sent help message help-mpi-btl-openib.txt / error in device init
  33. [n9:12057] mca_base_component_repository_open: unable to open mca_plm_tm: libtorque.so.2: cannot open shared object file: No such file or directory (ignored)
  34. [n9:12057] mca_base_component_repository_open: unable to open mca_ras_tm: libtorque.so.2: cannot open shared object file: No such file or directory (ignored)
  35. [n9:12061] mca_base_component_repository_open: unable to open mca_btl_usnic: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_btl_usnic.so) (ignored)
  36. [n9:12061] mca_base_component_repository_open: unable to open mca_btl_ofi: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_btl_ofi.so) (ignored)
  37. [n9:12064] mca_base_component_repository_open: unable to open mca_btl_usnic: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_btl_usnic.so) (ignored)
  38. [n9:12063] mca_base_component_repository_open: unable to open mca_btl_usnic: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_btl_usnic.so) (ignored)
  39. [n9:12062] mca_base_component_repository_open: unable to open mca_btl_usnic: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_btl_usnic.so) (ignored)
  40. [n9:12064] mca_base_component_repository_open: unable to open mca_btl_ofi: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_btl_ofi.so) (ignored)
  41. [n9:12062] mca_base_component_repository_open: unable to open mca_btl_ofi: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_btl_ofi.so) (ignored)
  42. [n9:12063] mca_base_component_repository_open: unable to open mca_btl_ofi: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_btl_ofi.so) (ignored)
  43. --------------------------------------------------------------------------
  44. By default, for Open MPI 4.0 and later, infiniband ports on a device
  45. are not used by default.  The intent is to use UCX for these devices.
  46. You can override this policy by setting the btl_openib_allow_ib MCA parameter
  47. to true.

  48.   Local host:              n9
  49.   Local adapter:           hfi1_0
  50.   Local port:              1

  51. --------------------------------------------------------------------------
  52. --------------------------------------------------------------------------
  53. WARNING: There was an error initializing an OpenFabrics device.

  54.   Local host:   n9
  55.   Local device: hfi1_0
  56. --------------------------------------------------------------------------
  57. [n9:12061] mca_base_component_repository_open: unable to open mca_mtl_ofi: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_mtl_ofi.so) (ignored)
  58. [n9:12062] mca_base_component_repository_open: unable to open mca_mtl_ofi: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_mtl_ofi.so) (ignored)
  59. [n9:12063] mca_base_component_repository_open: unable to open mca_mtl_ofi: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_mtl_ofi.so) (ignored)
  60. [n9:12064] mca_base_component_repository_open: unable to open mca_mtl_ofi: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_mtl_ofi.so) (ignored)
  61. [n9:12057] 3 more processes have sent help message help-mpi-btl-openib.txt / ib port not selected
  62. [n9:12057] Set MCA parameter "orte_base_help_aggregate" to 0 to see all help / error messages
  63. [n9:12057] 3 more processes have sent help message help-mpi-btl-openib.txt / error in device init
  64. [n9:12079] mca_base_component_repository_open: unable to open mca_plm_tm: libtorque.so.2: cannot open shared object file: No such file or directory (ignored)
  65. [n9:12079] mca_base_component_repository_open: unable to open mca_ras_tm: libtorque.so.2: cannot open shared object file: No such file or directory (ignored)
  66. [n9:12085] mca_base_component_repository_open: unable to open mca_btl_usnic: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_btl_usnic.so) (ignored)
  67. [n9:12084] mca_base_component_repository_open: unable to open mca_btl_usnic: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_btl_usnic.so) (ignored)
  68. [n9:12086] mca_base_component_repository_open: unable to open mca_btl_usnic: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_btl_usnic.so) (ignored)
  69. [n9:12083] mca_base_component_repository_open: unable to open mca_btl_usnic: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_btl_usnic.so) (ignored)
  70. [n9:12085] mca_base_component_repository_open: unable to open mca_btl_ofi: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_btl_ofi.so) (ignored)
  71. [n9:12086] mca_base_component_repository_open: unable to open mca_btl_ofi: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_btl_ofi.so) (ignored)
  72. [n9:12084] mca_base_component_repository_open: unable to open mca_btl_ofi: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_btl_ofi.so) (ignored)
  73. [n9:12083] mca_base_component_repository_open: unable to open mca_btl_ofi: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_btl_ofi.so) (ignored)
  74. --------------------------------------------------------------------------
  75. By default, for Open MPI 4.0 and later, infiniband ports on a device
  76. are not used by default.  The intent is to use UCX for these devices.
  77. You can override this policy by setting the btl_openib_allow_ib MCA parameter
  78. to true.

  79.   Local host:              n9
  80.   Local adapter:           hfi1_0
  81.   Local port:              1

  82. --------------------------------------------------------------------------
  83. --------------------------------------------------------------------------
  84. WARNING: There was an error initializing an OpenFabrics device.

  85.   Local host:   n9
  86.   Local device: hfi1_0
  87. --------------------------------------------------------------------------
  88. [n9:12083] mca_base_component_repository_open: unable to open mca_mtl_ofi: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_mtl_ofi.so) (ignored)
  89. [n9:12086] mca_base_component_repository_open: unable to open mca_mtl_ofi: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_mtl_ofi.so) (ignored)
  90. [n9:12085] mca_base_component_repository_open: unable to open mca_mtl_ofi: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_mtl_ofi.so) (ignored)
  91. [n9:12084] mca_base_component_repository_open: unable to open mca_mtl_ofi: /lib64/libfabric.so.1: version `FABRIC_1.3' not found (required by /public1/apps/openmpi_411/lib/openmpi/mca_mtl_ofi.so) (ignored)
  92. [n9:12079] 3 more processes have sent help message help-mpi-btl-openib.txt / ib port not selected
  93. [n9:12079] Set MCA parameter "orte_base_help_aggregate" to 0 to see all help / error messages
  94. [n9:12079] 3 more processes have sent help message help-mpi-btl-openib.txt / error in device init
  95. (base) [wanghuan@n9 orca_jobs]$
复制代码


请问应该如何解决?

不过似乎能获得计算结果,出现以下文件:
  1. (base) [wanghuan@n9 orca_jobs]$ la
  2. total 736K
  3. -rw-rw-r-- 1 wanghuan wanghuan  287 Jul 28  2021 test.inp
  4. -rw-rw-r-- 1 wanghuan wanghuan  13K Jul 28  2021 test.densities
  5. -rw-rw-r-- 1 wanghuan wanghuan 685K Jul 28  2021 test.gbw
  6. -rw-rw-r-- 1 wanghuan wanghuan 3.3K Jul 28  2021 test_property.txt
  7. -rw-rw-r-- 1 wanghuan wanghuan  24K Jul 28  2021 test.out
复制代码


从 test.out 文件来看,应该是正常结束了
  1. (base) [wanghuan@n9 orca_jobs]$ tail -20 test.out
  2. --------------------
  3. Rotational spectrum
  4. --------------------

  5. Rotational constants in cm-1:     9.784569     1.218137     1.083274
  6. Rotational constants in MHz : 293334.004965 36518.813588 32475.726275

  7. Dipole components along the rotational axes:
  8. x,y,z [a.u.] :    -0.864020    -0.000000     0.000000
  9. x,y,z [Debye]:    -2.196164    -0.000000     0.000000



  10. Timings for individual modules:

  11. Sum of individual times         ...        2.965 sec (=   0.049 min)
  12. GTO integral calculation        ...        1.117 sec (=   0.019 min)  37.7 %
  13. SCF iterations                  ...        1.848 sec (=   0.031 min)  62.3 %
  14.                              ****ORCA TERMINATED NORMALLY****
  15. TOTAL RUN TIME: 0 days 0 hours 0 minutes 3 seconds 737 msec
  16. (base) [wanghuan@n9 orca_jobs]$
复制代码


这是正常结束吗?

请指点,谢谢!

作者
Author:
wzkchem5    时间: 2021-7-29 00:32
乐平 发表于 2021-7-28 15:46
Sob 老师好!
我按照此帖的步骤安装了 openmpi 4.1.1 版,

是正常结束,结果是可以用的
作者
Author:
乐平    时间: 2021-7-29 10:55
wzkchem5 发表于 2021-7-28 18:32
是正常结束,结果是可以用的

谢谢!

openmpi 总是显示那么多 warning,看着很碍眼。
请问有没有方法解决呢?
作者
Author:
任豹    时间: 2021-11-14 00:45
本帖最后由 任豹 于 2021-11-14 19:02 编辑

小模型openmpi 并行计算成功,社长的模型也可以计算成功.大模型并行计算失败.归根结底还是机子上没有gfortran编译器.先安装gfortran编译器在安装orca,所有问题都解决了.我的版本是openmpi4.1.1,orca5.0.1.可能openmpi4需要gfortran编译器,之前的版本使用gcc就行.感谢楼上qinsc的回帖,不然不知道怎么解决!!!
作者
Author:
wzkchem5    时间: 2021-11-14 16:45
任豹 发表于 2021-11-13 17:45
小模型openmpi 并行计算成功,社长的模型也可以计算成功.大模型并行计算失败.归根结底还是机子上没有gfortra ...

准确来说是新版openmpi需要,orca本身一直是不需要gfortran的
作者
Author:
任豹    时间: 2021-11-14 19:02
wzkchem5 发表于 2021-11-14 16:45
准确来说是新版openmpi需要,orca本身一直是不需要gfortran的

对的,我搞错了.openmpi编译需要gfortran!




欢迎光临 计算化学公社 (http://bbs.keinsci.com/) Powered by Discuz! X3.3