计算化学公社

标题: ORCA提交任务报错 [打印本页]

作者
Author:
az¥    时间: 2024-12-16 11:10
标题: ORCA提交任务报错
提交任务时,没有计算out文件结尾就出现以下结果,具体如附件。大家能不能帮我看一下是什么原因?谢谢


作者
Author:
zjxitcc    时间: 2024-12-16 15:48
尝试增大输入文件中的内存。如果使用脚本提交到集群队列,应当同时给出队列系统的报错文件。
作者
Author:
az¥    时间: 2024-12-16 20:10
zjxitcc 发表于 2024-12-16 15:48
尝试增大输入文件中的内存。如果使用脚本提交到集群队列,应当同时给出队列系统的报错文件。

谢谢您的回复,我使用的是脚本,不过这个脚本是我按照别的脚本自己写的,不知道能不能使用

#!/bin/bash
#SBATCH --job-name=s0
#SBATCH --nodes=1
#SBATCH --ntasks-per-node=16
#SBATCH --partition=c02
##SBATCH --time=4800:00:00


export PATH=$PATH:/home/u2202183070/openmpi-4.1.6/bin
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/u2202183070/openmpi-4.1.6/lib
export PATH=$PATH:/home/u2202183070/app/orca601
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/u2202183070/app/orca601

orca s0.inp > s0.out
作者
Author:
zjxitcc    时间: 2024-12-16 20:15
az¥ 发表于 2024-12-16 20:10
谢谢您的回复,我使用的是脚本,不过这个脚本是我按照别的脚本自己写的,不知道能不能使用

#!/bin/bas ...

你这是提交任务的脚本,不是队列的日志文件。
作者
Author:
az¥    时间: 2024-12-16 20:27
zjxitcc 发表于 2024-12-16 20:15
你这是提交任务的脚本,不是队列的日志文件。

我好像没写这个队列日志文件
作者
Author:
az¥    时间: 2024-12-16 20:29
zjxitcc 发表于 2024-12-16 20:15
你这是提交任务的脚本,不是队列的日志文件。

提交时就出现这个
[u2202183070@workstation testorca]$ /home/u2202183070/app/orca600/orca s0.inp > s0.out
^C
[file orca_tools/qcmsg.cpp, line 394]:
  .... aborting the run



作者
Author:
zjxitcc    时间: 2024-12-16 20:51
az¥ 发表于 2024-12-16 20:29
提交时就出现这个
$ /home/u2202183070/app/orca600/orca s0.inp > s0.out
^C

你在6L展示的是你直接提交到当前节点,但你在3L又展示了提交到队列的脚本,二者岂不矛盾?

另一方面,你在6L展示的是/home/u2202183070/app/orca600/orca,但你在3L又展示了/home/u2202183070/app/orca601,连版本都不一样,二者岂不矛盾?提问时一定要描述清楚问题信息,不要混入不同问题下的报错。
作者
Author:
az¥    时间: 2024-12-16 20:52
标题: ORCA出现[file orca_tools/qcmsg.cpp, line 394]报错
提交ORCA任务时,出现一下报错,具体如附件中,希望得到大家的回复,谢谢大家!


管理员注:此帖及其回帖已合并到本帖

作者
Author:
zjxitcc    时间: 2024-12-16 21:04
这是重复提问吗?http://bbs.keinsci.com/thread-50576-1-1.html
作者
Author:
az¥    时间: 2024-12-16 21:29
zjxitcc 发表于 2024-12-16 21:04
这是重复提问吗?http://bbs.keinsci.com/thread-50576-1-1.html

是的,因为上一个那个标题没有设置好
另外,上个帖子我得等一个小时才能回您,所以在这回复您吧
1、上个帖子您提出的问题  是我的问题,因为那个我试了两个版本的ORCA,结果都是出现一样的报错,所以就没区分就贴上去了,真的很不好意思
2、还有,我想请问一下,如果用脚本提交任务的话,是不是就不能用/home/路径/orca test.inp > test.out 来提交任务了?是不是得用 sbatch 脚本 提交任务? 我是新手,好多不懂的地方,还请不要介意
作者
Author:
wzkchem5    时间: 2024-12-16 22:20
az¥ 发表于 2024-12-16 14:29
是的,因为上一个那个标题没有设置好
另外,上个帖子我得等一个小时才能回您,所以在这回复您吧
1、上 ...

是否需要用sbatch取决于你们服务器是否有排队系统,以及是否强制用排队系统,和是否用脚本无关。这个要咨询你们服务器的管理员
作者
Author:
Santz    时间: 2024-12-16 23:25
6.0.1 正常。

作者
Author:
az¥    时间: 2024-12-17 09:14
wzkchem5 发表于 2024-12-16 22:20
是否需要用sbatch取决于你们服务器是否有排队系统,以及是否强制用排队系统,和是否用脚本无关。这个要咨 ...

好的,谢谢
作者
Author:
az¥    时间: 2024-12-17 09:17
Santz 发表于 2024-12-16 23:25
6.0.1 正常。

能否请教一下您是怎么来算的,我已经算过好多次了,计算都不能进行,直接就停止了
作者
Author:
Santz    时间: 2024-12-17 10:33
az¥ 发表于 2024-12-17 09:17
能否请教一下您是怎么来算的,我已经算过好多次了,计算都不能进行,直接就停止了

就正常的 slurm 提交计算,没什么特别的。


作者
Author:
az¥    时间: 2024-12-17 10:51
Santz 发表于 2024-12-17 10:33
就正常的 slurm 提交计算,没什么特别的。

谢谢您的回复,我对比了您的out文件和我计算的out文件,是从这里开始您的继续计算了,我的就报错了
我的out文件
Total number of grid points                  ...   111624
Total number of batches                      ...     1757
Average number of points per batch           ...       63
Average number of grid points per atom       ...     5315
Initializing property integral containers    ... done (  0.0 sec)

SHARK setup successfully completed in   5.3 seconds

Maximum memory used throughout the entire STARTUP-calculation: 53.8 MB
4 total processes failed to start

ORCA finished by error termination in GUESS
Calling Command: mpirun -np 4  /home/users/lyf09/app/orca601/orca_guess_mpi /home/users/lyf09/BODIPY/ORCA/1/s0.gbw /home/users/lyf09/BODIPY/ORCA/1/s0
[file orca_tools/qcmsg.cpp, line 394]:
  .... aborting the run

您的out文件
Total number of grid points                  ...   111624
Total number of batches                      ...     1757
Average number of points per batch           ...       63
Average number of grid points per atom       ...     5315
Initializing property integral containers    ... done (  0.0 sec)

SHARK setup successfully completed in   1.9 seconds

Maximum memory used throughout the entire STARTUP-calculation: 53.8 MB


           ************************************************************
           *        Program running with 4 parallel MPI-processes     *
           *              working on a common directory               *
           ************************************************************
Loading Hartree-Fock densities                     ... done

作者
Author:
az¥    时间: 2024-12-17 15:10
Santz 发表于 2024-12-17 10:33
就正常的 slurm 提交计算,没什么特别的。

谢谢您的回复,我的还是出现一样的报错,有可能是我的openmpi有问题吧,我再看看是不是因为别的原因




欢迎光临 计算化学公社 (http://bbs.keinsci.com/) Powered by Discuz! X3.3