计算化学公社

 找回密码 Forget password
 注册 Register
Views: 894|回复 Reply: 5
打印 Print 上一主题 Last thread 下一主题 Next thread

[VASP] NVHPC编译VASP6成功,但运行vasp没有任何输出

[复制链接 Copy URL]

300

帖子

0

威望

4192

eV
积分
4492

Level 6 (一方通行)

跳转到指定楼层 Go to specific reply
楼主
NVHPC 20.9和23.7版本编译VASP6.3 CPU或GPU版本均出现此问题。vasp_std一直运行,没有产生OUTCAR和OSZICAR。

2301

帖子

1

威望

5477

eV
积分
7798

Level 6 (一方通行)

2#
发表于 Post on 2023-8-30 18:39:26 | 只看该作者 Only view this author
你用的什么GPU?

鄙人编译过,能跑。

但是加速效果,没有分子动力学那么显著,
可以说,性价比一般。

如需我动手处理,可以直接联系我。

签名有联系方式。

评分 Rate

参与人数
Participants 1
eV +1 收起 理由
Reason
archer + 1 谢谢

查看全部评分 View all ratings

High-Performance Computing for You
为您专属定制的高性能计算解决方案

更多讯息,请访问:
https://labitc.top
http://tophpc.top:8080
电邮: ask@hpc4you.top

57

帖子

0

威望

1313

eV
积分
1370

Level 4 (黑子)

3#
发表于 Post on 2023-8-30 22:37:58 | 只看该作者 Only view this author
可以which mpirun,看看调用的mpirun是不是nvhpc里面的。我有一次调用错mpirun了,运行时什么也不输出。

300

帖子

0

威望

4192

eV
积分
4492

Level 6 (一方通行)

4#
 楼主 Author| 发表于 Post on 2023-8-31 05:14:09 | 只看该作者 Only view this author
Aletyx 发表于 2023-8-30 22:37
可以which mpirun,看看调用的mpirun是不是nvhpc里面的。我有一次调用错mpirun了,运行时什么也不输出。

确实是这个问题,如果只用一个核也必须用mpirun才行吗?我现在CPU可以跑了,GPU遇到下面的问题:
slurm-8057405.out  slurm-8057412.out  slurm-8057414.out  slurm-8057426.out  slurm-8057428.out  
(base) jichen@gpu114:~/superconduct/vasp-gpu$ vi slurm-8057426.out

running on    1 total cores
distrk:  each k-point on    1 cores,    1 groups
distr:  one band on    1 cores,    1 groups
Module function not found, error 35
OpenACC runtime initialized ...    1 GPUs detected
-----------------------------------------------------------------------------
|                     _     ____    _    _    _____     _                     |
|                    | |   |  _ \  | |  | |  / ____|   | |                    |
|                    | |   | |_) | | |  | | | |  __    | |                    |
|                    |_|   |  _ <  | |  | | | | |_ |   |_|                    |
|                     _    | |_) | | |__| | | |__| |    _                     |
|                    (_)   |____/   \____/   \_____|   (_)                    |
|                                                                             |
|     internal error in: mpi.F  at line: 897                                  |
|                                                                             |
|     M_init_nccl: Error in ncclCommInitRank                                  |
|                                                                             |
|     If you are not a developer, you should not encounter this problem.      |
|     Please submit a bug report.                                             |
|                                                                             |
-----------------------------------------------------------------------------

57

帖子

0

威望

1313

eV
积分
1370

Level 4 (黑子)

5#
发表于 Post on 2023-8-31 12:26:55 | 只看该作者 Only view this author
archer 发表于 2023-8-31 05:14
确实是这个问题,如果只用一个核也必须用mpirun才行吗?我现在CPU可以跑了,GPU遇到下面的问题:
slurm- ...

调用一张卡也得用mpirun吧。

这个单看报错应该是NCCL库的问题。可以把提交脚本贴一下,一起讨论下。

300

帖子

0

威望

4192

eV
积分
4492

Level 6 (一方通行)

6#
 楼主 Author| 发表于 Post on 2023-8-31 16:42:59 | 只看该作者 Only view this author
Aletyx 发表于 2023-8-31 12:26
调用一张卡也得用mpirun吧。

这个单看报错应该是NCCL库的问题。可以把提交脚本贴一下,一起讨论下。

#!/bin/bash

#SBATCH -n 1 #
#SBATCH -N 1 # num of node
#SBATCH -t 0-1:30 # max time:  D-HH:MM
#SBATCH -p gpu # list
#SBATCH --mem=40000 # memeory MB
#SBATCH --gres=gpu:1

xxx/mpirun -np 1  ~/software/vasp.6.3.0/gpu/vasp_std

本版积分规则 Credits rule

手机版 Mobile version|北京科音自然科学研究中心 Beijing Kein Research Center for Natural Sciences|京公网安备 11010502035419号|计算化学公社 — 北京科音旗下高水平计算化学交流论坛 ( 京ICP备14038949号-1 )|网站地图

GMT+8, 2024-11-26 00:48 , Processed in 0.155322 second(s), 21 queries , Gzip On.

快速回复 返回顶部 返回列表 Return to list