|
我也来加入讨论一下。配置是AMD_epyc_7532【32 core, 128 GB内存】+ RTX3080 【10 GB显存】,系统Ubuntu22.10/窗口x11/NVIDIA-SMI 515.86.01
vasp_cpu版本:6.3.2+openmpi_4.1.4+fftw3.39+openblas0.3.20+scalapack-openmpi2.2.1,编译文件makefile.include.gnu_omp
vasp_gpu版本:6.3.2+nvhpc_22.5_(自带cuda11.7和openmpi3.1.5)+fftw3.3.8,编译文件makefile.include.nvhpc_omp
体系1:140Fe+10Si原子,普通aimd(ncore=2, ALGO=veryfast, ENCUT=400, EDIFF=1.E-4,TEBEG=300),都用的vasp_gam,分别跑30步
vasp_cpu | 20 cores | 823s
vasp_gpu | -np 1 | 1171.283s
体系2:Liquid Si - MLFF,vasp官网的机器学习文件,64Si原子 (NCORE=2), NSW=5000, 都用的vasp_gam
vasp_cpu | 6 cores | 801s
vasp_cpu | 10 cores| 436s
vasp_cpu | 20 cores| 377s
vasp_cpu | 30 cores| 335s
vasp_gpu | -np 1 | 1550s/1531/1693 (跑了三次)
总的来说,vasp_gpu版本可能在算大体系的时候会展现出优势,原子数小的时候,确实水平比cpu弱了很多。后面我再试试大体系吧,内存别爆炸就行。64atom的Si用了gpu1.2G显存吧。我再试试更大的体系。 |
|