计算化学公社

标题: GROMACS (2025.2 GPU版) 并行效率测试结果 [打印本页]

作者
Author:
stishovite    时间: 2025-7-15 17:44
标题: GROMACS (2025.2 GPU版) 并行效率测试结果
参考GROMACS (2019.3 GPU版) 并行效率测试及调试思路 - 分子模拟 (Molecular Modeling) - 计算化学公社帖子的内容,

测试了GROMACS 2025.2在AMD 7950x + 64G + NVIDIA 5080 的并行效率,

先说结论,thread-MPI 版gromacs,-ntmpi 1 -ntomp 14,效率最高,可达到539.78ns/day,以下是测试结果


  1. ==================================================================
  2. >> 系统环境检测
  3. ==================================================================
  4. CPU Model:         AMD Ryzen 9 7950X 16-Core Processor (16 Cores)
  5. GPU Model:         NVIDIA GeForce RTX 5080
  6. GPU Memory:        16303 MiB
  7. NVIDIA Driver:     575.64.03
  8. GROMACS (thread-MPI): /usr/local/gromacs/bin/gmx
  9. GROMACS (Open MPI):   /usr/local/gromacs/bin/gmx_mpi

  10. ==================================================================
  11. >> GROMACS基准测试 (v16.0)
  12. ==================================================================
  13. 测试体系: topol.tpr
  14. 测试参数:
  15.   - OMP线程数: 2 4 6 8 10 12 14
  16.   - 是否测试 gmx_mpi: true
  17. 所有文件将生成在: /home/kang/Desktop/MD/gmxbench/gmx_benchmark_run_20250715_171115/

  18. ==================================================================
  19. >> 步骤 1: 正在生成测试任务脚本...
  20. ==================================================================
  21. 任务脚本生成完毕。

  22. ==================================================================
  23. >> 步骤 2: 正在自动执行所有测试任务...
  24. ==================================================================
  25. ==> Executing gmx_threadmpi-pme_gpu-omp_2...
  26.     ...Success.
  27. ==> Executing gmx_threadmpi-pme_gpu-omp_4...
  28.     ...Success.
  29. ==> Executing gmx_threadmpi-pme_gpu-omp_6...
  30.     ...Success.
  31. ==> Executing gmx_threadmpi-pme_gpu-omp_8...
  32.     ...Success.
  33. ==> Executing gmx_threadmpi-pme_gpu-omp_10...
  34.     ...Success.
  35. ==> Executing gmx_threadmpi-pme_gpu-omp_12...
  36.     ...Success.
  37. ==> Executing gmx_threadmpi-pme_gpu-omp_14...
  38.     ...Success.
  39. ==> Executing gmx_openmpi-pme_gpu-omp_2...
  40.     ...Success.
  41. ==> Executing gmx_openmpi-pme_gpu-omp_4...
  42.     ...Success.
  43. ==> Executing gmx_openmpi-pme_gpu-omp_6...
  44.     ...Success.
  45. ==> Executing gmx_openmpi-pme_gpu-omp_8...
  46.     ...Success.
  47. ==> Executing gmx_openmpi-pme_gpu-omp_10...
  48.     ...Success.
  49. ==> Executing gmx_openmpi-pme_gpu-omp_12...
  50.     ...Success.
  51. ==> Executing gmx_openmpi-pme_gpu-omp_14...
  52.     ...Success.
  53. 所有测试任务执行完毕。

  54. ==================================================================
  55. >> 步骤 3: 正在分析结果并生成报告...
  56. ==================================================================

  57. --- 基准测试结果分析 ---
  58. 测试配置                             | 性能 (ns/day) | GPU Wait (%)    | 瓶颈分析
  59. -------------------------------------------------------------------------------------------------------
  60. gmx_threadmpi-pme_gpu-omp_14             | 539.78          | 1.1             | Optimal (GPU is the bottleneck)
  61. gmx_threadmpi-pme_gpu-omp_12             | 508.29          | 1.1             | Optimal (GPU is the bottleneck)
  62. gmx_threadmpi-pme_gpu-omp_10             | 465.31          | 1.1             | Optimal (GPU is the bottleneck)
  63. gmx_threadmpi-pme_gpu-omp_8              | 432.93          | 1.1             | Optimal (GPU is the bottleneck)
  64. gmx_threadmpi-pme_gpu-omp_6              | 360.62          | 1.1             | Optimal (GPU is the bottleneck)
  65. gmx_openmpi-pme_gpu-omp_8                | 292.19          | 1.0             | Optimal (GPU is the bottleneck)
  66. gmx_openmpi-pme_gpu-omp_12               | 269.03          | 1.0             | Optimal (GPU is the bottleneck)
  67. gmx_threadmpi-pme_gpu-omp_4              | 267.41          | 1.0             | Optimal (GPU is the bottleneck)
  68. gmx_openmpi-pme_gpu-omp_10               | 266.81          | 1.0             | Optimal (GPU is the bottleneck)
  69. gmx_openmpi-pme_gpu-omp_14               | 259.61          | 1.0             | Optimal (GPU is the bottleneck)
  70. gmx_openmpi-pme_gpu-omp_6                | 257.86          | 1.0             | Optimal (GPU is the bottleneck)
  71. gmx_openmpi-pme_gpu-omp_4                | 220.63          | 1.0             | Optimal (GPU is the bottleneck)
  72. gmx_threadmpi-pme_gpu-omp_2              | 150.55          | 0.9             | Optimal (GPU is the bottleneck)
  73. gmx_openmpi-pme_gpu-omp_2                | 136.03          | 0.7             | Optimal (GPU is the bottleneck)

  74. --- 测试完成!最佳配置 ---
  75. 配置: gmx_threadmpi-pme_gpu-omp_14
  76. 性能: 539.779 ns/day

  77. --- 推荐的生产运行命令 ---
  78. gmx mdrun -deffnm YOUR_TPR_NAME -ntmpi 1 -ntomp 14 -nb gpu -pme gpu -pin on -dlb no

复制代码





作者
Author:
wbqdssl    时间: 2025-7-15 19:07
我的是9950X,也发现-ntmpi 1 -ntomp 14,效率最高
作者
Author:
Entropy.S.I    时间: 2025-7-15 19:21
开SMT,-ntomp 31在绝大多数情况下速度最快
作者
Author:
stishovite    时间: 2025-7-15 22:14
Entropy.S.I 发表于 2025-7-15 19:21
开SMT,-ntomp 31在绝大多数情况下速度最快

感谢大佬,我试试




欢迎光临 计算化学公社 (http://bbs.keinsci.com/) Powered by Discuz! X3.3