计算化学公社

标题: 厂家给的配置方案是否可取—主要做VASP和QE方面的计算 [打印本页]

作者
Author:
linuxprobe    时间: 2024-3-13 17:11
标题: 厂家给的配置方案是否可取—主要做VASP和QE方面的计算
主要做VASP和QE方面的计算,厂家给了一个如下图的配置。暂时先买两台计算服务器,后续还会购置几台。

作者
Author:
sobereva    时间: 2024-3-13 18:12
内存必须16条
参考下文
淘宝上购买的双路EPYC 7R32 96核服务器的使用感受和杂谈
http://sobereva.com/653http://bbs.keinsci.com/thread-32755-1-1.html

计算节点性价比不高,但不至于血亏那种

作者
Author:
linuxprobe    时间: 2024-3-13 19:31
sobereva 发表于 2024-3-13 18:12
内存必须16条
参考下文
淘宝上购买的双路EPYC 7R32 96核服务器的使用感受和杂谈

好的,非常感谢sob老师!
作者
Author:
abin    时间: 2024-3-13 20:18
这种硬件搭配,能做集群……
不过用起来很鸡肋。

鉴于应用程序的特点以及硬件规格,
应该是做单机多核心并行。
这么小的规模,没有必要单列机器做管理和存储。
作者
Author:
janstao    时间: 2024-3-13 21:05
抛开配置不谈来说说价格,主节点的CPU、主板要比计算节点便宜很多,而且是单路,多的6T硬盘和1G的阵列卡价格并不贵,没有理由比计算节点还贵4000多啊,理应便宜才对。
作者
Author:
abin    时间: 2024-3-14 09:21
本帖最后由 abin 于 2024-3-14 09:34 编辑

如果要单独的管理和登录机器,这么小的集群规模,
鉴于当前计算任务特点,
可以使用配置更低的处理器做管理节点。

我推测, 当前的设计目标是, 单节点多核心并行.

我这里有十三个节点,使用一台8核心机器做管理和存储。

具体例子是: https://gitee.com/hpc4you/redstar


至于价格, 应该和你查询到的硬件裸价不同的.
如果要求做成集群, 也是需要成本的.



作者
Author:
gog    时间: 2024-3-14 10:11
要做QE,要么用intel的机器,要么用amd4代。3代2代,加速库没法搞
作者
Author:
AIchaosuan666    时间: 2024-3-14 13:28
9654更合适
作者
Author:
renzhogn424    时间: 2024-3-14 16:33
gog 发表于 2024-3-14 10:11
要做QE,要么用intel的机器,要么用amd4代。3代2代,加速库没法搞

加速库是指intel mkl么???请教下,amd4代用什么加速库?
作者
Author:
gog    时间: 2024-3-14 18:25
renzhogn424 发表于 2024-3-14 16:33
加速库是指intel mkl么???请教下,amd4代用什么加速库?

对的啊,intel mkl
作者
Author:
renzhogn424    时间: 2024-3-17 12:17
gog 发表于 2024-3-14 18:25
对的啊,intel mkl

也是,mkl挺重要,好像AMD也能用,就是效率低不少。
作者
Author:
Entropy.S.I    时间: 2024-3-18 12:18
本帖最后由 Entropy.S.I 于 2024-3-18 12:28 编辑

使用V100 SXM2,性价比是你这些机器的10倍。目前我开发的整机已经可以出货(5U高度,8x V100 SXM2 16G),只不过由于被奸商扫货涨价,现在V100价格和2周前相比接近翻倍,不过跑VASP和QE的性价比依然远高于CPU-only。已经做过大量测试(找多个不同的课题组一起做benchmark),还没遇到过不能跑的体系,超过1000原子的体系(例如去年9月双路9654评测中所用的1080原子TiO2算例),用纯PBE也跑得动,并且性能遥遥领先于CPU-only(双路9654的3倍以上,如果是Hybrid DFT,则有5倍以上)。经过我的硬件+固件+软件联合调优,每个4卡模组的性能超过任何其他4卡V100机器,不谦虚地说,我测出的性能可以作为作为这类配置的性能标杆。
作者
Author:
linuxprobe    时间: 2024-3-22 19:29
Entropy.S.I 发表于 2024-3-18 12:18
使用V100 SXM2,性价比是你这些机器的10倍。目前我开发的整机已经可以出货(5U高度,8x V100 SXM2 16G), ...

感谢感谢~请问你这边是怎么出货的,在哪里可以找到呢?
作者
Author:
Entropy.S.I    时间: 2024-3-22 23:04
本帖最后由 Entropy.S.I 于 2024-3-22 23:06 编辑
linuxprobe 发表于 2024-3-22 19:29
感谢感谢~请问你这边是怎么出货的,在哪里可以找到呢?

http://bbs.keinsci.com/thread-34411-5-1.html

先找我分析好具体需求,再确定配置方案,最后移交给合作方走商务流程

作者
Author:
gog    时间: 2024-4-5 09:01
Entropy.S.I 发表于 2024-3-18 12:18
使用V100 SXM2,性价比是你这些机器的10倍。目前我开发的整机已经可以出货(5U高度,8x V100 SXM2 16G), ...

16 GB, 跑小体系可以。但科研课题,催化方面的,都是几十个,上百个原子。
作者
Author:
Entropy.S.I    时间: 2024-4-5 12:08
本帖最后由 Entropy.S.I 于 2024-4-5 12:34 编辑
gog 发表于 2024-4-5 09:01
16 GB, 跑小体系可以。但科研课题,催化方面的,都是几十个,上百个原子。

UKHPC的1080原子TiO2,在去年9月的benchmark里用RTX 6000 Ada跑OOM,但是用8块V100 16G SXM2跑起来没有问题,速度是双路9654的3倍。VRAM不够用,多GPU就行了,P2P和NVLink就是给多GPU并行用的。顺便提醒一下,现在4090经过特殊设置后也有P2P了。没有自己实践过就泼冷水,不是科研人员该有的素质。
作者
Author:
gog    时间: 2024-4-7 14:55
Entropy.S.I 发表于 2024-4-5 12:08
UKHPC的1080原子TiO2,在去年9月的benchmark里用RTX 6000 Ada跑OOM,但是用8块V100 16G SXM2跑起来没有问 ...

呜呜,用的 8 张卡。不掏电费可以这么玩。家庭用电,顶多2千瓦的配电。
作者
Author:
abin    时间: 2024-4-7 17:42
gog 发表于 2024-4-7 14:55
呜呜,用的 8 张卡。不掏电费可以这么玩。家庭用电,顶多2千瓦的配电。

楼上的意思是,
他提供的方案,是高度定制的专用机器,
跑特定的应用,效率应该不错。

不过请留意,这是专用硬件。

另外,做计算用的机器,
配置硬件的时候,传统的游戏主机那种搭配思路和经验,
几乎没啥太大的参考价值。






欢迎光临 计算化学公社 (http://bbs.keinsci.com/) Powered by Discuz! X3.3