计算化学公社

标题: 如果预算20万左右,请教一下如何配置服务器 [打印本页]

作者
Author:
landian666    时间: 2022-10-31 13:31
标题: 如果预算20万左右,请教一下如何配置服务器
主要用途包括分子动力学计算(GROMACS等)以及量子化学计算(高斯等),谢谢!

作者
Author:
牧生    时间: 2022-10-31 13:49
一台还是多台?几个人用?
作者
Author:
landian666    时间: 2022-10-31 13:57
本帖最后由 landian666 于 2022-11-16 09:05 编辑
牧生 发表于 2022-10-31 13:49
一台还是多台?几个人用?

配置服务器集群,多人使用。
作者
Author:
Eudaimonia    时间: 2022-10-31 14:17
landian666 发表于 2022-10-31 13:57
一台,经常性的是一个人用。

那基本就照着sob老师给的最顶级的推荐买再加一块4090吧,还有钱还非得花可以考虑内存再翻倍
作者
Author:
sobereva    时间: 2022-10-31 15:17
跑gmx的,13900K搭配RTX4090

跑Gaussian(或其它靠CPU的任务),按下文配
淘宝上购买的双路EPYC 7R32 96核服务器的使用感受和杂谈
http://sobereva.com/653http://bbs.keinsci.com/thread-32755-1-1.html

根据两类任务的实际比重,决定以上配置各买几台。

作者
Author:
landian666    时间: 2022-10-31 16:09
sobereva 发表于 2022-10-31 15:17
跑gmx的,13900K搭配RTX4090

跑Gaussian(或其它靠CPU的任务),按下文配

谢谢各位的回复,有一个问题想请教sob老师,看了您http://sobereva.com/444中的推荐,结合本帖“各买几台”建议,我的理解是:在达到”顶级双路服务器推荐配置“后,再增加CPU核数或者GPU数量,都不能进一步提高服务器的算力了吗?比如我将”顶级双路服务器推荐配置“中的CPU和GPU都翻倍,能否翻倍提升顶级配置的算力?
作者
Author:
sobereva    时间: 2022-10-31 16:38
landian666 发表于 2022-10-31 16:09
谢谢各位的回复,有一个问题想请教sob老师,看了您http://sobereva.com/444中的推荐,结合本帖“各买几台 ...

不要以为一台机子里的CPU是任你无限扩充的
作者
Author:
landian666    时间: 2022-10-31 17:06
sobereva 发表于 2022-10-31 16:38
不要以为一台机子里的CPU是任你无限扩充的

我在某东上一个大牌看了一个配置的报价,如附件,看帖子是sob老师非常不推荐的途径,想请教sob老师,这个配置与“顶级双路服务器推荐配置”相比,算力的区别大吗?是不是性价比比较低?

作者
Author:
funyboy    时间: 2022-10-31 17:34
landian666 发表于 2022-10-31 17:06
我在某东上一个大牌看了一个配置的报价,如附件,看帖子是sob老师非常不推荐的途径,想请教sob老师,这个 ...

一台可以买好几台,不要当冤大头。
作者
Author:
刘恪立    时间: 2022-10-31 17:46
landian666 发表于 2022-10-31 17:06
我在某东上一个大牌看了一个配置的报价,如附件,看帖子是sob老师非常不推荐的途径,想请教sob老师,这个 ...

戴尔机器太贵了,不合适的~
作者
Author:
gog    时间: 2022-10-31 20:19
不是做AIMD,不需要A100计算加速卡。普通显卡运行gmx、lammps,就很牛逼。
作者
Author:
abin    时间: 2022-10-31 20:35
老生常谈
这20万,是你全权支配,
还是按照规章制度,
招标采购?


如果是你自费,当我没说。

超过10万元的科研经费采购,
可以不招标?


作者
Author:
sun35mr    时间: 2022-11-1 01:00
20万的话还是老实走个能开正规发票的吧,现在好像政府采购已经不是必须的了
作者
Author:
sobereva    时间: 2022-11-1 04:53
landian666 发表于 2022-10-31 17:06
我在某东上一个大牌看了一个配置的报价,如附件,看帖子是sob老师非常不推荐的途径,想请教sob老师,这个 ...

跑动力学用A100完全没意义。远不如用RTX4090
作者
Author:
令狐    时间: 2022-11-1 11:27
abin 发表于 2022-10-31 20:35
老生常谈
这20万,是你全权支配,
还是按照规章制度,

对,这个很重要,如果是招标走代理的话,起码的20%的费用就没了,代理商肯定的抽成,你的照着16万左右的费用去话~
作者
Author:
landian666    时间: 2022-11-1 11:39
本帖最后由 landian666 于 2022-11-1 21:49 编辑
sobereva 发表于 2022-11-1 04:53
跑动力学用A100完全没意义。远不如用RTX4090

有两个问题想再请教sob老师:
1、“远不如用RTX4090”的意思是性能效率远不如吗?还是指的性能效率差不多,就是价钱太贵,性价比不高?(我看这个网页的测评RTX4090显卡AI性能测试及与其他显卡性能对比 - 知乎 (zhihu.com),感觉RTX4090和A100对于动力学来说效率性能差不多)
2、如果考虑以后有可能做的任务扩展的话,比如AIMD、深度学习等任务,有必要直接上A100吗?

作者
Author:
sobereva    时间: 2022-11-2 07:42
landian666 发表于 2022-11-1 11:39
有两个问题想再请教sob老师:
1、“远不如用RTX4090”的意思是性能效率远不如吗?还是指的性能效率差不 ...

1 跑gmx的速度明显不如RTX4090,架构差了一代。2020年的A100单精度浮点性能19.5 T,RTX4090是82.6 T。AI性能测试跟跑gmx的情况是两码事,深度学习性能关键是大规模矩阵乘,是主要靠tensor core负责的。再加上A100几倍于RTX4090的价格,更没任何理由考虑了。

2 AIMD看具体什么程序
作者
Author:
landian666    时间: 2022-11-2 10:31
sobereva 发表于 2022-11-2 07:42
1 跑gmx的速度明显不如RTX4090,架构差了一代。2020年的A100单精度浮点性能19.5 T,RTX4090是82.6 T。AI ...

谢谢sob老师回答。
还有两个问题请教:
1、有必要配大于两张的RTX4090吗?
2、同一台服务器的RTX4090能实现并行跑MD吗?
作者
Author:
sobereva    时间: 2022-11-3 08:39
landian666 发表于 2022-11-2 10:31
谢谢sob老师回答。
还有两个问题请教:
1、有必要配大于两张的RTX4090吗?

如果经常同时跑两个任务可以配俩4090
4090不支持NVlink,两个一起跑同一个任务很不理想
作者
Author:
令狐    时间: 2022-11-3 09:28
这个预算很充足哈,纯计算不需要上显卡,配3台顶配全新的AMD双路128核心的设备都可以了,有钱真好~
作者
Author:
landian666    时间: 2022-11-16 08:45
sobereva 发表于 2022-11-3 08:39
如果经常同时跑两个任务可以配俩4090
4090不支持NVlink,两个一起跑同一个任务很不理想

老师,您好,想请教几个问题,最近很多新一代CPU、GPU要上市,性能都有很大的提高,比如英特尔第四代至强处理器 Sapphire Rapids等,如果现在配服务器的话,有必要等这些新款上市后再配吗?如果等的话一般需要多久能我们才能买到?还是说按您之前帖子里推荐的 8375C+RTX4090就可以?计算化学购机配置推荐 - 思想家公社的门口:量子化学·分子模拟·二次元 (sobereva.com)
作者
Author:
landian666    时间: 2022-11-16 12:41
sobereva 发表于 2022-11-3 08:39
如果经常同时跑两个任务可以配俩4090
4090不支持NVlink,两个一起跑同一个任务很不理想

现在是计划配置集群~
作者
Author:
sobereva    时间: 2022-11-16 20:31
landian666 发表于 2022-11-16 08:45
老师,您好,想请教几个问题,最近很多新一代CPU、GPU要上市,性能都有很大的提高,比如英特尔第四代至强 ...

一分钱一分货,新产品中的顶级型号性能无疑比现在顶级的性能更好,但价格也贵得多,不会带来更高的性价比。倘若你不差钱而且愿意等、追求极限性能,等也罢。如果手头有研究要做,或者预算不是无限的,赶紧买机子就完了,早买早用。




欢迎光临 计算化学公社 (http://bbs.keinsci.com/) Powered by Discuz! X3.3