本帖最后由 bobosiji 于 2024-8-31 22:07 编辑
实验室现有集群搭载大量E5-2686v4以及4张1080Ti卡,跑gmx、gaussian和少量cp2k&vasp等任务足够。但lammps速度太慢,想买新服务器或新显卡提升lammps的速度。将来也会有gpumd(专家们推荐4090卡)、机器学习等任务。我们预算7,8万,最多打算买2张4090卡。也可先只花一半。要求新的GPU机器(显卡)能并入现有集群,不追求极致性价比。 http://bbs.keinsci.com/thread-35988-1-1.html 第十楼大作指出V100跑lammps的速度明显强于4090(涡轮卡的京东自营价为1.8万元或以上),而京东上V100-pcie的价格为5千或8千元(自营)。如果对5千的质量不放心,买8千元的V100;2张4090的钱可买4张V100。而4090跑lammps的速度大概是V100的80%(我们不跑ReaxFF,本文均比较单张卡的速度)。 请教大家: 2、跑机器学习、深度学习任务,4090的速度比V100强多少?大概估算即可。 3、综合以上情况,我们现在买新服务器(显卡),选4090还是V100卡?比如,先花一半预算买4090,将来有(跑lammps)的必要再买V100;或者反过来更好? 4、4090D卡跑gmx、lammps、机器学习等以上任务大概比4090卡慢多少?慢12%?论坛里大家似乎推荐更多推荐4090D而不是4090卡? 5、8352V(2.1/3.5G/54M/36C),7R32这种服务器CPU足够带4090卡么?E5-2686v4足够带V100卡么? 6、用7950x攒的机器方便并入现有集群么?例如用技嘉B650M AORUS ELITE(http://sobereva.com/444),或微星Z690 Carbon、微星X670ECarbon(http://bbs.keinsci.com/thread-35988-1-1.html)?
电脑小白,提问很多。非常感谢大家的指点和耐心~
|