Entropy.S.I 发表于 2023-4-17 12:32 好专业啊,我学习学习 |
本帖最后由 Entropy.S.I 于 2023-4-17 12:38 编辑 star2128 发表于 2023-4-17 07:26 “lammps进行相空间探索”最好明确一下你要使用什么力场/势函数。http://bbs.keinsci.com/thread-35988-1-1.html,3.2节: 对于真·经典MD模型(比如前面测试用的LJ2.5),4090的性能有A100的50%左右,而对于涉及反应力场、多体势函数的模型,4090只有A100的不到20%性能,但即使这样,目前4090性价比还是明显高于A100。 去http://bbs.keinsci.com/thread-35960-1-1.html的SI中找到Lammps数据,和NVIDIA的测试(https://developer.nvidia.com/hpc-application-performance)对照,可以得出上述结论。 不过无论用什么力场,性价比最高的方案还是捡老计算卡,比如P100、V100;但是你还要训练DPMD模型,考虑到此事,还是应该用4090;Lammps也可以用你手里已有的双路8375C机器跑,估计单机性能和1块4090差不多。 预算6万左右,推荐2台13900KF+1块4090,约4.6万;如果想要花完预算,剩下的预算再买1块4090插到8375C机器上,或者把其中一台13900KF+1块4090改成13900KF+2块4090(不能随便配,要么用PCIe拆分线,要么加钱用有2条直连CPU且支持x8+x8模式的PCIe slot的主板和一体水冷4090)。 如果要玩比较大的模型,也可以考虑单台13900KF+RTX6000Ada,一台6万多(RTX6000Ada就将近6万,主要优势是具有48GB的VRAM)。 |
sobereva 发表于 2023-4-16 23:38 感谢,我再尝试下 |
sobereva 发表于 2023-4-16 23:38 谢谢sobereva老师,感慨于您精力太旺盛了!群里还有论坛都能覆盖到,培训价格也非常厚道,内容详实程度和专业性绝非盈利性培训机构能比的,我最开始是入坑的深圳某算,基础班+进阶4000块钱,只学会了如何把任务运行起来。感谢建议,我都会试一试的。 |
Entropy.S.I 发表于 2023-4-16 23:13 轻薄本+服务器的组合现在是有的。但是服务器自己不会维护,卖家承诺的三年内免费维护。就想着自己也得掌握写linux使用维护基础,软件编译等等。笔记本玩机练习的想法更多一些,生产力还得考服务器。我现在是两台双路8375C组的小型IB集群,主要是做一些VASP和CP2K的性质计算以及AIMD,研究领域是储能电池。目前对deepmd比较感兴趣,也正在学习,现在用dpgen能调用资源进行势函数训练了,感觉纯CPU训练速度有些缓慢。下一步计划是大概6w左右的预算,购置两台GPU服务器,或者一台双卡服务器,主要用于势函数训练,而势函数训练两块主要内容,一个是深度神经网络训练,一个是用lammps进行相空间探索,都比较吃GPU,但是具体单精度还是双精度就不是很懂了。本来看到的两种配置,一种是配两台13900+4090的主机,接入集群,另一种配置是买台4310+双卡4090,这个会便宜一些,4w~4.5w,但是CPU会比较弱,对lammps会有影响,对深度学习不知道是否有影响。我看您给我发的连接中说“仅有的那些支持GPU加速的任务需要很强的FP64性能,使用游戏GPU获得的性能提升非常低,二手市场捡块白菜价的P100都能打败顶级游戏GPU。” 我看4090单精度算力好像比计算卡强很多,显存24G也不差,但是不知道目前我的这个情况,是需要双精度还是单精度算力,买消费级的卡还是计算卡。您应该是专门做软硬件的吧,我这个4~6w的运算,有没有合理的建议?谢谢啦,也可以找你买哟。 |
star2128 发表于 2023-4-16 22:28 GROMACS-GPU版在wsl2中Ubuntu18.04中的安装方法 http://bbs.keinsci.com/thread-25516-1-1.html 文种做法我没亲自试过 |
本帖最后由 Entropy.S.I 于 2023-4-16 23:31 编辑 star2128 发表于 2023-4-16 22:28 加块盘装Linux不就行了。也可以用Linux to go,即把Linux装在移动SSD中,我刚开始玩Linux时,就是这么做的 更合适的做法是工作站/服务器配轻薄本,配置好虚拟专用网络,体验非常好。http://bbs.keinsci.com/thread-35277-1-1.html |
Kmetsch 发表于 2023-4-15 22:04 戴尔G16,键盘回弹故障换新中,捣鼓了两三天,一夜清零 |
Entropy.S.I 发表于 2023-4-15 22:53 虚拟机装linux不是也不支持GPU加速吗,那就是说想要GPU加速的话,只能买个服务器老老实实装linux跑了吧。不玩游戏,本来换电脑想兼顾跑跑GROMACS才买的带显卡的,现在看很鸡肋了。 |
本帖最后由 Entropy.S.I 于 2023-4-16 05:58 编辑 不 要 在 W i n d o w s 下 跑 G M X windows下openmp没法绑核,系统臃肿,一大堆进程在后台抢资源(有些进程还会经常莫名其妙地突然占用大半CPU资源),编译GMX又复杂,编译器/软件支持又慢,简直自取其辱 “根据chatgpt的回答xxx”这种说法更是离谱至极 |
参与人数Participants 1 | eV +5 | 收起 理由Reason |
---|---|---|
ChrisZheng | + 5 | 我很赞同 |
star2128 发表于 2023-4-15 20:48 从你的配置大概猜是HP或者Lenovo的游戏本,独显直连与否只会影响视频输出至屏幕,对于计算应该是没有影响。建议可以看一下二者利用时是不是存在默认gpu的改变,以及CPU对GPU的核数分配的问题。另外4060的显卡加速可能一般,cuda数太少了 |
sobereva 发表于 2023-4-15 19:50 好的,那想用N卡而非集显,就是靠调成独显直连就可以了是吧? |
看来它确实在胡说。好的,谢谢了。我再测试下。 |
记得加上-update gpu 发帖时别直接贴chatGPT的回答,毫无意义,除非你用google查询了资料确认了chatGPT没有在胡说八道 |
手机版 Mobile version|北京科音自然科学研究中心 Beijing Kein Research Center for Natural Sciences|京公网安备 11010502035419号|计算化学公社 — 北京科音旗下高水平计算化学交流论坛 ( 京ICP备14038949号-1 )|网站地图
GMT+8, 2024-11-27 20:07 , Processed in 0.189649 second(s), 27 queries , Gzip On.