请教一下,编译基于Kokkos包加速的LAMMPS,在编译过程中有何设置可以调优呢,还有请问在进行计算的时候,OMP thread一般选择几为合适呢? |
请教一下,我用deepmd的话,低端这几个2080ti,v100,titan v推荐哪个,谢谢 |
Entropy.S.I 发表于 2023-11-2 16:46 打扰了打扰了,老板一方面不肯出钱一方面又想算大体系,为了毕业都是自己花钱攒机子跑计算,昨天看了测评帖子一着急想着双十一要不要把显卡换一下,能快一点是一点。那现阶段我还是不折腾了就用原先的配置吧,谢谢熵大! |
E大,根据您的数据总表,lammps计算时6900XT的表现要优于7900XTX?按照目前的价格那6900XT很有性价比啊 |
大佬有机会可以测试下D. E. Shaw Research开发的Desmond,非商业的可以免费申请使用的 |
Entropy.S.I 发表于 2023-9-15 19:20 厚砖本有一个好处 就是 等工作站/服务器计算结果的闲暇时候 可以撸几把3A游戏,当然现在的SoC/CPU核显越来越强了,核显本都能撸好多游戏 |
赵小壮 发表于 2023-9-12 19:57 我不用WSL,所以无法给出建议。根据别人使用WSL的反馈,我不认为使用WSL是一个好办法。 无独显轻薄本+高性能工作站/服务器才是最佳方案。自行配置好网络,使用体验远好于厚砖游戏本+WSL。 |
显卡哥好强。请问我需要写cuda,刚买了一台笔记本i5-12450H+RTX4060,请问我应该如何搭建开发环境呢,我之前是用的wsl2,写code时候用的vim,请问我还在wsl2 里写cuda会有什么影响吗。谢谢显卡哥 |
手机版 Mobile version|北京科音自然科学研究中心 Beijing Kein Research Center for Natural Sciences|京公网安备 11010502035419号|计算化学公社 — 北京科音旗下高水平计算化学交流论坛 ( 京ICP备14038949号-1 )|网站地图
GMT+8, 2024-11-27 04:56 , Processed in 0.241563 second(s), 33 queries , Gzip On.