sobereva 发表于 2023-4-15 19:50
记得加上-update gpu
发帖时别直接贴chatGPT的回答,毫无意义,除非你用google查询了资料确认了chatGPT ...
star2128 发表于 2023-4-15 20:48
好的,那想用N卡而非集显,就是靠调成独显直连就可以了是吧?
Entropy.S.I 发表于 2023-4-15 22:53
不 要 在 W i n d o w s 下 跑 G M X
windows下openmp没法绑核,系统臃肿,一大堆进程在后 ...
Kmetsch 发表于 2023-4-15 22:04
从你的配置大概猜是HP或者Lenovo的游戏本,独显直连与否只会影响视频输出至屏幕,对于计算应该是没有影响 ...
star2128 发表于 2023-4-16 22:28
虚拟机装linux不是也不支持GPU加速吗,那就是说想要GPU加速的话,只能买个服务器老老实实装linux跑了吧。 ...
star2128 发表于 2023-4-16 22:28
虚拟机装linux不是也不支持GPU加速吗,那就是说想要GPU加速的话,只能买个服务器老老实实装linux跑了吧。 ...
Entropy.S.I 发表于 2023-4-16 23:13
加块盘装Linux不就行了。也可以用Linux to go,即把Linux装在移动SSD中,我刚开始玩Linux时,就是这么做 ...
sobereva 发表于 2023-4-16 23:38
GROMACS-GPU版在wsl2中Ubuntu18.04中的安装方法
http://bbs.keinsci.com/thread-25516-1-1.html
sobereva 发表于 2023-4-16 23:38
GROMACS-GPU版在wsl2中Ubuntu18.04中的安装方法
http://bbs.keinsci.com/thread-25516-1-1.html
star2128 发表于 2023-4-17 07:26
轻薄本+服务器的组合现在是有的。但是服务器自己不会维护,卖家承诺的三年内免费维护。就想着自己也得掌 ...
对于真·经典MD模型(比如前面测试用的LJ2.5),4090的性能有A100的50%左右,而对于涉及反应力场、多体势函数的模型,4090只有A100的不到20%性能,但即使这样,目前4090性价比还是明显高于A100。
Entropy.S.I 发表于 2023-4-17 12:32
“lammps进行相空间探索”最好明确一下你要使用什么力场/势函数。http://bbs.keinsci.com/thread-35988-1 ...
欢迎光临 计算化学公社 (http://bbs.keinsci.com/) | Powered by Discuz! X3.3 |