计算化学公社

标题: Deep Learning泛函说不定真要来了 [打印本页]

作者
Author:
k64_cc    时间: 2019-8-30 13:40
标题: Deep Learning泛函说不定真要来了
本帖最后由 k64_cc 于 2019-8-30 13:42 编辑

https://arxiv.org/abs/1908.00971
Pande组做的DL泛函,看起来比之前的DL力场都靠谱,唯一的问题就是那堆3D conv layers,基本是显存怪兽,丫组里真有钱。

作者
Author:
granvia    时间: 2019-8-30 13:59
能不能说下DL泛函的优势有哪些?
作者
Author:
k64_cc    时间: 2019-8-30 14:07
本帖最后由 k64_cc 于 2019-8-30 14:11 编辑
granvia 发表于 2019-8-30 13:59
能不能说下DL泛函的优势有哪些?

就他文章的case来讲,能在与HF相近、远低于DFT的耗时下得到接近CCSD(T)的精度。当然或许这和他训练-测试集比较小有关系。

发散开说的话,我个人认为所谓DL泛函,就算不包括新物理,起码要把旧的物理信息考虑进去,在这个思路下最显然——也是最贵——的方法就是输入电子密度跑3D卷积。作为一个泛函(数学上),DL网络的复杂度远大于我们所熟悉的DFT泛函,所以一切顺利的话,DL泛函应该能够获得不亚于传统泛函的结果。
作者
Author:
yjmaxpayne    时间: 2019-8-30 15:48
这哥们做DL做的不错,MD, DFT 全面开花,另:DeepChem用着还不错
作者
Author:
aaronzjw    时间: 2019-8-30 17:54
厉害厉害
作者
Author:
k64_cc    时间: 2019-8-30 18:16
yjmaxpayne 发表于 2019-8-30 15:48
这哥们做DL做的不错,MD, DFT 全面开花,另:DeepChem用着还不错

DeepChem现在是终于能用了。我两三年之前看的时候还是一片荒芜,非常难搞……
作者
Author:
biogon    时间: 2019-8-31 11:44
k64_cc 发表于 2019-8-30 14:07
就他文章的case来讲,能在与HF相近、远低于DFT的耗时下得到接近CCSD(T)的精度。当然或许这和他训练-测试 ...

HF和泛函耗时不都是一个水平下的,再说了新物理也不可能从这玩意里获得,泛函再怎么折腾也就那样了,现在量化理论就是在上游搞不出来东西只能在下游搞,然而再搞也跳不出那个局限
作者
Author:
k64_cc    时间: 2019-9-2 13:35
biogon 发表于 2019-8-31 11:44
HF和泛函耗时不都是一个水平下的,再说了新物理也不可能从这玩意里获得,泛函再怎么折腾也就那样了,现在 ...

他文章里的图显示HF和DFT的耗时差距随体系电子数增加呈指数上升,要不您点开看一眼……?

新物理那个我很同意,无论是DL还是传统泛函都没法搞出新物理来,只能等上游领域有突破,然后把突破加进去——这就是为啥前两年连那帮大佬都觉得电子结构领域已经dying了。不过另一方面,就算是在提升拟合精度方面,现有技术也还有提升的余地,DL泛函起码在应用方面还是可以期待一下的。
作者
Author:
biogon    时间: 2019-9-2 19:39
k64_cc 发表于 2019-9-2 13:35
他文章里的图显示HF和DFT的耗时差距随体系电子数增加呈指数上升,要不您点开看一眼……?

新物理那个 ...

耗时那个我细看以后已经发现了,确实不完全和以前想的一样,DL泛函这玩意究竟怎么样还是要看效果到底如何,昨晚我做凝聚态理论的朋友还说电子结构相关的方法已经没得搞了,就QMC还有搞头
作者
Author:
hxd_yi    时间: 2019-9-2 23:05
个人对deep learning的东西并不看好,你永远也不会知道它什么时候会犯错,我们如何界定预测的结构在训练集的范围内,而且学习的东西目前都很难泛化。如果训练集很大,测试集很小,那我全算一遍就行了,要deep learning做什么?当然作为一个统计手段我觉得可以用用。我觉得科研的乐趣之一在于发现反例,另类,而deep learning会让我们对反例失明!
作者
Author:
Shine剪水    时间: 2019-9-3 08:56
但行好事!
作者
Author:
k64_cc    时间: 2019-9-3 10:48
hxd_yi 发表于 2019-9-2 23:05
个人对deep learning的东西并不看好,你永远也不会知道它什么时候会犯错,我们如何界定预测的结构在训练集 ...

是这样的,不过退一步想,Truhlar组做的玩意也就是疯狂拟合,好像也没差太多…
作者
Author:
k64_cc    时间: 2019-9-3 10:49
biogon 发表于 2019-9-2 19:39
耗时那个我细看以后已经发现了,确实不完全和以前想的一样,DL泛函这玩意究竟怎么样还是要看效果到底如何 ...

其实他们做postHF的还能偶尔拿出点新东西来,不过也都不excited…
作者
Author:
biogon    时间: 2019-9-3 19:59
k64_cc 发表于 2019-9-3 10:49
其实他们做postHF的还能偶尔拿出点新东西来,不过也都不excited…

现在都是计算资源不要钱似的拟合,上个月一有大量GPU节点的朋友还问我想不想做ML或者DL合作发文章
作者
Author:
k64_cc    时间: 2019-9-4 10:10
biogon 发表于 2019-9-3 19:59
现在都是计算资源不要钱似的拟合,上个月一有大量GPU节点的朋友还问我想不想做ML或者DL合作发文章

反正好发,不做还是人?(狗头
作者
Author:
hxd_yi    时间: 2019-9-4 10:49
k64_cc 发表于 2019-9-3 10:48
是这样的,不过退一步想,Truhlar组做的玩意也就是疯狂拟合,好像也没差太多…

但起码看起来有点物理意义
作者
Author:
granvia    时间: 2019-9-4 12:27
如果当初为解决紫外灾难而启用人工智能,也许也能得到普朗克分布律,但绝对AI不出量子理论
作者
Author:
lonewolf659    时间: 2019-9-18 18:08
hxd_yi 发表于 2019-9-2 23:05
个人对deep learning的东西并不看好,你永远也不会知道它什么时候会犯错,我们如何界定预测的结构在训练集 ...

目前DL追求的一个方向是explainable,不然就变成了application of statistic




欢迎光临 计算化学公社 (http://bbs.keinsci.com/) Powered by Discuz! X3.3