|
|
本帖最后由 student0618 于 2026-3-30 22:28 编辑
模拟范围太广了,大概目前只会是特定体系或工作流将现在用脚本自动化的工作用 agent跑。
因资安问题我没用OpenClaw,不过有用coding agent。自己也在写一些自动化脚本用来改作 agent 友善的skill/tool 结合自己的一套工作流,目的是某天摸鱼也没人发现(?),但还有不少除了token花光以外的问题会卡住的。
很多情况还是较难用各种common issues文件处理。写个特别详尽的markdown让agent去grep各种问题的处理方法也不是不行,但可能性还是太多。力场一换、程序换个版本加个插件又可能要加几百行处理方法的文档了。没文档上网搜解决方案的效率及准确性成疑,而且有有safety concern。
还有些具体问题,如:
- agent用脚本分析,例如排查原子间的距离,逻辑和算法没优化好会clash或跑很慢。agent写的脚本memory leak或者用很慢的for loop算距离这种还是很常见的。
- 卡住的也很多是参数化部分,例如力场没参数或参数不够好,某个120度的二面角跑成180度等。尤其是要搞的体系太复杂的话 (例如我在灌水板块某个吐槽帖提到的体系),还是手动做这部分算了。
以上两点可以用现有脚本作Skill的一部分来调用解决,但还是这句,实际应用太多exceptional case需要调整了。
最重要的还是按实际目的选模拟方法、分析方法,目前还需要按经验判断agent决定是否正确的。
我现在是屏幕一半审查指导Agent工作 (+看token剩多少),一半手写bash脚本及开vmd处理麻烦体系。分析用脚本加不少code sample/规范也只敢让它写脚本给我跑。不然context太多放不进去或LLM没抓住重点,脚本没优化吃太多内存的话实在吃不消。
P.S. LLM当agent 会用高风险指令如rm 的机会很大,尤其是便宜的小模型,这也是要小心的一个原因。系统禁用rm指令也有100个删文件方法的。
|
评分 Rate
-
查看全部评分 View all ratings
|