本帖最后由 student0618 于 2026-3-7 18:26 编辑
过年试用openrouter credit,测试一些平价模型跑自己coding agent的工作流。先随便记录一下感想,有时间再整理好放一楼。
0. 前言+备注
- 自己比较怕事,平价模型所有操作都手动审批不敢让它自动跑。
- 项目是一楼的同一个,编写及整理一些MD结果分析的脚本。
- 工作流也和一楼一样,每个prompt都是自带模板及workflow的 slash command,要用不少token的。
1. 正文
Grok 4.1 fast
整体来说, grok 4.1 fast 表现不错。
- 无论是价格还是超级慷慨的 2M context window 真的非常感人,用一楼的opencode+插件工作流配合很舒服。当然比不上高端的Claude Sonnet/Haiku 及GPT 5.2/5.2 Codex,但这个价格有这个表现实在划算。
- 一些小缺点:sub-agents很常无预警突然中断要手动resume;还有web search有bug,可能是openrouter配合opencode的问题;
- 较Critical的缺点:output length短 (max 30K tokens),会导致输出断开,无法完整完成任务;html符号乱码导致指令报错;或者完成任务后报告写了两行table画了两格就没了。
- 部分任务使用copilot没限额的gpt-5-mini更稳定。
Gemini 系列
OpenRouter 接口 Opencode用 Gemini 系列小模型有问题,就算能开始跑也很常出现 provider returned error 中断;而以前用github copilot的Gemini没这问题。
其他
gpt-oss-120B 是很便宜,很简单的任务还可以。但用它作agent它可以找错指令还动不动就要求sudo权限有点可怕。
gpt-oss-20b 也是和120B一样当chat model或者跑简单任务就好。
游客,本帖隐藏的内容需要积分高于 150 才可浏览,您当前积分为 0
2. 小结
这楼记录的是使用OpenRouter上平价模型,用以配合自己coding agent工作流的一点感想。有时间再测一下一楼的测试作比较。
|