用 Ollama 部署了一个我之前没听过的大模型 gpt-oss:120b, 发现速度还挺快, 不知道能不能用在 openclaw 上.然后跟 Qwen 做了一下生成速度对比, 可能不太客观. 作者:蓝逸 日期:2026-03-11 浏览:581℃ 分类:分享 顺便贴一下从网上随便找了一个测试 Token 生成速度的代码跑了下, 测试结果如下 内容版权声明:除非注明,否则皆为本站原创文章。 转载注明出处:http://dixi.eu.org/32296.html 上一篇 原来 gpt-5.2-codex 是没有原生搜索的吗? 下一篇 大家听过人选天选论没有,我做了一个工具用来记录道痕