用 Ollama 部署了一个我之前没听过的大模型 gpt-oss:120b, 发现速度还挺快, 不知道能不能用在 openclaw 上.然后跟 Qwen 做了一下生成速度对比, 可能不太客观.

顺便贴一下从网上随便找了一个测试 Token 生成速度的代码跑了下, 测试结果如下