在折腾各类大语言模型(LLM)和本地路由工具时,我们往往会陷入一个陷阱:配置焦虑。
今天试用一下 Qwen 的新模型,明天接入一下学校或公司的内部 API(比如带 OAuth 鉴权的自定义节点),后天又想把 DeepSeek 和各种开源模型全塞进备用列表里。久而久之,你的 config.json 就会变成一个难以维护的“缝合怪”。
这不仅让查错变得无比困难,还可能导致路由逻辑混乱、不必要的资源占用,甚至因为陈旧的 Token 失效而频频报错。
今天,我将分享一次真实的“断舍离”经历:如何将一个包含多节点、多鉴权、多备用模型的臃肿配置文件,精简为一个只保留核心主模型、极致清爽的极简配置。
🎯 我们的目标:Less is More
在这次优化中,我们的核心诉求非常明确:
- 彻底移除所有冗余的提供商(Providers):删掉不再使用的
henauai、自定义教育网节点以及旧版的qwen接口。 - 清理冗余的鉴权(Auth)信息:将那些配套的 OAuth 模式和无效 Token 统统扫地出门。
- 确立唯一的“绝对主力”:将主模型(Primary Model)和唯一调用的模型锁定为
openrouter/stepfun/step-3.5-flash:free。 - 清空备用池(Fallbacks):不再配置复杂的降级策略,保证系统只专注于调用我们指定的这一个高效模型。
🛠️ 改造过程
原始的配置文件中包含了复杂的 models 映射和庞大的 fallbacks 数组。比如,当主模型不可用时,系统会被迫在多个本地和云端节点中反复重试。
优化的第一步,我们直接清空了 models.providers 对象。那些长串的 URL、复杂的 api 设定和不再需要的 contextWindow 定义全被抹除。
第二步,我们对代理(Agents)的默认行为进行了重构。把 primary 字段精准指向目标模型,并将 fallbacks 设置为 [](空数组)。
最后,清理插件和通信频道的残留。只保留当前实际在用的 Telegram 机器人配置和本地 Gateway 设定。
✨ 最终的完美配置 (The Final JSON)
经过一系列的“外科手术”,我们得到了下面这份极度舒适、清晰易读的配置文件:
{
"meta": {
"lastTouchedVersion": "2026.3.7",
"lastTouchedAt": "2026-03-09T12:53:40.757Z"
},
"wizard": {
"lastRunAt": "2026-03-09T12:53:40.692Z",
"lastRunVersion": "2026.3.7",
"lastRunCommand": "configure",
"lastRunMode": "local"
},
"auth": {
"profiles": {
"openrouter:default": {
"provider": "openrouter",
"mode": "api_key"
}
}
},
"models": {
"mode": "merge",
"providers": {}
},
"agents": {
"defaults": {
"model": {
"primary": "openrouter/stepfun/step-3.5-flash:free",
"fallbacks": []
},
"models": {
"openrouter/stepfun/step-3.5-flash:free": {
"alias": "StepFun"
}
},
"workspace": "C:\\Users\\soarli\\.openclaw\\workspace",
"compaction": {
"mode": "safeguard"
},
"maxConcurrent": 4,
"subagents": {
"maxConcurrent": 8
}
}
},
"messages": {
"ackReactionScope": "group-mentions"
},
"commands": {
"native": "auto",
"nativeSkills": "auto",
"restart": true,
"ownerDisplay": "raw"
},
"channels": {
"telegram": {
"enabled": true,
"dmPolicy": "pairing",
"botToken": "8741076873:AAGu1d9OM2H52tpILU9KqhdqtnXuvNpfBrk",
"groupPolicy": "open",
"streaming": "partial",
"proxy": "http://192.168.61.61:63106"
}
},
"gateway": {
"port": 18789,
"mode": "local",
"bind": "loopback",
"auth": {
"mode": "token",
"token": "2a4ac7d4f94f5e35507057e43a97b9d4976b98a9d6073ea7"
},
"tailscale": {
"mode": "off",
"resetOnExit": false
}
},
"plugins": {
"entries": {
"telegram": {
"enabled": true
}
}
}
}
💡 总结
系统配置就像我们工作台上的工具箱。我们常常觉得“多备几个总没错”,但往往是那些最简单、最专一的工具,才能提供最稳定、最高效的输出。通过这次清理,系统启动速度、路由命中率和排错效率都将得到质的飞跃。
如果你也发现自己的 AI 服务跑得越来越慢,或者日志里总是出现莫名其妙的重试错误,不妨也打开你的 config.json,来一场痛快的“断舍离”吧!
版权属于:soarli
本文链接:https://blog.soarli.top/archives/923.html
转载时须注明出处及本声明。