soarli

告别臃肿:如何极简优化你的openclaw AI 路由配置文件
在折腾各类大语言模型(LLM)和本地路由工具时,我们往往会陷入一个陷阱:配置焦虑。今天试用一下 Qwen 的新模型...
扫描右侧二维码阅读全文
11
2026/03

告别臃肿:如何极简优化你的openclaw AI 路由配置文件

在折腾各类大语言模型(LLM)和本地路由工具时,我们往往会陷入一个陷阱:配置焦虑

今天试用一下 Qwen 的新模型,明天接入一下学校或公司的内部 API(比如带 OAuth 鉴权的自定义节点),后天又想把 DeepSeek 和各种开源模型全塞进备用列表里。久而久之,你的 config.json 就会变成一个难以维护的“缝合怪”。

这不仅让查错变得无比困难,还可能导致路由逻辑混乱、不必要的资源占用,甚至因为陈旧的 Token 失效而频频报错。

今天,我将分享一次真实的“断舍离”经历:如何将一个包含多节点、多鉴权、多备用模型的臃肿配置文件,精简为一个只保留核心主模型、极致清爽的极简配置

🎯 我们的目标:Less is More

在这次优化中,我们的核心诉求非常明确:

  1. 彻底移除所有冗余的提供商(Providers):删掉不再使用的 henauai、自定义教育网节点以及旧版的 qwen 接口。
  2. 清理冗余的鉴权(Auth)信息:将那些配套的 OAuth 模式和无效 Token 统统扫地出门。
  3. 确立唯一的“绝对主力”:将主模型(Primary Model)和唯一调用的模型锁定为 openrouter/stepfun/step-3.5-flash:free
  4. 清空备用池(Fallbacks):不再配置复杂的降级策略,保证系统只专注于调用我们指定的这一个高效模型。

🛠️ 改造过程

原始的配置文件中包含了复杂的 models 映射和庞大的 fallbacks 数组。比如,当主模型不可用时,系统会被迫在多个本地和云端节点中反复重试。

优化的第一步,我们直接清空了 models.providers 对象。那些长串的 URL、复杂的 api 设定和不再需要的 contextWindow 定义全被抹除。

第二步,我们对代理(Agents)的默认行为进行了重构。把 primary 字段精准指向目标模型,并将 fallbacks 设置为 [](空数组)。

最后,清理插件和通信频道的残留。只保留当前实际在用的 Telegram 机器人配置和本地 Gateway 设定。

✨ 最终的完美配置 (The Final JSON)

经过一系列的“外科手术”,我们得到了下面这份极度舒适、清晰易读的配置文件:

{
  "meta": {
    "lastTouchedVersion": "2026.3.7",
    "lastTouchedAt": "2026-03-09T12:53:40.757Z"
  },
  "wizard": {
    "lastRunAt": "2026-03-09T12:53:40.692Z",
    "lastRunVersion": "2026.3.7",
    "lastRunCommand": "configure",
    "lastRunMode": "local"
  },
  "auth": {
    "profiles": {
      "openrouter:default": {
        "provider": "openrouter",
        "mode": "api_key"
      }
    }
  },
  "models": {
    "mode": "merge",
    "providers": {}
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "openrouter/stepfun/step-3.5-flash:free",
        "fallbacks": []
      },
      "models": {
        "openrouter/stepfun/step-3.5-flash:free": {
          "alias": "StepFun"
        }
      },
      "workspace": "C:\\Users\\soarli\\.openclaw\\workspace",
      "compaction": {
        "mode": "safeguard"
      },
      "maxConcurrent": 4,
      "subagents": {
        "maxConcurrent": 8
      }
    }
  },
  "messages": {
    "ackReactionScope": "group-mentions"
  },
  "commands": {
    "native": "auto",
    "nativeSkills": "auto",
    "restart": true,
    "ownerDisplay": "raw"
  },
  "channels": {
    "telegram": {
      "enabled": true,
      "dmPolicy": "pairing",
      "botToken": "8741076873:AAGu1d9OM2H52tpILU9KqhdqtnXuvNpfBrk",
      "groupPolicy": "open",
      "streaming": "partial",
      "proxy": "http://192.168.61.61:63106"
    }
  },
  "gateway": {
    "port": 18789,
    "mode": "local",
    "bind": "loopback",
    "auth": {
      "mode": "token",
      "token": "2a4ac7d4f94f5e35507057e43a97b9d4976b98a9d6073ea7"
    },
    "tailscale": {
      "mode": "off",
      "resetOnExit": false
    }
  },
  "plugins": {
    "entries": {
      "telegram": {
        "enabled": true
      }
    }
  }
}

💡 总结

系统配置就像我们工作台上的工具箱。我们常常觉得“多备几个总没错”,但往往是那些最简单、最专一的工具,才能提供最稳定、最高效的输出。通过这次清理,系统启动速度、路由命中率和排错效率都将得到质的飞跃。

如果你也发现自己的 AI 服务跑得越来越慢,或者日志里总是出现莫名其妙的重试错误,不妨也打开你的 config.json,来一场痛快的“断舍离”吧!

最后修改:2026 年 03 月 17 日 02 : 18 AM

发表评论