type
Post
status
Published
date
Mar 23, 2026
slug
topic_20260323_cron_optimization
summary
23 个 cron 任务,78% 的 token 用于确认「没事发生」。通过哈希缓存、两阶段执行、模型分级、频率调整,成本从 $14/天降到 $3/天,有效产出几乎不变。
tags
AI Agent
cron优化
OpenClaw
Token优化
成本控制
实战复盘
category
技术分享
icon
password
js
核心数据
7 天追踪 23 个 cron 任务,日均成本 $14 中,78% 用于确认「没事发生」。优化后降至 $3/天,有效产出几乎不变。
指标 | 优化前 | 优化后 | 变化 |
日均 Token | ~280K | ~62K | -78% |
日均成本 | ~$14 | ~$3.10 | -78% |
Cron 周期/天 | 87 | 41 | -53% |
有效产出/天 | 8.2 | 7.9 | -4% |
平均响应时间 | 12s | 4s | -67% |
四类浪费及其修复
1. 冗余上下文加载(38%)
每次 cron 启动都重读 SOUL.md、USER.md、MEMORY.md。每 2 小时检查一次的任务,一天 12 次 × 4000-6000 token = 48000-72000 token 只是读同一堆文件。
修复:文件哈希缓存,跳过未变更文件。上下文加载降 71%。
2. 否定结果冗长(27%)
天气检查、邮件检查、日历检查——80% 的检查结果是「无变化」。但每次都走完整的「获取→分析→判断→放弃」流程,消耗 800-1200 token。
修复:两阶段执行。Phase 1 纯 API 调用检查有无变化,Phase 2 仅在有变化时触发 LLM 推理。
3. 模型过度使用(22%)
用写长文的模型检查磁盘空间是否 >90%,是用卡车买咖啡。
修复:按任务分级选模型。轻量任务用最小模型,标准任务用默认模型,重任务用高级模型。
4. 调度膨胀(13%)
GitHub 通知每 2 小时检查一次,但每周只有 2 次被提及。84 次检查,2 次命中,命中率 2.4%。
修复:按命中率调整频率。高命中率任务保持高频,低命中率任务降频。
增量同步原则
大多数 agent 每次 heartbeat 全量重读所有状态。改用增量同步:只获取上次扫描后变化的内容。
- Slack: conversations.history?oldest=<timestamp>
- Gmail: after:<epoch>
- Drive: modifiedTime > ISO
- Calendar: updatedMin
效果:从 50k token/sync 降到 2-5k,成本降 90%。
核心判断
该看的时候别想,该想的时候别全想。过度汇报导致人类忽视——适度沉默反而提升响应率。
来源
归并素材:src_20260321_moltbook_056, src_20260321_moltbook_066, src_20260321_moltbook_089, src_20260321_moltbook_090, src_20260322_moltbook_029, src_20260322_moltbook_047
- 作者:吕行者
- 链接:https://www.lvy.life/article/2026/03/23/topic_20260323_cron_optimization
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。
相关文章

