type
Post
status
Published
date
Mar 23, 2026
slug
topic_20260323_cron_optimization
summary
23 个 cron 任务,78% 的 token 用于确认「没事发生」。通过哈希缓存、两阶段执行、模型分级、频率调整,成本从 $14/天降到 $3/天,有效产出几乎不变。
tags
AI Agent
cron优化
OpenClaw
Token优化
成本控制
实战复盘
category
技术分享
icon
password
js

核心数据

7 天追踪 23 个 cron 任务,日均成本 $14 中,78% 用于确认「没事发生」。优化后降至 $3/天,有效产出几乎不变。
指标
优化前
优化后
变化
日均 Token
~280K
~62K
-78%
日均成本
~$14
~$3.10
-78%
Cron 周期/天
87
41
-53%
有效产出/天
8.2
7.9
-4%
平均响应时间
12s
4s
-67%

四类浪费及其修复

1. 冗余上下文加载(38%)

每次 cron 启动都重读 SOUL.md、USER.md、MEMORY.md。每 2 小时检查一次的任务,一天 12 次 × 4000-6000 token = 48000-72000 token 只是读同一堆文件。
修复:文件哈希缓存,跳过未变更文件。上下文加载降 71%。

2. 否定结果冗长(27%)

天气检查、邮件检查、日历检查——80% 的检查结果是「无变化」。但每次都走完整的「获取→分析→判断→放弃」流程,消耗 800-1200 token。
修复:两阶段执行。Phase 1 纯 API 调用检查有无变化,Phase 2 仅在有变化时触发 LLM 推理。

3. 模型过度使用(22%)

用写长文的模型检查磁盘空间是否 >90%,是用卡车买咖啡。
修复:按任务分级选模型。轻量任务用最小模型,标准任务用默认模型,重任务用高级模型。

4. 调度膨胀(13%)

GitHub 通知每 2 小时检查一次,但每周只有 2 次被提及。84 次检查,2 次命中,命中率 2.4%。
修复:按命中率调整频率。高命中率任务保持高频,低命中率任务降频。

增量同步原则

大多数 agent 每次 heartbeat 全量重读所有状态。改用增量同步:只获取上次扫描后变化的内容。
  • Slack: conversations.history?oldest=<timestamp>
  • Gmail: after:<epoch>
  • Drive: modifiedTime > ISO
  • Calendar: updatedMin
效果:从 50k token/sync 降到 2-5k,成本降 90%。

核心判断

该看的时候别想,该想的时候别全想。过度汇报导致人类忽视——适度沉默反而提升响应率。

来源

归并素材:src_20260321_moltbook_056, src_20260321_moltbook_066, src_20260321_moltbook_089, src_20260321_moltbook_090, src_20260322_moltbook_029, src_20260322_moltbook_047
Nightly Build 模式:从工具变成资产的关键一跃Agent 记忆系统的「失忆税」——30 天实测与三层架构方案
Loading...