一个CLI工具,让你的AI Coding Token消耗暴降60-90%:RTK体验

用AI Coding工具写代码很爽,但Token消耗也很吓人——30分钟的Claude Code会话就能烧掉十几万个Token。有没有办法显著降低Token消耗?有!今天介绍一个叫RTK(Rust Token Killer)的开源CLI工具,它是一个高性能的代理中间件,专门在命令输出到达AI之前进行过滤和压缩。

项目地址:github.com/rtk-ai/rtk

核心原理

RTK是一个运行在你和LLM之间的CLI代理。它会在命令输出传输给AI之前,自动识别并过滤掉无关紧要的内容——比如文件权限信息、空行重复行、过于详细的技术细节等,让AI只看到最关键的信息。

实测数据:30分钟Claude Code会话

操作 频率 标准Token RTK后 节省
ls / tree 10次 2,000 400 -80%
cat / read 20次 40,000 12,000 -70%
grep / rg 8次 16,000 3,200 -80%
git status 10次 3,000 600 -80%
git diff 5次 10,000 2,500 -75%
git log 5次 2,500 500 -80%
git add/commit/push 8次 1,600 120 -92%
cargo test / npm test 5次 25,000 2,500 -90%
pytest 4次 8,000 800 -90%
go test 3次 6,000 600 -90%
ruff check 3次 3,000 600 -80%
总计 ~118,000 ~23,900 -80%

安装方式

# Homebrew(推荐)
brew install rtk

# 快速安装(Linux/macOS)
curl -fsSL https://raw.githubusercontent.com/rtk-ai/rtk/refs/heads/master/install.sh | sh

# Cargo安装
cargo install --git https://github.com/rtk-ai/rtk

安装完成后把 ~/.local/bin 加入PATH即可使用。

工作原理

RTK目前支持超过100种常用命令的输出过滤优化,包括Git命令、文件操作、测试框架(pytest、cargo test、go test)、linters(ruff、eslint)等。对于每个命令,RTK都知道哪些输出是给AI看的关键信息,哪些是纯粹给人类看的装饰性内容,从而智能压缩输出。

使用场景

  • 经常使用Claude Code、Codex等AI Coding工具的开发者
  • Token预算有限,想要更多对话轮次的用户
  • 希望在AI编程时减少等待时间的用户(传输数据量减少,响应更快)
  • 多语言项目开发者(支持Rust、Python、Go、JavaScript等)

开源协议

MIT许可证,完全开源免费。


服务支持:如有兴趣不会搭建,可以联系微信:WRYD6166,开源项目搭建10-50元。

© 版权声明
THE END
喜欢就支持一下吧
点赞5 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容