绪里 (@shcofficial) 在 [转载+总结] Claude Code最大化使用量+避免Token浪费的最佳实践 中发帖
转载自Reddit:https://www.reddit.com/r/ClaudeCode/comments/1sd8t5u/anthropic_isnt_the_only_reason_youre_hitting/ . 一般来说我不倾向于直接转载Reddit帖子,但这篇的洞察很全面,也做了对应的实验探索,感觉对佬友们会很有帮助。
原贴英文,下面会把翻译版贴出来。在贴翻译版之前先自己放一些Claude Code计费的背景,在文章最后会有我总结的最佳实践。
背景
上下文拼接
像CC/Codex/Open Code/龙虾这样的智能体harness实际上是自动化了输入/输出构建的流水线。在实际发送到模型的上下文里不仅会包含你看到的那些输入输出,还会有很多额外的自动拼接的token:
第一轮对话之前,CC会拼接一系列的文件到上下文里作为输入的一部分。其中包括系统级设置/etc/clau...