viayu (@viayuu) 在 通过cpa把gpt接入cc使用,如何设置上下文? 中发帖
如题,我参考
https://linux.do/t/topic/1698094?u=viayuu
的方法,将gpt通过cpa接入到了cc中使用,也能够设置思考等级、开启fast模型、使用1m上下文。
但是,gpt使用1m上下文效果很差,我之前在codex中可以通过model_context_window设置上下文。我一般使用400k左右的上下文(比默认的长,同时不会因为过长导致注意力下降)。
请问接入cc中如何设置上下文?