不想上早八🥹 (@wztxy) 在 GPT/Codex中“Selected model is at capacity”导致频繁中断的缓解方案讨论(以sub2api为例) 中发帖
相信不少佬都遇到过如下图所示问题:
[86327e1a1ef9ea81221265b3f1241b38]
Selected model is at capacity. Please try a different model.
我在站内检索了一下,发现这个问题似乎从 5 月 6 日起开始较大范围出现。一般情况下,手动发一句“继续”之后,模型又能继续正常工作。
所以想发帖和各位佬友们讨论一下,有没有更好的解决方案,或者至少能降低被频繁打断的影响。
目前观察下来,这个错误对应的上游返回大概是:
upstream response failed
Our servers are currently overloaded
问题在于,客户端收到这个错误后通常不会自动重试,导致 vibe coding 过程中经常被中断。
我尝试在 sub2api 里配置错误透传规则,把这个错...