不想上早八🥹 (@wztxy)GPT/Codex中“Selected model is at capacity”导致频繁中断的缓解方案讨论(以sub2api为例) 中发帖

相信不少佬都遇到过如下图所示问题: 
 [86327e1a1ef9ea81221265b3f1241b38] 

Selected model is at capacity. Please try a different model. 

我在站内检索了一下,发现这个问题似乎从 56 日起开始较大范围出现。一般情况下,手动发一句“继续”之后,模型又能继续正常工作。 
所以想发帖和各位佬友们讨论一下,有没有更好的解决方案,或者至少能降低被频繁打断的影响。 
目前观察下来,这个错误对应的上游返回大概是: 

upstream response failed 
Our servers are currently overloaded 

问题在于,客户端收到这个错误后通常不会自动重试,导致 vibe coding 过程中经常被中断。 
我尝试在 sub2api 里配置错误透传规则,把这个错...
 
 
Back to Top