AAAAAAAAAAAA (@AAAAAAAAA) 在 关于新DeepSeek api模型的上下文测试 中发帖
DeepSeek开放平台疑似更新了后端的模型,模型自认知上下文均为1m。体感类似于web端先前更新的。
但是实际测试中,上下文只有在200k以下才能正常使用,超过200k会报600s超时。
超时报错:{“error”:{“message”:“We were unable to start processing your request within the 600-second timeout limit. Please try again later.”}}
各位也是这样一个情况吗