donnad 在 litellm 支持responses api请求转换至后端 /chat/completions 中发帖
之前试过CLIProxyAPI 接入某云平台glm5给codex用。今天没事看了看litellm,发现v1.83.14支持了,就测试了下。除了remote compact有问题,其他的使用还算正常。
# litellm_config.yaml
model_list:
- model_name: GLM-5.1
litellm_params:
model: openai/chat_completions/GLM-5.1
api_base: http://172.17.0.1:17800/v1
api_key: "xxx"
docker run -d -v $(pwd)/litellm_config.yaml:/app/config.yaml -p 4000:4000 ghcr.io/berriai/litellm:v1.83.14-st...