donnadlitellm 支持responses api请求转换至后端 /chat/completions 中发帖

之前试过CLIProxyAPI 接入某云平台glm5给codex用。今天没事看了看litellm,发现v1.83.14支持了,就测试了下。除了remote compact有问题,其他的使用还算正常。 
# litellm_config.yaml 
model_list:
  - model_name: GLM-5.1
    litellm_params:
      model: openai/chat_completions/GLM-5.1
      api_base: http://172.17.0.1:17800/v1
      api_key: "xxx"

docker run -d -v $(pwd)/litellm_config.yaml:/app/config.yaml  -p 4000:4000 ghcr.io/berriai/litellm:v1.83.14-st...
 
 
Back to Top