@daima 在 vllm的openai responses风格的接口多模态支持 中发帖
有无大佬知道vllm的openai responses风格的接口支持多模态吗,要怎么配置
[image]
我这是启动的时候缺少什么参数吗
[image]
codex说vllm的多模态只能用chat/completions接口
[image]