@syszAppFlowy Local AI 接入云端大模型教程(无需本地跑模型) 中发帖

折腾了一段时间,终于跑通了,分享给有同样需求的佬。 

背景
AppFlowy 的 Local AI 功能本意是配合 Ollama/LM Studio 在本地跑大模型。 
但对于没有高端显卡的佬,本地跑模型基本不现实。 
其实可以用 AxonHub(一个兼容 OpenAI 格式的 AI 网关)伪装成 LM Studio, 
让 AppFlowy 以为在连本地模型,实际上请求转发到任意云端 API(DeepSeek、Claude、GPT 都行)。 
架构很简单
AppFlowy → AxonHub(伪装 LM Studio) → 云端 API

关闭鉴权(关键步骤)
AppFlowy 在 LM Studio 模式下没有 API Key 输入框, 
需要在 AxonHub 配置中开启「关闭 API Key 鉴权」模式: 
server:
  api:
    auth:
      allo...
 
 
Back to Top