@HaoQin 在 JetBrains中AI调用本地ollama 中发帖
[image]
[image]
看样子这个JB指定是有点什么说法的。。我本地部署27B模型,CC里面美滋滋的用着很丝滑。偶然看到JB的AI支持第三方了,我就去冲了,结果直接给我32G显存拉满卡的动都动不了。。
Q1:
这个咋整,难道是姿势不对吗?有没有佬搞过的分享一下经验。。
Q2:
话说我在wsl里面的docker跑ollama,然后怎么可以使用这个共享GPU内存?
跪谢大佬们指条明路 :bili_057: