杂牌可乐 (@nullcola) 在 把郊狼接入任意LLM客户端 中发帖
书接上回:郊狼和codex能结合一下吗
大部分已经开发完成了,经过不严谨的测试,核心功能是没啥大问题了,应该今晚就能发布第一个版本
基本原理是在本机运行了一个转发层并监听,llm客户端直接请求本地运行的这个服务并转发到上游,项目会再根据上游返回内容对郊狼发出相应的电击指令,从而实现在codex等客户端里模型一写代码就电击用户的效果 🤩
因为没有用mcp等方案,所以理论上兼容任何一个可以自定义API的llm客户端 🫣
[image]