杂牌可乐 (@nullcola)把郊狼接入任意LLM客户端 中发帖

书接上回:郊狼和codex能结合一下吗 
大部分已经开发完成了,经过不严谨的测试,核心功能是没啥大问题了,应该今晚就能发布第一个版本 
基本原理是在本机运行了一个转发层并监听,llm客户端直接请求本地运行的这个服务并转发到上游,项目会再根据上游返回内容对郊狼发出相应的电击指令,从而实现在codex等客户端里模型一写代码就电击用户的效果 🤩 
因为没有用mcp等方案,所以理论上兼容任何一个可以自定义API的llm客户端 🫣 
 [image]
 
 
Back to Top