豹豹 (@pup)聊聊最近各模型回答质量规律性劣化的现象,以及为什么未来模型会越来越强,但是对于重度使用者来说可能也会越来越难用 中发帖

背景: 我:实现出来 * 3;codex:如果你愿意,我下一步 * 3; - #12,来自 p369029292 
省流不看版:分享一个补丁,解决背景中反映的问题,帮助婆婆妈妈的agent简单直接执行任务不overthink,不再动不动停下来思考提问或者翻来覆去光甩锅不做事: GitHub - cut01ass/LLM-over-deference-fix · GitHub 

大家应该都有感觉。自GPT-5 debut之后,不少模型开始更会来事了。 
动不动先停一下 夹个嗓子说“需要我帮你运行这个脚本吗”“如果你愿意,我可以xxx”。 
开始一两次还好,用久了特别磨人,几句话能说完的事,非要拆成一堆小标题、无序列表,最后再补一句“一句话总结”或者“如果你想,我可以继续” 婆婆妈妈跟话痨一样。 
短任务还好,一旦任务变复杂 比如写代码、改项目、做多步分析,这种停顿和兜圈子的现象就会非常明显...
 
 
Back to Top