https://linux.do 论坛的话题更新通知频道。
荔福路绅士 (@damin) 在 2年后再讨论:coding plan还是本地模型 中发帖
两年前,我开了个贴:《4k 买 API 额度还是买显卡》
转眼 2026 年了。我现在用的是 Claude 初始号通过 Google Play 订阅的 Max 20x,一年下来算算得 2w RMB 左右。对于一个不吃开发饭、也没兼职接单的纯业余选手来说,这笔钱确实不便宜。
但说实话,我一点都不后悔。
尤其是 Claude Cowork 那套用法,真的让我工作时进入一种很舒服的状态。省下来的时间和精力,够我在 L 站好好摸鱼了,工作效率肉眼可见地提升。以前我愿意每个月花 2k 让工作更轻松,现在回想,那时候的决定还是对的。
不过,今年换了工作环境,降薪后这 2w 的年费突然就有点咬人了。预算一紧,初心虽然没变(还是想工作爽一点),但现实开始提醒我,要省钱。
所以回归最初的话题——2026 年,对于像我这样的 coding plan 重度业余用户,到底是继续云端 API,还是转向本地...@AutumnRiver 在 如何写好prompt?两年经验分享 中发帖
每天跟AI闲扯,关于怎么写prompt积累了一些感觉,写点东西跟佬友们讨论讨论。
AI是一个看过人类所有废话和聪明话的黑盒。你直接与它对话,它的本能必定是滑向最省力、最讨好你的平庸回答,带着一股AI客服味。
高阶Prompt是什么?是一根倒刺,一记重锤,一个信息锚。它的作用只有一个:强行钩住AI脑子里那一点极其稀缺的高密区,砸断它滑向概率废话的退路。
如何写好prompt?问题实则是—如何精准锚定AI大脑中特定的“聪明”部分?
三原则
原则一 使用高信息量关键词。
高信息量关键词等于一个高维坐标,直接把AI锚定在高质量的语料区(如哲学家、顶尖期刊的语料区)。
什么样的关键词信息量大?
我举个例子,人名。
你想让AI帮你把复杂概念讲给外行听,与其说“请说得通俗易懂”,不如说“使用理查德·费曼的授课风格”。在人类浩如烟海的文献中,跟“通俗”关联的词汇鱼龙混杂;但跟“理查德·费曼”...YU Zhan (@sek1ro-yuzzz) 在 关于claude code阅读文献的一些小问题 中发帖
各位佬,我下载了20篇领域内的顶刊(用minerU转化为了markdown格式)然后准备让Claude code阅读、总结这些文献(主要是总结文献的故事脉络,方便之后参考借鉴这些顶刊的语言风格和叙事手法)。
效果非常好,总结的内容很准确。
但是,我很快发现不对劲了,我的usage飞快的上升,几乎几分钟就用了5h限额的一大半 😂(max 5x账号)
[image]
我用的是opus4.7 xhigh,感觉这次用量消耗的飞快的原因是subagent。不知道佬友们有什么好的方法来改善这个问题,sonnet的智力够吗(等我重置额度后试试)?
不知道通过cc的codex插件来节省tokens好不好用?
我的prompt如下,感觉还行,分享一下:
我在 /Users/***/Desktop/paper/references/ 下有 20 篇文献子目录,每个子目录里有原文 markdow...@yacc 在 B站的网页端视频加载机制是不是换了 中发帖
如题,我经常一边听长视频一边切换到其他标签页干别的。这几天我发现,如果过几分钟切换回视频播放页,会卡在我上次看到的画面,缓冲几秒钟才能继续。看上去就像是后台播放的时候只传输了音频,等到前台打开因为没有视频信息只好停下来重新传输。
我感觉这很像是B站为了省流自己做的优化(其实也影响不大),应该不会是Chrome自动采取的策略,或者插件脚本之类的吧?甚至是电脑出问题?最近没装什么新东西,如果是软件原因也可能是某个东西更新了?埋头苦吃 (@syks) 在 百炼token plan消耗的很快可能是发了图片导致缓存失败 中发帖
两天花了百分之五十的额度。原因就是对话过程中发送了图片导致后面的会话缓存都失效了。
[image]
[image]猪头鱼 (@zty) 在 去哪里买谷歌变种邮箱 中发帖
临时邮箱那一种 类似
k.ie.udu.ong.n.inh@gmail.com
maravenirajukumar+rQW4P@gmail.com@agi_is_coming 在 codex怎么了,之前一直稳定,今天一直无法自动compact显示超出上下文这种结果,以及reconnecting 中发帖
[CleanShot 2026-04-23 at 19.09.23@2x]
显示Reconnecting… 1/5
stream disconnected before completion: Incomplete response returned, reason: max_output_tokens
Codex ran out of room in the model’s context window. Start a new thread or clear earlier history before retrying.
这个session还没开始compact就显示这个超出context.
是不是gpt5.5在上线导致的?
之前一直没有这种情况@hncode 在 姚顺雨带队「重建」混元,首个大模型上线 中发帖
腾讯 Hy3 preview 来了。
这是腾讯混元团队在架构、基础设施重新出发后的第一个版本,首批发布的模型尺寸较小,定位于实用性。同样值得关注的是,Hy3 preview 是姚顺雨归国加盟腾讯后的第一个重要成果,遵循了他「AI 下半场」的理念,模型在腾讯真实业务和复杂场景中打磨提升,关注在真实业务场景的效果与实用性。pushpin (@lal) 在 求助佬友们,通过CPA的OAUTH登录OpenAI账号,接口没法给其它客户端用吗 中发帖
如题,求助下各位大佬们,我CPA上通过古法注册添加了几个OPENAI的账号,想了解学习下Agent开发,用了spring ai进行调用,但是没法用/responses端点,这个是可以通过调整配置cpa或者spring ai进行使用吗?Fancy219 在 部署discourse开源论坛 中发帖
各位大佬们,本人现在有一个香港2g2h的服务器,想要部署一个discourse自己玩.我按照网上的教程来操作最后都是不能正常运行,最好的一次有了管理员注册界面,但是点击注册后显示oops,问了豆包按照她的方法还是不行,所以想请教一下有没有比较详细的部署教程文档小鸟壁纸 (@xnbz) 在 各位佬CC配置的Opus、Sonnet、Haiku对应的GPT的哪个模型? 中发帖
这是我的
“ANTHROPIC_MODEL”: “gpt-5.4(xhigh)”,
“ANTHROPIC_REASONING_MODEL”: “gpt-5.4(xhigh)”,
“ANTHROPIC_DEFAULT_OPUS_MODEL”: “gpt-5.4(xhigh)”,
“ANTHROPIC_DEFAULT_SONNET_MODEL”: “gpt-5.4(xhigh)”,
“ANTHROPIC_DEFAULT_HAIKU_MODEL”: “gpt-5.3-codex(xhigh)”ANGJustinl 在 话说大家感觉gpt image2的思考能力如何? 中发帖
之前香蕉刚出的时候,大家都在说香蕉的图片推理能力很强,这两天 gpt image2 出来了,佬友们有没有测测具体的思考能力?我自己的使用使用体验,感觉推理能力是要比香蕉强一些的,具体的解题任务完成的也很好 😂Atlas Zhang (@Atlas6) 在 关于CPA、注册机、手搓plus的问题请教 中发帖
如题小白想请教各位佬CPA是不是用来把月费会员的额度转化成api来调用的?然后注册机具体有什么作用?手搓plus号是白嫖gpt的plus会员吗,大概是个什么样的流程步骤?