https://linux.do 论坛的话题更新通知频道。
ryan (@ryan_7) 在 佬们,求服务器配置推荐 中发帖
主要是通过codex制作视频,打算做一个前端,服务器中使用codex,接入codexui,方便后台一直运行,以及他人可以使用。有调用一些skill、素材和一些python库和前端库。
小白,求推荐服务器的配置正在缓冲99% (@huanchong) 在 AI全自动开发项目做的好累呀,吐槽一下 中发帖
这个点儿了,还在进行测试,你要说生理上,那确实没多累,毕竟全自动测试都跑起来了,心理上累的不行,这个项目我从一月份就开始做,1月17干到4月20了
从3月底,其实整个项目就已经完成了全部的开发,但,完成整个框架的开发和整个系统可用,再到整个系统达到一个发布标准,完全是三件事儿,现在就是从系统可用到达到发布标准,这里真的是折磨人
我设置了6个任务,这6个任务我都要求它使用较差的模型(glm5.1)通过系统架构,至少能跑出90分以上的水平才可以进行发布(满分100),没有什么特殊优化,没有针对这6个任务的优化,全部依赖系统架构来做这件事儿。
那为什么说累呢?因为6个任务,跑一个任务,短的是2个小时起,大部分3个小时起,跑完评分,得出分数是否达标,再去优化,然后有的时候经常冲突,就是,A 任务经过这轮优化评分达标了,B 任务又不达标了;B 任务达标了,A 任务又不达标了,来回折腾,也没啥好...z (@scarz) 在 ld士多突然不能用了? 中发帖
刚刚打开想买点东西
不知道为什么一直重新加载
url变成了这样
https://ldcstore.com/product/xxxx?__chunk_retry=xxxxxxxxxxxxx
咋回事哇 lnwnrng 在 这个plus真的对吗 中发帖
美区节点,右下角德国加地址德国,美区paypal加招行万事达。嫖的首月0元plus,怎么只有auto模型和thinking mini 😭
[image]
[image]
[image]
是现在的首月优惠不配使用好模型了,还是德国开的plus不能用好模型呀luke (@LukeToWorl) 在 关于AI为了扩大用户数量而做出一系列行为的疑惑 中发帖
最近豆包在 2026 年 4 月 7 日 12:00-4 月 30 日 22:00 出了一个活动:【豆包电脑版裂变活动限时返场】,大概内容就是邀请用户可以抽奖。
以下是我个人想不太通的点:最近使用豆包,明显感觉不像以前好用了,幻觉率特别高,夸张点来说就是基本问一错一。我猜应该是算力有点紧缺,可是如果是这样,为什么字节他还要搞活动继续扩大用户数量从而进一步吃紧算力?
我的猜测肯定是不成熟的,希望各位佬友们分享你们的看法 🤔Yiyabo! (@Yiyabo) 在 GPT 5.4 xhigh 是不是变强了? 中发帖
今天在用copilot的gpt5.4 xh,明显感觉实力非凡,体验远超上周。有一个bug我在kiro上用opus4.6聊了两天了都无法解决,而且它做的spec每次都被codex(5.4xh)喷的体无完肤。今晚上用copilot的 5.4xh,一把过,并且完成的非常好。属实是惊讶到我了。Kimi_Moonshot 在 Kimi K2.6 发布并开源,全面精进代码和 Agent 集群能力 中发帖
Talk is cheap. Show me the code.
Linus Torvalds
今天,我们发布并开源 Kimi K2.6 模型,这是我们迄今为止最强的代码模型,它带来了行业领先(SOTA)的代码、长程任务执行和 Agent 集群能力。
[image]
完整基准测试成绩见技术博客
顶尖基准表现:在考察软件工程能力的 SWE-Bench Pro、DeepSearchQA 以及 Humanity’s Last Exam 等高难度测试中,K2.6 成绩持平或优于 GPT-5.4、Claude Opus 4.6 和 Gemini 3.1 Pro 等闭源模型。
超强长程编码:支持不间断编码 13 小时,单次可精准修改超 4000 行代码。在内部实测中,K2.6 成功自主重构了拥有 8 年历史的复杂金融撮合引擎,并将峰值吞吐量提升了 133%。
代码驱...capybarr 在 【人物传记】《布洛赫》 中发帖
这一部分本来应该写到我原本《希望的原理》读书笔记里的,但是发现越写越多,可以独自成篇了……这样一来,我感觉还是单独划分出一个贴来,正好应始皇的置顶,想办法更新出一个系列来(大概能吧)。
书是Ernst Bloch. Eine politische Biografie(《布洛赫:一部政治传记》),作者为Arno Münster(我翻译成中文看的)
先更新布洛赫的青少年时期。@astrostar 在 为什么一开L站,后台就一堆cloudflare的东西吃cpu和内存不带停的 中发帖
[image]
打开L站就会出现,少的时候五六个,多的时候一瞬间感觉有二十几个,狂吃cpu内存十几秒,歇两三秒后循环往复。好奇为什么会这样?兔子馍馍 (@guoqchen) 在 现在claude max5x完全不够用,用opus4.7修四个bug就限额了 中发帖
pro更扯淡,被限额了我只是换个号登录下,切成sonnet立马触发压缩,压缩完就限额了
几个月前5x还能干很多活,现在的5x和之前的pro差不多的,pro直接没法用𝓕-𝓓𝓻𝓸𝓲𝓭 (@F-droid) 在 当拥有的钱财超出个人能力时会重新回流向市场 中发帖
@iceroad 在 想认识一些vibe coding的朋友 中发帖
在各位佬友的正能量影响下,最近接触了vibecoding,从在NS每天刷,买vps,到自己搭节点,从淘宝claude code额度,到自己找中转站,搭建wsl ubuntu跑CC。从不知道怎么和AI沟通,到能够修改提示词。从请帮我整理一下桌面,到帮我构建一个微信小程序。我希望能遇见更多志同道合的朋友,我们可以互相进步,互相帮助,人多力量大杂牌可乐 (@nullcola) 在 【求助】qwen studio 反代出来的 qwen3.6max 在 cc 中无法正常使用 中发帖
[image]
问题如图
现在代出来的 api 调用好像不能用工具,具体模型 id 是 Qwen3.6-Max-Preview-thinking
佬们觉得这是 qwen studio 的网页限制还是反代服务有问题? 🤔jam1024 (@geekjam) 在 讯飞Coding Plan也耍猴了 中发帖
冲讯飞GLM 5.1 的兄弟们可以等等了! 🤣
话说咋国产模型提供商就不能来个稳定可靠的吗,咋个个耍猴超售,还不如中转站呢
官网公告给大家截取出来了,如下: Coding Plan当前用户量激增,高峰时段服务繁忙,可能会出现请求排队或限流,GLM-5.1等各款模型服务正在持续优化中,感谢您的理解。
[image]
[image]@cics 在 用于查看gpt服务是否稳定 中发帖
于苍梧 (@RayHughes) 在 分享一下给MinecraftJava服务器写的类Mixin/AOP的系统 中发帖
因为最新版本 mojang 取消了对源码的混淆,服务端结束了大 remap 乱斗时代。
那么既然结束了 remap 时代面向同一个源码,就大有文章可做。
一句话定性
我先稳稳的接住你(bushi ,这个功能写到了 TabooLib 中 链接如下: taboolib/module/incision/README.md at dev/6.3.0 · TabooLib/taboolib · GitHub
正文
这是个什么东西?为什么需要这个?
首先 TabooLib 的模块开发准则,就是减少用户与开发者的负担,快速上手为主旨。
所以天生比较抗拒启动时增加启动参数或使用 JavaAgent 就要另寻他法来实现对字节码的 retransform (再转换),如果有这两个途径其实写起来更简单。
并且在 Java21+ 就开始收紧 self-attch 的功能,不允许使用这个共。
那么如何...