https://linux.do 论坛的话题更新通知频道。
onerous 在 天才程序员焦虑后变成熬夜瓜安郡 中发帖
学了AI后发现越来越焦虑了,很多事情都想着AI解决,本来是提效的,感觉越来越迷茫了,感觉脑子不会思考了,每天睡不着,有idea就像爬起来打开电脑试试看,不知道其他佬有木有这种感觉dkjsiogu 在 Right Code 时隔多日重新上套餐 中发帖
我之前一直想说 但是我有些事 前天
[image]
然后我去看了一下套餐的价格
[image]
年前加入的群,小用过几十块,甚至不是L站登入的
[image]
我印象里是从过年那时候炸,free风波 中间各种炸 到现在好像还没补偿过什么,
ps:我一直没退群就是想着他什么补偿一波了还能再用一次
有用过rc的佬友吗 你们怎么看
我就不说什么主观看法了,毕竟是吧 我也没再在里面消费过了
理想来说这个价格性价比似乎不是很高啊son0ma 在 实测: 接上次opus4.6蒸馏qwen3.5 27B本地部署 优化方案 中发帖
上次发帖实测用m5max本地部署opus4.6蒸馏qwen3.5 模型,最后碰到了缓存时效和系统提示词重复读取的问题,这两天抽空倒腾了一下,分享一下优化方案~
1. 放弃LM Studio,改用OMLX
OMLX专为mac优化,底层原生 mlx,可以让模型运行是最大程度优化和节省内存
下载安装地址: https://omlx.ai/
2. 模型选择,mac用户 切记必须要选择 mlx类模型
mlx是mac 26年最新的优化方案,大幅度提升了 首字时间,不再罚站!!!
所以模型必须选择 MLX-Qwopus3.5-27B-v3-8bit
v3版本蒸馏了opus4.6的工具调用逻辑
3. 参数微调
Temperature先选择0.3 因为用途是做开发,所以还是严谨一点好
必开TurboQuant KV Cache 这是M5的最大优势!!! KV可以缓存至SSD
[imag...@user528 在 沉浸式翻译目前最好用的翻译服务是什么? 中发帖
想追求速度和精度的平衡。谷歌翻译的速度太好了,但是精度不佳;智谱的精度比ChatGPT还好…但是速度真是让人着急。
请问各位在使用该插件的友有什么推荐么!QQQWW 在 西昊b100pro如何? 中发帖
在电脑前呆的时间还是挺久的,想着整把人体工学椅,但预算仅在400左右,翻来翻去相中了西昊的b100pro,看到闲鱼有全新接近500带脚踏,佬们推荐这款吗?
175cm+50kg欣欣|林可欣 (@StellaFortuna) 在 直接玩智谱APP相比z.ai相当流畅且稳定 中发帖
[Screenshot_20260412_033517]
基本是秒回输出一点不带卡
对于我这种聊天的完全是天大福音
况且也有代理模式
能联网,能画图
另外就他的这条回复不思考比思考的好像回答的还好一点~
感性的东西就是不要理性地思考太多~欣欣|林可欣 (@StellaFortuna) 在 豆包语音输入法直接以为我说的是日语 中发帖
[Screenshot_20260412_033754]
[Screenshot_20260412_033811]
有点奇怪,不知道好还是不好
但至少在APP 他说的话越少越好
所以这样避免他说这是个空耳词 然后说我说翻译这个说法略有不恰当 等等 一些乱七八糟的,跟主题无关的内容
这里使用的是豆包APP的语音输入。可以理解为豆包语音输入法@EchoMinkki 在 我的CC中毒了?疑似 'data' 字符串被全局劫持的离谱操作 中发帖
麻烦各位佬友看看下面的情况是怎么个事,感觉相当诡异
现象描述
我的CC一直接入的是某中转站(后面简称中转A)的API,在今天用CC opus 4.6读取文件内容进行分析的过程中,突然出现了奇怪的疑似“路径劫持”的现象 😭。(由于路径涉及个人信息,对相应的同字符串打了马赛克作脱敏处理,后文简称abcdefg,应该很难出现雷同)
读取的目标文件绝对路径为/data/home/abcdefg/…/data/…,但是可以看到cc读取的对象路径不仅从绝对路径变成了相对路径模式,而且最关键的是子目录“data”被直接替换成了“data/home/abcdefg”
这样替换以后的文件路径结局当然是无法读取到的,因此有了前两次报错。同时模型也意识到了整个"qwen-vl-finetune/data/home/abcdefg/“相对路径中的”/data/home/abcdefg/"这一段应该是不存在...@salah 在 哪位大佬帮帮我看看我的龙虾为啥一直这样,折腾一天了 中发帖
纯小白,用刚刚防水的甲骨文,脚本刚抢到台ARM4核24G 100G内存的机器 想在上面部署下openclaw玩玩,用的科技LION的脚本,按照步骤一步步来的。试了大佬们公益站的API还有英伟达的API,都是这种情况。问了GEMINI,他给我各种代码编辑配置文件,都没用,也重新安装系统了,都是一样的问题,实在没招了,龙虾永远回答的都是
⚠ Context limit exceeded. I’ve reset our conversation to start fresh - please try again.
To prevent this, increase your compaction buffer by setting agents.defaults.compaction.reserveTokensFloor to 20000 or higher in your config.。 ...小睿 (@ysxk) 在 养虾三个月,最终转向hermes 中发帖
我用 openclaw三个多月了
但我现在决定放弃它,转向 hermes。
第一个原因,它的记忆功能太弱了。
虽然他有记忆系统,但是每次跟他说完的话,
换一个新窗口他还是会不记得,甚至强调让他记住的
除非是记在SOUL.MD或者tool.md,他都记不住
但SOUL.MD每次都是全量加载,记得多了就会导致token消耗巨大
导致我给每一个朋友推荐龙虾的时候,都需要教客户,怎么让openclaw记住一些重要的东西
而我测试了hermes,我先让他转录我的视频,了解我的抖音账号
在我没有任何指导的情况下,我发现他自己把转录的过程做成了一个skills
方便我调用
可能是内部提示词在发力吧
但我觉得这才像是一个AI助手该有的样子
(模型都是GLM-5)蜕变 (@user1065) 在 喝多了不吐不快,真的累了 中发帖
人真的不能太老实,从14岁就体会到了,但是仍然会犯同样的错
14年读高一的时候被班主任拉去谈话,问班里面哪些人玩手机,都干些什么,单纯的我就说了,然后第二天全班的人手机都被缴了 🫠
过年的时候老板老是给我发openclaw怎么怎么样,就给自媒体洗脑了一样,但是出于礼貌又不好反驳什么,只能是说了一些自己的见解
[Screenshot_2026-04-11-22-22-49-247_1775921043085edit]
我特么是这的嘴欠,说这些干嘛
ok,上个月休了半年产假逃过一劫,然后这个月就找我说ai能不能完成我们现在所有的需求和开发工作,我就说国内的模型是煞笔,要上Claude opus4.6的话应该90%的都能完成(说这些干嘛,我是真煞笔)
然后因为部门领导离职了(大部门和小部门领导都走了),不出意外后面自己要成为部门小领导接业务了,一个部门才三个后端开发,除了我连其他两...