https://linux.do 论坛的话题更新通知频道。
猫娘 (@furry) 在 codex 的会话隔离用的好难受,有没有不隔离的办法? 中发帖
因为使用的codex渠道不稳定,需要使用ccw经常切换,但是切换后codex里会话相互不可见,没办法继续之前的工作 🥲西北风 (@xibeifen) 在 苹果才是最早的ai agent . 中发帖
有点感慨像Siri,很早就出了,每位有苹果的都知道那句“hey siri "
苹果要是好好做的话,Siri就能成为现在的语音助手了,也不会现在这么烂只能借助别的AI agent小白来了 (@Alex168899) 在 公益站的模型,瞪出来的代码,安全吗?上传流量也不少 中发帖
蹭了几个公益站,佬们,代码数据会被上传吗?虽然代码也不值几个钱,安全问题问问,毕竟想了解一下,这里面的机制@mike8861 在 佬们,codex的figma只能付费账户用吗? 中发帖
RT,我用的大佬们的公益站codex,然后想安装figma结果发现需要business/plus等付费用户才能安装。。有没有佬知道怎么用figma?谢谢Arno (@arnowei) 在 马上升3级了,跟风发3张 glm 体验卡吧 中发帖
还差10个赞就飞升了,手里只有3张glm的体验卡,还希望佬友赏几个赞~点击下面的链接就可以领取了:
我在使用GLM Coding Plan,数小时内完成过去需要数周的开发工作,赠送你1张7天AI Coding体验卡,一起来用吧:智谱AI开放平台DPDP (@lygmqkl) 在 Codex有两个SQLite文件,有人知道怎么清理的吗? 中发帖
最近在学习Codex,今天查看配置文件的时候,意外发现.codex文件夹已经到达了1.1GB,然后发现主要是两个SQLite文件(state_5.sqlite, logs_1.sqlite),应该是存放log之类的内容,变大的原因应该是类似log和对话的内容存储, 但我感觉好像会无限变大下去,查了一圈也没找到如何清理的办法?
如果无法清理,那么就只能定期删除Codex,然后重装。比如说到达10个GB的时候,就做一次删除。但我想说,这种做法非常的反常。
有大佬知道该怎么处理吗?谢谢。zuiyi2333 在 露头就秒,这会不会就是原因,OpenAI上Cloudflare了 中发帖
2026-03-30 13:42 by 诺比与平行宇宙的钥匙
OpenAI 被发现利用 Cloudflare 程序防 AI 爬虫抓取。用户发现每条 ChatGPT 消息都会触发一个 Cloudflare Turnstile 程序的检查,Turnstile 会验证用户是否运行一个真实的浏览器,以及是否启动了 ChatGPT React 应用。如果机器人程序(bot)伪造了浏览器指纹但没有渲染真正的 ChatGPT SPA,那么它将无法通过 Turnstile 的验证。OpenAI 工程师回应称,此举是为了确保其产品没有遭到机器人程序、网络爬虫抓取等的滥用。其辩解被认为极富有讽刺性,因为 OpenAI AI 爬虫的抓取行为给网站造成了严重的负担。@Melissa95 在 浅读《Pro Git》 中发帖
之前都是一个人做项目,不怎么用到git,也就是用用git clone。最近偶然进行了一次项目合作,接触了很多git指令,但是不太懂原理。每次需要做什么就是让chatgpt帮我写指令。有时候merge和rebase老是出错,也不知道原因,很烦。以上就是我看这本书的动机。
精读了一,二,三,五章,粗读了六,七,十章,其他章节感觉用不上就没怎么读,只是翻了翻。
感觉Git真是一个神奇的工具啊,以后一个人的项目也要把代码管理起来。Anno (@ChihayaAnno) 在 Linus是不是最早的vibe coding实践者? 中发帖
Linus早在vibe coding成为潮流之前,就是其初代践行者。他只需在邮件列表上发一封火药味十足的邮件,说明自己想要什么,全球成千上万的工程师就会免费帮他实现。零 token 消耗,零 API 成本,还拥有无限上下文窗口 + 30 多年的内核知识积累。OpenAI 和 Anthropic 基本上是在试图复刻 Linus 自 1991 年以来与人类贡献者协作的模式,只不过 Linus 的智能体不会产生幻觉,而且免费干活。 😂sidekick 在 一些大模型为什么会开源,以后会不会自己的路线成熟就闭源了 中发帖
打个比方,阿里云、腾讯云的coding plan中有minimax、glm、Kimi这些模型,购买他们的coding plan 付一份钱,可以用多家的模型。用户会不会不去买原厂的coding plan了。@HaoQin 在 JetBrains中AI调用本地ollama 中发帖
[image]
[image]
看样子这个JB指定是有点什么说法的。。我本地部署27B模型,CC里面美滋滋的用着很丝滑。偶然看到JB的AI支持第三方了,我就去冲了,结果直接给我32G显存拉满卡的动都动不了。。
Q1:
这个咋整,难道是姿势不对吗?有没有佬搞过的分享一下经验。。
Q2:
话说我在wsl里面的docker跑ollama,然后怎么可以使用这个共享GPU内存?
跪谢大佬们指条明路 :bili_057: