https://linux.do 论坛的话题更新通知频道。
Aaron (@AaronL725) 在 mac mini还是macbook air? 中发帖
选择1: mac mini m4 16g+256g 万兆网口
选择2: macbook air 16g+512g 13英寸(10+8核)
不考虑价格,如果只能选择一个,佬们会怎么选
持续选择困难中🤣Haggi (@shaioo) 在 求推荐个手机支持生图的hub 中发帖
平时都用rikkahub 但是发现这个没有支持v1/image,gpt-image生图,想问问有没有手机端的
[Screenshot2026-04-28-21-36-08-44858c2055caf847804dd606471bb13727]Bingrong LYU (@Yoimiya_LV) 在 求救:也没有大佬知道Codex桌面端(Windows)浏览器使用无法正常开启使用怎么修复 中发帖
如题,这是我的codex界面 已经重装过很多次了 甚至导致原来的配置都丢了…
[image]
[5e75caa1b2277e52bc986d97b47225bd]
这是舍友的Codex桌面端截图 求大佬帮我诊断一下 🫠verbal (@canglang) 在 关于免流的常见思路 中发帖
在 2026 年提免流这个事情,其实是有点 让人感叹一句今夕是何年的。
当前免流的话,纯免流是不可能有的。主要的方案就是通过混淆 host 来实现。需要本身流量套餐就有的定向免流的内容,最终达到让普通流量也能够走定向流量的套餐。
那基本的思路就是要么你选择一个可以提供免流服务的机场。或者是你自己在国内搭建一个服务器,然后搭建一个梯子。
假设使用的是免流机场的服务,那你订阅了它的节点之后 在手机上要修改这个节点的 host 伪装的值,更改为在你的地域可以用的免流host的值。这个值该怎么来的呢?在全国各个地区都不一样,甚至有的地区就没有办法通过后续的伪装来实现免流。
这个值的获取思路是这样的。需要在本地,对享受定向免流服务的软件进行抓包。仅抓取他们的 HTTP 包,看他们的请求头里面有没有 host 的值。如果有的话,这个包就是对的。把这个 host 的值填到节点的host伪装里就可...@luxury 在 分享一下claude降智实例 中发帖
配置:claude free账号 claude sonnet4.6
今天让claude帮我做题,上传一张截图,然后提示词是帮我做一下这道题,第二轮对话只发了下一题的图,然后就开始转圈圈,圈圈内容是用户没有指令,无法给出summary(一串英文只记得里面表述是summary了)Bin (@Bin29) 在 我们一起学Agent!(第二期) 中发帖
从 【Agent笔记】我们一起来学习Agent!(第1期) 继续讨论;我第一期的时候就是想记录一下,因为我在开发agent项目。没想到佬们那么欢迎,我真的诚惶诚恐。
然后这个月实在太忙了:上半月一直在做自己的项目,希望拿到一些投资。前两天刚郴州旅游回来,然后手上两个团队项目在做,而gpt plus眼看着过期了,我就想是时候提高自己的提示词技术和相关知识了————所以也很忙。
今天本来打算写多点的,但是我想还是留到下一期————**我保证这会很快的!就这个星期!**因为今晚有小姐姐叫我打游戏了,休息一波 :tieba_025:
佬我准备买个coding plan了,50左右推荐一个呗,就那种玩具的,我经常需要写一个玩具项目,要求有GLM5左右的水平就可以,主要是周量够,业余开发。没有的话我打算买kimi那个80的了,老板还给我配了gpt plus就不用在自己项目了。
正文开始:
我...出離 (@sandleft) 在 【纪念】萌新的第一次PR 中发帖
前几天用WindsurfAPI的时候发现codex app有bug,然后我就直接改了,没想到通过了
只是没想到,第一次pr竟然是反代哈哈
[image]Bunn (@BunnHack) 在 研究团队Talkie发布首个“1930年复古” 13B大语言模型 TalkieTalkie-1930 中发帖
近日,研究团队Talkie正式发布了 Talkie-1930-13b-it。这并非一个追求最新知识的AI,而是一个刻意“停留在过去”的复古语言模型(Vintage Language Model)。该模型完全基于1931年以前的历史文本进行训练。
该模型的基座版本(talkie-1930-13b-base)在 260B Token 的预1931年英语文本上进行了训练,内容涵盖书籍、报纸、期刊、专利及法庭案例。与使用现代聊天记录微调的AI不同,
Talkie使用的是从历史礼仪手册、百科全书和书信指南中提取的指令对,并辅以在线直接偏好优化(DPO)技术。它的回答风格、词汇选择和知识储备完全局限于20世纪30年代之前。
研究团队指出,Talkie-1930 不仅仅是一个有趣的对话伙伴,它在AI基础研究中具有重要价值:
通过评估模型对1931年后发生的历史事件(如二战、太空竞赛)的“惊讶程度...@wag1719 在 新人求教论坛里面名字后面带不二之选 中发帖
新人求教论坛里面名字后面带不二之选,这个标签是说这个佬信誉比较好吗?什么条件可以有这个称呼呢?去跳蚤市场看了下不懂能不能买,是不是带不二之选的信誉比较高?0wFF (@Fengfeng10) 在 colab可以直接免费用Gemini 2.5 flash哦w 中发帖
谷歌官方的例子w)
ff之前好像发过一篇,但是貌似没有人看明白欸ww
具体用法就是先获取一下模型然后直接用就好啦w
# @title Formatted streaming example
from google.colab import ai
wrapper = LineWrapper()
for chunk in ai.generate_text('你是一只猫猫w', model_name='google/gemini-2.5-flash', stream=True): #这里原来是2.0,要改成2.5哦w
wrapper.print(chunk)
# @title List available models
from google.colab import ai
ai.list_models()
[image]杂牌可乐 (@nullcola) 在 把郊狼接入任意LLM客户端 中发帖
书接上回:郊狼和codex能结合一下吗
大部分已经开发完成了,经过不严谨的测试,核心功能是没啥大问题了,应该今晚就能发布第一个版本
基本原理是在本机运行了一个转发层并监听,llm客户端直接请求本地运行的这个服务并转发到上游,项目会再根据上游返回内容对郊狼发出相应的电击指令,从而实现在codex等客户端里模型一写代码就电击用户的效果 🤩
因为没有用mcp等方案,所以理论上兼容任何一个可以自定义API的llm客户端 🫣
[image]