https://linux.do 论坛的话题更新通知频道。
monkey zhang 在 GPT5.4每日200刀拿去蹬 中发帖
一开始搞不懂L站的大佬们,为何无私奉献自己的codex账号,直到后来,我也在L站耗到了羊毛,作为反馈L站,今天也分享一个200刀的作为L站回馈。
auth.json
{
"OPENAI_API_KEY": "sk-NFsfhWxLEFdKy0T2KPKZ9VQ4Bv1r3c6rTcaYiarYk2I1Pml2"
}
config.toml
model_provider = "codexeasy"
model = "gpt-5.4"
model_reasoning_effort = "high"
disable_response_storage = true
[model_providers.codexeasy]
name = "codexeasy"
base_url = "https://www.codexeasy.com"
wire_api = "responses"
requ...qq123321 在 兄弟们救命!4000预算给女朋友买相机,完全不会选😭 中发帖
兄弟们求推荐个相机🙏
预算大概 4000 左右(上下浮动一点也行),打算送给女朋友的。
她平时主要就是:
日常拍照(出去玩)
完全新手,不折腾参数那种
我的需求大概是:
好看
轻便一点
目前自己看了一点:
索尼 ZV-1 / ZV-E10
佳能 R50
但越看越纠结…
有没有老哥用过的,或者更推荐的型号?@HPZS 在 openclew怎么使用chatGpt订阅? 中发帖
各位佬,我想请问一下,openclaw怎么使用gpt订阅的号来使用?
我用codex帮我配置了一个,然后龙虾不能使用skill,不用使用工具。是不是只能使用中转或者api才能使用所有功能是吗?dill 在 小米 MiMo V2 Pro 测试(拉了) 中发帖
第一尝试小米 MiMo, opencode + on-my-openagent 中让他分析一个 Nextjs 全栈项目,然后…
[image]yueyueyue (@yue2024) 在 站内有帖子把AI相关的理论和技术做个系统总结吗?或者推荐下学习资料。 中发帖
如标题所示,最近也在看AI相关的知识,东一榔头西一棒槌,没有体系。比如transformer,function calling mcp ,skills,A2A,Agent,长短期记忆,算力的预估,训练模型的配置,GPU的差异性等?想系统性的学习下大王饶命 (@laoyou) 在 油价上调1.6元,远方的硝烟,终究吹疼了普通人的钱包 中发帖
战争炙热的风,穿过波斯湾的海岸,终究是吹向了大众。
原以为是远方的硝烟,与我无关,
结果一抬头,先涨的是油价,
再一看,连生活都跟着一起颠簸。
远方的枪火没落在我身上,
钱包却先替我挨了几拳。
世人皆叹时局动荡,
我只愁加油时多看一眼油价都心慌。
愿世界和平,也愿我的油箱,
能少受一点战火的牵连。Yaqilin 在 关于利用AI本地和实时字幕生成及打轴翻译的讨论 中发帖
如题,目前小弟用的是最原始的whisperX的模型然后来做的字幕打轴和转录,缺点是 不能实时,这个打轴的精确度不是简单调节个参数就能搞的了的,只能一个一个自己调整,生成的json文件的断句问题我自己用AI写了个脚本勉强解决,现在市面上这种自动转录加翻译的工具还是挺多的吧 Github一抓一大把,就因为多所以才不好选,所以想着怎么优化选择 一大堆都是在开源的whisperx的基础上搞得 前段时间还有根据阿里的ASR模型的,不过这个我还没怎么接触过 只是大概知道中文的识别能力很强 但是对于日语的效果一般。
我还用过Potplayer的那个自动翻译的 那个也是基于whisper模型的本地调用 而且 因为是实时的 如果你电脑差一点 视频最差也要掉帧或者是音画不同步,而且好像不能本地导出生成字幕文件(?)所以请问一下大佬们有没有配置要求更低更有效的方式来做这种工业化的实时字幕生成加翻译的办法呢,很...fen (@feiigfei) 在 天才程序员陨落了,被ant封禁了 中发帖
cc提示403被封禁,然后重新登录any,提示被封禁了 😇,可能是因为节点从美国切到了香港,然后又切换回美国导致的了 😮💨谨言慎行 (@Anano) 在 谷歌Gemini终于要登陆Mac:内测版已发放,代码暗藏屏幕读取功能 中发帖
谷歌开始内测 Gemini for Mac 应用,对标 ChatGPT Mac 版和 Claude 桌面端。
现版本支持生成图片/视频/音乐/表格/图表、分析文档,还在测试 Desktop Intelligence,可读取日历和屏幕上下文。
应用代码中出现了一项名为「Desktop Intelligence」的功能描述:启用后 Gemini 可以读取用户屏幕内容,并从应用中提取信息来个性化体验,类似 Gemini Live 在 Android 上已有的屏幕共享模式。内测版界面与 iPhone 和 iPad 版相似,支持网页搜索、文档分析和对话历史,谷歌还要求测试者体验通过 Nano Banana、Veo、Lyria 等模型生成图片、视频和音乐的能力。正式发布时间尚未确定。
[image]卡卡 (@kakxi66) 在 有什么办法可以下载ReelShort& DramaBox上的短剧 中发帖
有什么办法可以下载ReelShort& DramaBox上的短剧
或者有什么网站会收录上面的网剧
主要想看海外的短剧。。。@kans 在 抽一张 0 刀虚拟卡 中发帖
抽一张 0 刀虚拟卡
[奖品]:0 刀虚拟卡 * 1
🕒 活动时间:
开始时间:[此帖发出开始]
截止时间: :2026-03-20T02:30:00Z (UTC)
📝 参与方式:
在本帖下回复任意内容
🔍 抽奖规则:
每位用户仅允许参与一次。
使用官方抽奖工具随机抽取中奖者。
⚠ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后 12 小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。@febzy 在 想请教一下各位用本地模型的大佬,关于性能上的问题 中发帖
最近尝试了一下openclaw,调用api的体验不必多说,畅快感和花钱速度是成正比的。
于是用ollama搭了本地模型,由于电脑配置一般,最开始尝试的是qwen3的7b和14b模型。
7b模型我的体验就是能聊天,但是openclaw上完全用不了,感觉是逻辑链路不够长。
14b勉强能用,也能处理一些基本信息,但是可能是硬件限制,有时候会出现记忆缺失的问题。
之后qwen3.5的9b模型确实是让我感觉很牛,基本是吊打前两个,配置要求也不是很高。
举个例子:我要求这三个模型做定时任务,7b基本就是嘴上说,实际没做。14b是做了,但是使用的linux系统的corn功能,定时也是写在自己的记忆里。9b确实是使用openclaw的定时功能完成了定时,并且能在网页端查看到。
我现在有点想整个好点的硬件试试更好的本地模型,32b甚至70b这种,但是不太了解目前32b和70b这种模型的效果如何,...