https://linux.do 论坛的话题更新通知频道。
Davon (@dkly2004) 在 超级逼真 AI 生成证件照 焚决 中发帖
我说真的… 太逼真了,避免无意中侵权别人肖像,所以就不放例子了,直接给prompt吧!这个已经目前调得最好的效果了,建议ChatGPT 直接一次过!太真了!很真!你给个人图,连脸部细节,头发几乎一样!
Transform the photo into a high-end studio portrait in the style of Apple executive headshots. The subject is shown in a half-body composition, wearing professional yet minimalist attire, with a natural and confident expression.
Use soft directional lighting to gently.Gazes 在 信银国际或恢复内地居民线上开户 中发帖
中信银行(国际)今(4.19)起疑似恢复内地居民赴港线上申请开户。持内地居民身份证的客户可在使用港澳通行证入境香港后经中信银行国际App提交申请。
据 xhs@小小小代表 信息,今起通过线上开户的内地居民需在开户成功后前往柜台复核,方可使用户口。尚不清楚「开户成功」是指出现户口号还是后台复审完成(约需数个工作天),亦不清楚柜台复核需要的具体材料。
转自encmasutaBarometer 在 怎么普号的codex额度还能变成plus,不知原因 中发帖
这个就是自己谷歌号注册的gpt,最近好像就是拼了个team用,用了一天多吧。没开过plus,刷新额度突然发现之前添加的个人空间的free额度变成plus了,现在两个空间调用都正常,额度也会正常掉。
[image]
确认查了一下网页个人空间还是free,不是plus啊。
[image]
codex的网页查了下额度还真显示有5小时和周限额了。
[image]Chenyang xi 在 大佬们,sub2api的首字告警时间超过了3秒,求解 中发帖
如图:
[image]
上游是cpa,用的是gpt-pro订阅,服务器是dmit洛杉矶pro,cpa和sub2api都装在dmit里,本地用dmit的reality节点去访问的,问题出在哪呢?比卡丘 (@yixiaochuan) 在 如果按等级限制字数和发帖,不要一刀切会不会更好? 中发帖
佬友们,我觉得限制字数回帖没什么意义,20字不一定就有营养。
反而是逼着佬友凑字数,然后被举报又被删,很打击佬友热情的。
没评论,佬友就没兴趣发帖,
其实做这些限制,都是担心论坛质量下降和服务器顶不住压力吧?
那不如按等级限制发帖数量,
比如1级用户一天最多发2贴,回帖必须20字。
2级最多4贴,2级最小10字。
3级6贴。3级不限字数。
这样有没有搞头?Xuehua123 在 中转站的首token的速度快慢都和什么有关 中发帖
最近自己搭建了sub2api的中转,上游连接的部署在美国的vps上,部署了一个号池,用的cpa,然后分别走了6条家宽。不管走不走首token都要好几秒,最多的居然有300多秒,有佬知道该怎么优化吗
[image]@yirzzz 在 现在大模型能力越来越强,还需要设计很复杂的agent架构吗 中发帖
如题,可能以前的大模型推理能力不足,在设计agent的时候可能需要去规划,执行,react的过程,但好像现在这些能力已经是大模型的基本能力了,还需要去设计很复杂的agent嘛你这是违法行为 (@Anano) 在 是哪里涉及违规推广了 发了一个Claude的使用场景的内容 中发帖
[image]
是哪里涉及违规推广了,没有涉及到链接 推广 只是一个信息咨询,我想知道现在是怎么判定的?
一个Opus4.7的使用CAD的帖子信息,怎么就涉及到推广了?Jade 📔 (@user730) 在 Elevenlabs 又搞活动了,参赛者可以免费用Kiro Pro+和elevenlabs creator一个月 中发帖
如题。具体可点击下面这个链接
https://hacks.elevenlabs.io/hackathons/4LLLLLL (@luo7713) 在 关于Claude code使用gpt缓存无法命中的请教 中发帖
请教一下各位佬,中转的GPT-5.4模型,接入Claude code后使用,基本上就没有命中缓存,是要怎么设置,路由需要调什么吗。咪咪是个大坏咪 (@ericw) 在 有大佬买过小林coding的大模型ai应用开发训练营吗? 中发帖
小弟在学习大模型应用,看到了小林的课程觉得挺不错的,想有偿求一下小林coding的大模型应用开发s2-s5的课程@iheee 在 如何控制VSCode 插件Codex 的 fast模式的开关(中转登录) 中发帖
最近买了codex 的中转,发现同vscode 插件调用5.4模型默认是fast模式,想问各位佬怎么控制
[image]保发 (@Jim_BaoFa) 在 发现claude 官方模型会拒绝base64解码的提示词,也许可以用来鉴别是不是官方模型 中发帖
[af1fd681f8b28765181361c4b4bf1533]
这是官方
我换了GLM5.1后
[67763e184dd7ce72fd4c8b4b6b43367f]
如果你再WEB端问claude,对话会被PAUSEShadowVap 在 给小说翻译器接入MCP说是 中发帖
又更新 AiNiee-Next 了喵
目前是相比上次发帖多了以下内容
翻译对照模式
[image]
LLM自检系统
[Image1769957883967]
LLM自主校对系统
LLM自主生成术语表
支持缓存命中(Gemini Claude DeepSeek)
最近还拆分了以下核心入口,3895->1968
加入了MCP支持,现在LLM可以直接调用MCP进行所有操作
[46d3944bbf5eacfc11cde8c03e82e77e]
[fc762fd68fa3b4963b6b65e50b1d4428]
CLI/TUI/Web/MCP版本好用的话记得回来夸夸这个好猫或者去点个Star喵爱喝咖啡 (@Bree) 在 Codex保姆越来越厉害了 中发帖
[937b6419ae73d4264df0bc65014a23d2]
[image]
昨天听说mac可以操作电脑了,今天试了一下,还是挺不错的
前几个任务都完成的比较快,最后发截图卡了半小时
不过操作微信本身就比较高难度,以前让龙虾搞半天都发不出一条消息
虽然每天都骂GPT5.4不说人话,但是干活确实越来越离不开了
干活很稳,查找问题也扎的很深,帮我解决过超多疑难杂症
继续进化吧,我的龙虾保姆!看好你!