https://linux.do 论坛的话题更新通知频道。
fay (@tgy) 在 ai应用开发应该学什么 中发帖
迷茫了很久了,学校学的东西不精,实习学的也零零散散,都不知道干什么,然后一直在想在这个ai盛行的时代学点ai相关的去找工作,逛l站的时候发现大家都在说开发底层模型卡学历,不卡学历的就是做一些ai应用开发,但是又不知道从哪下手,问ai又不知道行不行,路走的对不对,求各位佬支个招,应该怎么走这条路,我应该去学什么😔@qwetfoit123 在 真是赶上好时候了,不过也不知道算不算是好时候吧 中发帖
网页端几十分钟就能生成这26页的PPT(原生可编辑),本地agent很快就能生成双栏8页的ieee trans期刊的排版,虽然说肯定是比较粗糙的,但是感觉确实对效率的提高很大
[49a9ef75088136ac8741fc041929b20a]
[b71f902cc491778489b1dff472720c93]Mci77777 在 到底 100 rmb 可以买多少 token/等值刀? 佬友们来说一下现在的价格. 中发帖
近期开了几个中转站把我绕昏了.
输入价格:2 元/M Token
输出价格:8 元/M Token
缓存输入:0.1 倍率
缓存写入:1.25 倍率
1 rmb=17 刀?
也有佬友买了 3 元/100 刀
[[image]] (https://cdn3.ldstatic.com/original/4X/0/9/c/09cc4f16b3378d06931b6b12a9f7a8df984614ec.png “image”) 不知道这个算啥,感觉是不便宜的,有没有佬来看看,不要问我怎么买,自己去搜关键字
星辰 ai
充值比例 1:1
gpt-pro 号池 0.3 倍率
也就是 1 元=3.3 刀
Ikuncode
倍率计算为
0.2
1 元=5 刀@McD 在 openclaw中的completions接口与responses接口 中发帖
最近在折腾openclaw,注意到completions接口和responses接口好像都可以调用,想问问各位佬有这俩个的区别是什么,会不会对模型的智商和能力造成影响?出離 (@sandleft) 在 gpt在claude code中和在codex中体验差别大吗 中发帖
要让agent持续跑一整天的话cc中只要loop就够了,但是codex app就需要用到站里佬友的codexpotter,然后codex自己当检测员,相当于多开了一遍。
其实之前也在cli里面单独用过那个脚本,有些奇怪的是同样的提示词脚本总是做错,但是用codex app当检测员就没事,而且还能边看边修,自己根据需要开窗口调推理等级,就是token消耗太大了。
要是gpt在cc里面质量差不多的话我考虑直接搬家,反正现在都有客户端花海 (@ciren) 在 跪求GPT 超低价网址 中发帖
前阵子有大佬分享了一批网站,都是20块钱30块钱,甚至7块钱的账号一个月的。
但是我去看了一圈,现在都基本上没了,库存都为0了。
现在还有哪些大佬有这些资源渠道呀,跪求Man1nblack 在 分享最近租房意外找到的信息:北京朝阳区2026应届毕业生可享3个月免费公租房政策 中发帖
2026年1月1日后取得全日制本科及以上学历的国内外毕业生,可享受**“免押金、最长3个月免租金”的优惠,未就业人员可免费居住1个月**;在朝阳区就业人员可免费居住3个月。同一毕业生不可重复享受优惠。参与此类优惠房源情况如下:
对接对象须同时满足以下条件:
**1.**取得全日制本科及以上学历或2026年全日制本科应届毕业生(2026年1月1日后取得全日制本科及以上学历的国内外毕业生),公告发布之日年龄不超过35周岁的青年;
**2.**申请人及家庭成员(家庭成员包括配偶和未成年子女)在朝阳行政区域内无住房;
**3.**申请人需在朝阳区就业且缴纳社保(2026年全日制本科及以上学历应届毕业生未就业人员除外)。
具体可以看微信公告,房子还不错在马泉营,三个月免费住。
https://mp.weixin.qq.com/s/4KyMhQI8YXSYjWvTU91BLQ?scene=...@E4y 在 Codex牌巧克力,吃了VibeCoding会更顺利吗? 中发帖
[1000045211.jpg]
男友送的巧克力,之前吃的时候都是在兜里撕的包装,看都没看就造了,前几天晚自习饿的不行了,尝试觅食,发现了这个,突然想起来留一个拍个照水个贴再吃
这个味还是挺好吃的,很有巧克力味
好像有别的佬友也买过这个商家其他口味的?@qql 在 求助佬cpa+gpt/free 怎么接到claude code使用 中发帖
求助佬cpa+gpt/free 怎么接到claude code使用
export ANTHROPIC_BASE_URL=http://127.0.0.1:8317
export ANTHROPIC_AUTH_TOKEN=sk-dummy
2.x.x 版本
export ANTHROPIC_DEFAULT_OPUS_MODEL=gpt-5(high)
export ANTHROPIC_DEFAULT_SONNET_MODEL=gpt-5(medium)
export ANTHROPIC_DEFAULT_HAIKU_MODEL=gpt-5(minimal) # 不推荐使用 gpt-5(minimal),建议使用 gemini-2.5-flash-lite 代替
1.x.x 版本
export ANTHROPIC_MODEL=gpt-5
export ANTHROPIC_SMALL...若水散人LV 99999999999999999999999999999999999999 (@hotbob011) 在 XCHAT出来了。你们用了么? 中发帖
[X]
感觉很拉稀啊。
界面简单没错。但就是一左下方的按钮。点了直接到X。
其它的毛也没发现。有啥可用的。可吹的地方啊。不拿nt (@nottake) 在 请问各位佬,桌面版的Codex是和cli什么区别。以及如何用账号去用 中发帖
请问各位佬,如果用桌面版的Codex,我看是需要进行账号登入的,如果想要用api进行操作或者买现成的pro账号,会不会有影响,并且是不是默认走VPN, 也不知道这样会不会封号@lamwing 在 DeepSeek V4帮我找出了一个Spring AI的bug 中发帖
最近呢,在尝试用Spring的各种最新的技术栈写一个练习的小项目,Spring boot用的都是最新的4.0.5。在这种情况下,我用Spring AI 2.0.0-SNAPSHOT很合理对吧
但是出现了一个诡异的情况的,AI返回来的响应似乎被阻塞了一样,首字响应时间巨长,然后所有的chunk都会在十几毫秒内返回
这个时候用了GLM、qwen、claude sonnet 4进行初步排查,要么就说是tomcat缓冲的问题,要么就是gateway mvc版本的问题。这个时候我已经不断的尝试他们说的解决方案,甚至把底层换成了WebFlux
claude pro opus4.6则是秒男,还没跑完一轮就限额了=.=
只有v4 pro,opus思路一样,不断的帮我查看spring ai的源码,最终发现是spring ai的问题,内部阻塞了流式响应。最后我把Spring AI的版本固定在2.0.0...bobxia (@BBX) 在 hermes接入deepseek遇到的奇怪问题 中发帖
似乎有这么一个问题:deepseek的API强制要求回传之前对话的thinking的内容 但是由于hermes本身没有涉及回传这个字段导致了会出现400报错
❌ Non-retryable error (HTTP 400): HTTP 400: The reasoning_content in the thinking mode must be passed back to the API.
⚠ Non-retryable error (HTTP 400) — trying fallback…
⚠ Error code: 400 - {‘error’: {‘message’: ‘The reasoning_content in the thinking mode must be passed back to the API.’, ‘type’: ‘invalid_request_er...