https://linux.do 论坛的话题更新通知频道。
143Heyan 在 飞牛访问海外大模型 中发帖
家里有个飞牛,24小时开机。飞牛上有软路由可以梯子。有阿里云和腾讯云的域名DDNS解析ipv6,手机可以直接访问,但是公司DNS禁止了里云和腾讯云。
问题1:有其他什么好用又便宜的域名吗?
问题2:通过什么docker可以部署在飞牛上,用软路由的网关,用域名挂载,在公司通过域名转发到国外的API
新人求大佬的方案~
不胜感激,献上膝盖。@bingbing2286 在 把公益站的5.2配置到ccs成功后在终端调用 中发帖
请问这个是什么问题呀 🙏
报错:
■ unexpected status 502 Bad Gateway: Unknown error, url:
http://127.0.0.1:15721/v1/responses
其他补充:
我在ccs测试是运行正常的,但是在终端执行codex就失败了
在执行codex前执行了“echo $OPENAI_API_KEY”命令,结果是空的
🙏🙏🙏雪梨纽西兰希思露甘奶迪 (@SydneyNewZealand) 在 世界读书日,微信读书送42.3书币 中发帖
[13BBC3FD-B63D-4215-A962-C873406CD38A1102o]
[A4737115-6002-47ED-B3E9-573B2F2FBD9C1102o]mArcL#zS (@mArcL_z_M) 在 有无北京的佬友,下周要去那边出差,有无推荐的吃和玩的,最好是最地道那种! 中发帖
下周都在房山长阳航天城电子科技园那边开会,不过早上开完会,下午和晚上都有空出去探索一下北京Chuva 在 有大佬知道如何把markdown博客上传到linuxdo么 中发帖
之前写了一些博客,能导出markdown格式的,然后图片是本地的,想着转移到linux.do来,有大佬知道有什么办法么 🤔微风拂面 (@coners) 在 今天是读书日,佬友们最近在读什么书? 中发帖
零零散散的看一些,还没有养成阅读的习惯。去年看了以日为鉴、国富论、国富国穷、国家为什么失败、风沙星辰、北方的空地、我在北京送快递等,感觉挺不错的分享给大家。
今天是读书日,好久没看书了,佬友们最近在读书?@Mrzqd 在 GPT生图吃codex配额还是挺大的 中发帖
[image]
[86c2ae49487da6722167da8798f05196]
中间的错误是nginx响应超时没有配置正确,算是调用了10次。吃满了两个team号的5小时限制。其中包含龙虾部分问答。
[93758bf10460e67062138f33216c1719]
[2e5afaf600fe8ebcd38a76e62f0240e2]
[2e1dc987b7c1873b02bdc4b3adf51300]
[c749145ddc2dd3db348762a5db986794]icecod 在 160买个无质保 chatgpt pro 5x 记录一下能蹬多久 中发帖
之前看到chatgpt plus 和 pro 封号严重,但是最近项目时间比较着急就试试水
[6520eea8fdc0a34fd89d6a3b27011684]
[8d22c0ec89729bc5ce70937d7c664b95]Wohou (@Heiha) 在 大胆逃班吃早餐,转头发现新领导座驾 中发帖
今天胆子大了点,逃班去吃心心念念的肠粉,结果刚下楼就看到新领导的车向我靠近,吓得我连忙把标志性蓝衬衫脱了转头溜之大吉,饱了,舒坦啊 😀 😀天才程序员 (@okm94007) 在 智谱的coding plan 提示访问量过大 中发帖
在Hermes中只要过了10点就提示 429 当前模型访问了过大 请稍后再试 ;龙虾中就没有问题 这两天才出现的这个问题 有没有知道是什么原因的@AtWhuhu 在 2api 可以做到一键切换模型吗?我就定义一个[auto]模型,自由控制auto到任意模型 中发帖
比如我现在用qwen-coder,不稳定了我去后台切成gpt,gemini等等,因为现在都是用的各种白嫖,openclaw、openviking、或者各种编辑器里设置的模型坏了我得去换模型还要重启,自己搭了newapi也搭了cpa,想找个能够统一路由的,各种使用自定义渠道的 我就配置一个auto模型id,我路由平台统一切换转发@LastTime 在 之前的套餐下个月到期,卡不想用了,卡内余额怎么办 中发帖
之前办理的移动流量卡2年合约到了,下个月开始就没有大额流量。但卡里还有100多余额,注销转出的话也只能和之前一样归属地(重庆)的移动卡,但目前还没找到重庆移动的合适套餐,佬们有没有啥邪修方法,给支个招,再可以的话给推荐一下好用的套餐IcarusAegis 在 喜大普奔,字节coding plan支持Glm5.1了,实测首字速度和吐字速度都难以接受啊 中发帖
字节的coding plan支持glm5.1了。
我是企业版的codingplan,试了一下,首字波动超级大,吐字速度也很慢只有4-5token/s,而且经常429。对比kimi 2.6和阿里的glm5,真的用起来太难受了。
[PixPin2026-04-2310-13-28]
kimi:
[PixPin2026-04-2310-05-17]