GoForum🌐 V2EX

GLM 是什么情况?

feelapi · 2026-03-03 08:57 · 0 次点赞 · 5 条回复

买 pro 套餐将近一个月,烧掉 16 亿 token ,我算 pro 用户了吧,写代码角度来看,算是合格的工程师了,我主要用 C++开发。

vscode+claude code cli,使用 glm 文档给出的配置直连,最近几天经常并发受限,这个能理解,但是下面这个经常出现的错误是什么意思?

API Error: 400 {“type”:“error”,“error”:{“message”:“API 调用参数有误,请检查文档。Request 188024 input tokens exceeds the model’s maximum context length 202752”,“code”:“1210”},“request_id”:“20260302194338de7319971d9142ab”}

188024 > 202752

现在代码都直接交给大模型运算了?着什么算数?

算例紧张可以理解,但是频繁出现这个错误,是 claude code 的锅?是有人要害朕?

为啥出现这个?我没干什么,就是让他帮我翻译文章。写代码

5 条回复
zhonghao01 · 2026-03-03 09:07
#1

有并发上限,是 1 还是 3 来着,文档有些。

加 GLM 企业微信客服咨询,他们能告诉你答案, 发工单 群里问基本不叼你的, 发这里更没用。

TimPeake · 2026-03-03 09:17
#2

调用频繁了 会有莫名其妙的错误,感觉他们打击灰产过头了。另外,最近三天两头崩是常态。正改 bug 呢,用不了了 能想象那种心情吗😡

vpjacob · 2026-03-03 09:22
#3

同,昨天切换 minimax-m2 可以了

poorcai · 2026-03-03 09:22
#4

@vpjacob #3 GLM5 和 minimax M2.5 哪个更值得入手呢?

vpjacob · 2026-03-03 09:22
#5

@poorcai 昨天才用 minimax-m2 ,暂时没感受差距。感觉不错

添加回复
你还需要 登录 后发表回复

登录后可发帖和回复

登录 注册
主题信息
作者: feelapi
发布: 2026-03-03
点赞: 0
回复: 0