GoForum › 🌐 V2EX
GLM 是什么情况?
feelapi ·
2026-03-03 08:57 ·
0 次点赞 · 5 条回复
买 pro 套餐将近一个月,烧掉 16 亿 token ,我算 pro 用户了吧,写代码角度来看,算是合格的工程师了,我主要用 C++开发。
vscode+claude code cli,使用 glm 文档给出的配置直连,最近几天经常并发受限,这个能理解,但是下面这个经常出现的错误是什么意思?
API Error: 400 {“type”:“error”,“error”:{“message”:“API 调用参数有误,请检查文档。Request 188024 input tokens exceeds the model’s maximum context length 202752”,“code”:“1210”},“request_id”:“20260302194338de7319971d9142ab”}
188024 > 202752
现在代码都直接交给大模型运算了?着什么算数?
算例紧张可以理解,但是频繁出现这个错误,是 claude code 的锅?是有人要害朕?
为啥出现这个?我没干什么,就是让他帮我翻译文章。写代码
5 条回复
添加回复
你还需要 登录
后发表回复
有并发上限,是 1 还是 3 来着,文档有些。
加 GLM 企业微信客服咨询,他们能告诉你答案, 发工单 群里问基本不叼你的, 发这里更没用。