GoForum › 🌐 V2EX
我现在就要这个:让 LLM 对于一个话题给出尽可能详尽的介绍(不给我就不起来,打滚中……)
shendaowu ·
2026-02-19 15:57 ·
0 次点赞 · 6 条回复
我发现直接在一个对话中问 DeepSeek 影响拖延的因素 DeepSeek 给的回答里没有不安全感,但是我最近发现不安全感好像会影响我的拖延。然后我在另外一个对话中问 DeepSeek 不安全感是否会影响拖延,DeepSeek 说影响很大。
这就很不舒服了。我怀疑很可能是为了降低成本都对 LLM 的输出进行了限制。为了让 LLM 回答得更细致,比如能否通过先让 LLM 列一个大纲,然后再通过一个个追问让 LLM 展开各个主题呢?或者有没有更好的方法?
上面的我问了一下 DeepSeek ,它说我说的方法就是最推荐的了。这是我的测试结果: https://chat.deepseek.com/share/5ntx7ogg8n05tw6gon 。这回里面有安全感了。然后我又追问了一下 DeepSeek 有没有相关的网站,它提到了 STORM 。我用 procrastination 试了一下实在是太慢了,另外不知道用多了会不会要钱。有没有缓存输出结果的网站?
你可能会问为什么不直接去看书。拖延的书我也看过一些,我感觉不同的书各有侧重,还有很多重复的地方。总之就是体验不怎好。
6 条回复
@laminux29 #2 我没说明白,我的意思是就免费的那点默认的最大回答字数根本就没法介绍清楚一个比较大的话题。
@shendaowu maxTokens 是可以自己设置的,当然模型总会自己停止输出,因为训练材料里都是这样的,maxTokens 最大的作用可能是防止模型出 bug 一直循环输出导致账单爆掉吧() 关于你这个问题,你多次调用 api 获取不同方向的描述不就可以了
添加回复
你还需要 登录
后发表回复
你要做定制就不要用 web 来做,直接用 api 来实现🌚web ui 上下文表现不稳定