GoForum🌐 V2EX

我现在就要这个:让 LLM 对于一个话题给出尽可能详尽的介绍(不给我就不起来,打滚中……)

shendaowu · 2026-02-19 15:57 · 0 次点赞 · 6 条回复

我发现直接在一个对话中问 DeepSeek 影响拖延的因素 DeepSeek 给的回答里没有不安全感,但是我最近发现不安全感好像会影响我的拖延。然后我在另外一个对话中问 DeepSeek 不安全感是否会影响拖延,DeepSeek 说影响很大。

这就很不舒服了。我怀疑很可能是为了降低成本都对 LLM 的输出进行了限制。为了让 LLM 回答得更细致,比如能否通过先让 LLM 列一个大纲,然后再通过一个个追问让 LLM 展开各个主题呢?或者有没有更好的方法?

上面的我问了一下 DeepSeek ,它说我说的方法就是最推荐的了。这是我的测试结果: https://chat.deepseek.com/share/5ntx7ogg8n05tw6gon 。这回里面有安全感了。然后我又追问了一下 DeepSeek 有没有相关的网站,它提到了 STORM 。我用 procrastination 试了一下实在是太慢了,另外不知道用多了会不会要钱。有没有缓存输出结果的网站?

你可能会问为什么不直接去看书。拖延的书我也看过一些,我感觉不同的书各有侧重,还有很多重复的地方。总之就是体验不怎好。

6 条回复
codehz · 2026-02-19 16:12
#1

你要做定制就不要用 web 来做,直接用 api 来实现🌚web ui 上下文表现不稳定

laminux29 · 2026-02-19 16:52
#2

在管理学中,你这种行为,是典型的“不合格面试官”的错误。简单来说,你是掌管评价权的面试官,你有一个开放式问题,你心理有个预设答案,但这答案并不一定属于专业回答。然后你找一堆专家作为面试者,每个专家都有自己的专业回答,但因为没有提到你要的预设答案,你就直接认定这些专家不专业。

另外,你使用人工智障的方式也有问题。如果你有严肃的问题,正确的方式是,同时使用多款市面上的主流人工智障,并且每款人工智障要对其多次提问。至于 Deepseek ,目前来说,无论专业性还是逻辑性,它都不是顶级的。

shendaowu · 2026-02-19 16:57
#3

@codehz #1 大佬经常用 API 吗?那你知道单个输出有最大限制吗?我搜了一下没搜到。没限制的话能不能直接让它直接一次生成一篇长文?你别直接去试,没准会花很多钱。

shendaowu · 2026-02-19 17:02
#4

@laminux29 #2 我没说明白,我的意思是就免费的那点默认的最大回答字数根本就没法介绍清楚一个比较大的话题。

codehz · 2026-02-19 17:27
#5

@shendaowu maxTokens 是可以自己设置的,当然模型总会自己停止输出,因为训练材料里都是这样的,maxTokens 最大的作用可能是防止模型出 bug 一直循环输出导致账单爆掉吧() 关于你这个问题,你多次调用 api 获取不同方向的描述不就可以了

inertia · 2026-02-19 17:57
#6

试试 gemini 的 deep research

添加回复
你还需要 登录 后发表回复

登录后可发帖和回复

登录 注册
主题信息
作者: shendaowu
发布: 2026-02-19
点赞: 0
回复: 0