GoForum🌐 V2EX

本地大模型多大显存够用?

s2555 · 2026-04-15 20:45 · 0 次点赞 · 5 条回复

有没有人跑本地大模型养龙虾,多大显存能用得爽一点?我打算买个 4090 魔改 48G 的,够用了吗?

5 条回复
mokeyjay · 2026-04-15 20:45
#1

你至少也要先规划一下自己想跑多少 B 的模型吧?如果你对「够用」的定义是能跑就行,那 2B 4B 的小模型手机都跑得动

s2555 · 2026-04-15 20:50
#2

@mokeyjay 没概念,能达到 ds 刚出来的效果吗?

zhandouji2023 · 2026-04-15 20:50
#3

论文助手,润色之类需要什么显卡够了 @mokeyjay

ntdll · 2026-04-15 21:05
#4

@s2555 #2 满血版的 Deepseek 671B 这种规模本地就别想了,哪怕老黄送你几个计算卡,光电费,就已经是国家电网战略合作伙伴了。

有这个预算,还是买 Coding plan ,这个卡的钱,一年的订阅费都用不完,一年后,你还玩不玩都不一定呢

crocoBaby · 2026-04-15 21:30
#5

上下文 256k 才勉强够用

添加回复
你还需要 登录 后发表回复

登录后可发帖和回复

登录 注册
主题信息
作者: s2555
发布: 2026-04-15
点赞: 0
回复: 0