过早客
  • 首页
  • 节点
  • 成员
  • 广告投放
  • 登录
  • 注册

有没有在自己电脑上跑deepseek的,啥配置?

硬件数码 • guowanke • 发表于 9 月前 • 最后回复来自 BusyFox • 9 月前

有没有在自己电脑上跑deepseek的,啥配置?

加入收藏 新浪微博 分享到微信 ❤赞 1764 次点击 0 人赞 3 人收藏

打开微信“扫一扫”,打开网页后点击屏幕右上角分享按钮

共收到12条回复
tianqiliangle 9 月前 北京市 #1 赞 0

16G内存笔记本可以跑8b

layne127 9 月前 湖北省 #2 赞 0

16G内存Mac mini可以跑14b

e241138 9 月前 湖北省 #3 赞 0

RTX 3060 12G,跑14b很快

stargazer 9 月前 湖北省 #4 赞 0

笔记本,8+64,跑DeepSeek-R1-Distill-Qwen-32B,ollama 蒸馏版可以上到70b

mkroen 9 月前 湖北省 #5 赞 0

2080ti 22g*2 DeepSeek-R1:32B-Qwen-Distill-q8_0

funingken 9 月前 湖北省 #6 赞 0

要这么高配置吗?

makabaka 9 月前 湖北省 #7 赞 0

PIII 450,128M,6.4G,TNT2显卡
可以跑0.1b(才怪)

sailgu 9 月前 上海市 #8 赞 0

amd 移动小主机, 可以跑14b,但是有点慢,7b非常流畅。。。

lusyoe 9 月前 湖北省 #9 赞 0

7B,效果真的很一般,至少32B才好用点吧

cnpython 9 月前 湖北省 #10 赞 0

13400F, 16G内存, 4060Ti 16G , 可以跑32b,响应速度一般,跟用豆包差不多。

ArtsCrafts 9 月前 北京市 #11 赞 0

阿里刚开源的QWQ-32B推理模型 性能比肩DeepSeek R1满血版和openai o1。4090就可以部署。

BusyFox 9 月前 湖北省 #12 赞 0

相比之下开源的生图模型 stable diffusion 简直像不需要硬件。

请绑定手机号后,再发言,点击此处
Guozaoke.com—源自武汉的高端交流分享社区
相关主题
华为小米ov说了三年没做成的ai手机,豆包做成了
武汉有哪家家庭宽带运营商能提供公网ipv4
耳夹式蓝牙耳机靠谱吗?
把支付宝删了,好像也没啥影响
电信宽带想提速怎么弄
推荐一个新的输入法,豆包输入法
kindle复活了
净水器提示RO膜到时间了,有必要要换吗?
手机收到澎湃OS3.0的更新提醒,值得升级吗
你们手机一天冲几次电

过早客微信公众号:guozaoke • 过早客新浪微博:@过早客 • 广告投放合作微信:fullygroup50 鄂ICP备2021016276号-2 • 鄂公网安备42018502001446号